近日,阿里巴巴旗下的通義千問團隊宣布了一項重大進展,正式推出了其旗艦級的視覺語言模型Qwen2.5-VL。此次開源的版本涵蓋了3B、7B以及72B三種不同規模,以滿足多樣化的應用需求。
Qwen2.5-VL作為Qwen模型家族的新成員,展現了強大的視覺理解能力。它不僅能夠準確識別諸如花鳥魚蟲等常見物體,更能夠深入解析圖像中的文本、圖表、圖標、圖形以及整體布局,為用戶帶來更為詳盡的信息解讀。
尤為Qwen2.5-VL還具備作為視覺代理的能力。它能夠像人一樣,通過推理動態地使用各種工具,甚至初步掌握了操作電腦和手機的技能,為智能化應用開辟了全新的可能性。
在視頻處理方面,Qwen2.5-VL同樣表現出色。它能夠輕松理解超過一小時的長視頻內容,并憑借精準定位相關視頻片段的能力,有效捕捉事件的關鍵信息,為用戶節省了大量查找時間。
Qwen2.5-VL還具備強大的視覺定位功能。它能夠通過生成邊界框或點來精確定位圖像中的物體,并以穩定的JSON格式輸出坐標和屬性信息,為圖像分析提供了有力的支持。
對于結構化數據的處理,Qwen2.5-VL同樣游刃有余。無論是發票、表單還是表格等數據,它都能夠實現內容的結構化輸出,極大地提升了金融、商業等領域的工作效率。
在官方公布的測試中,旗艦模型Qwen2.5-VL-72B-Instruct在一系列涵蓋多個領域和任務的基準測試中均取得了優異成績。特別是在理解文檔和圖表方面,它展現出了顯著的優勢。同時,作為視覺代理進行操作時,也無需進行特定任務的微調,展現了極高的靈活性和適用性。
在較小模型方面,Qwen2.5-VL同樣表現出色。7B版本的模型在多個任務中超越了GPT-4o-mini,而3B版本則作為端側AI的潛力股,性能超越了前代7B模型,為用戶提供了更為高效、便捷的智能化體驗。
據通義千問團隊介紹,與Qwen2-VL相比,Qwen2.5-VL在模型結構和感知能力上均進行了優化升級。它增強了對時間和空間尺度的感知能力,并簡化了網絡結構以提高模型效率。這些改進使得Qwen2.5-VL在智能化應用中更加智能、高效。