本報訊 (記者袁傳璽)
1月27日凌晨,阿里云通義重磅開源支持100萬Tokens上下文的Qwen2.5-1M模型,推出7B及14B兩個尺寸,均在處理長文本任務中穩(wěn)定超越GPT-4o-mini;同時開源推理框架,在處理百萬級別長文本輸入時可實現(xiàn)近7倍的提速。
百萬Tokens長文本,可換算成10本長篇小說、150小時演講稿或3萬行代碼。兩個月前,Qwen2.5-Turbo升級了百萬Tokens的上下文輸入能力,廣受開發(fā)者和企業(yè)歡迎。如今,開源社區(qū)可基于全新的Qwen2.5-1M系列模型,進行長篇小說或多篇學術論文的解析,或是探索倉庫級代碼的分析和升級。
Qwen2.5-1M擁有優(yōu)異的長文本處理能力。在上下文長度為100萬Tokens的大海撈針(PasskeyRetrieval)任務中,Qwen2.5-1M能夠準確地從1M長度的文檔中檢索出隱藏信息,僅有7B模型出現(xiàn)了少量錯誤。在RULER、LV-Eval等基準對復雜長上下文理解任務測試中,Qwen2.5-14B-Instruct-1M模型不僅擊敗了自家閉源模型Qwen2.5-Turbo,還穩(wěn)定超越GPT-4o-mini,為開發(fā)者提供了一個現(xiàn)有長上下文模型的優(yōu)秀開源替代。
大模型的長文本訓練需要消耗大量的計算資源,通義團隊通過逐步擴展長度的方法,從預訓練到監(jiān)督微調(diào)再到強化學習等多個階段,高效地將Qwen2.5-1M的上下文長度從4K擴展到256K;再通過長度外推的技術,創(chuàng)新引入Dual Chunk Attention機制,在無須額外訓練的情況下,將上下文長度高性能地穩(wěn)定擴展到1M,從而在較低成本下實現(xiàn)了Qwen2.5-1M模型。
同時,為了加快推理速度,通義團隊在vLLM推理引擎基礎上,引入基于Minference的稀疏注意力機制,并在分塊預填充、集成長度外推方案和稀疏性優(yōu)化等多環(huán)節(jié)創(chuàng)新改進。基于這些改進的推理框架有效地加快了模型推理速度,在不同模型大小和GPU設備上,處理1M長度輸入序列的預填充速度提升了3.2倍到6.7倍。
據(jù)了解,Qwen2.5-1M已經(jīng)在魔搭社區(qū)ModelScope和HuggingFace等平臺開源,開發(fā)者可前往下載或直接體驗模型;相關推理框架也已在GitHub上開源,幫助開發(fā)者更高效地部署Qwen2.5-1M模型。開發(fā)者和企業(yè)也可通過阿里云百煉平臺調(diào)用Qwen2.5-Turbo模型API,或是通過全新的Qwen Chat平臺體驗模型性能及效果。
(編輯 張偉)
多地召開“新春第一會” 高質(zhì)量發(fā)展、改革創(chuàng)新等被“置頂”
隨著春節(jié)假期結束,全國多地在蛇年首個工作……[詳情]
16:21 | 聚焦全球市場 共探航運指數(shù)期貨新... |
16:19 | 莫高股份2024年實現(xiàn)營業(yè)收入3.28億... |
16:14 | 東方嘉盛2025年第一季度營收同比增... |
16:12 | 2024年營收不足3億元 蘭州黃河被實... |
16:10 | 甘肅能化2024年實現(xiàn)凈利潤12.14億... |
16:10 | 坤恒順維2024年超三成營收用于研發(fā)... |
15:49 | 央行最新部署,事關金融“五篇大文... |
15:16 | 西山科技2024年實現(xiàn)營收3.36億元 ... |
15:14 | 醬油業(yè)務穩(wěn)固 ST加加一季度凈利同... |
15:11 | 聯(lián)影醫(yī)療披露2024年ESG報告 強化供... |
15:11 | 今創(chuàng)集團一季度凈利潤同比增長244.... |
15:11 | 供銷大集2024年營收14.24億元 凈利... |
版權所有證券日報網(wǎng)
互聯(lián)網(wǎng)新聞信息服務許可證 10120180014增值電信業(yè)務經(jīng)營許可證B2-20181903
京公網(wǎng)安備 11010202007567號京ICP備17054264號
證券日報網(wǎng)所載文章、數(shù)據(jù)僅供參考,使用前務請仔細閱讀法律申明,風險自負。
證券日報社電話:010-83251700網(wǎng)站電話:010-83251800 網(wǎng)站傳真:010-83251801電子郵件:[email protected]
安卓
IOS
掃一掃,加關注
掃一掃,加關注