





源自:華爾街見聞
源自:硬AI
當阿里云展現(xiàn)出“強大模型+充足算力+完整云平臺”的組合優(yōu)良時,是不是印證了類似去年北美云計算服務商的投資規(guī)律?
農歷除夕夜,在全世界華人喜迎新春之時,紐約證券交易所的電子屏上,阿里巴巴美股股價在收盤前顯現(xiàn)明顯異動——從漲幅1%快速拉升至6.7%。
行情異動的背面,是一場無硝煙的技術奇襲。
1月29日凌晨,阿里通義千問團隊悄然上線的大模型Qwen2.5-Max,在多個權威基準測試中展現(xiàn)出與全世界頂級模型比肩的性能。
繼DeepSeek之后,Qwen2.5-Max的發(fā)布是中國AI陣營在高性能、低成本技術路線上的又一重要突破。
市場人士分析叫作,此前過度聚焦DeepSeek,卻忽略了包含阿里通義在內的中國AI整體性追趕。行業(yè)媒介《信息平權》暗示,若阿里Qwen-2.5-max這次的確性能超過V3,能夠對其RL推理模型給予更大期待。
進一步,當阿里云展現(xiàn)出“強大模型+充足算力+完整云平臺”的組合優(yōu)良時,是不是印證了類似去年北美云計算服務商的投資規(guī)律?倘若美股因AI整體增值10萬億美元,中國AI資產的重估機會是不是已至?
全面對標全世界頂級模型,百萬token里程碑
Qwen2.5-Max采用超大規(guī)模MoE(混合專家)架構,基于超過20萬億token的預訓練數(shù)據(jù)。
在測試大學水平知識的MMLU-Pro、評定編程能力的LiveCodeBench、綜合能力評定的LiveBench,以及近似人類偏好的Arena-Hard等多個權威評測中,該模型均展現(xiàn)出與DeepSeek V3、GPT-4和Claude-3.5-Sonnet比肩,乃至領先的性能。
阿里團隊暗示,隨著后訓練技術的持續(xù)進步,下一個版本將有望達到更高水平。
Qwen2.5團隊同步發(fā)布了兩個創(chuàng)新型號:Qwen2.5-7b-instruct-1m和Qwen2.5-14b-instruct-1m。這些開源模型支持高達100萬token的上下文窗口,作為業(yè)內首個達到此規(guī)模的公開可用模型。
這些模型運用稀疏重視力,只關注上下文中最重要的部分。這種辦法處理百萬token輸入的速度比傳統(tǒng)辦法快3到7倍,輸出長度達到8000個token。然而,這需要模型識別上下文文檔中的關鍵段落——這是當前語言模型經常難以完成的任務。
在測試中,14B型號和Qwen2.5-Turbo在查詢非常長的文檔中的隱匿數(shù)字時都達到了完美的準確性。較小的7B型號亦表現(xiàn)良好,僅有輕微的錯誤。
在RULER、LV-Eval和LongbenchChat等需求更高的繁雜的上下文測試中,百萬token模型的表現(xiàn)優(yōu)于128K token模型,尤其是在超過64K token的序列中,14B型號乃至在RULER中得分超過90分——這是Qwen系列的第1次——在多個數(shù)據(jù)集上連續(xù)擊敗gpt - 4o mini。
是時候整體重估中國AI資產了嗎?
倘若說DeepSeek V3的橫空出世展現(xiàn)了中國AI的銳度,那樣這次阿里的突破則表現(xiàn)了產業(yè)生態(tài)的深度進化。
在Qwen2.5-Max發(fā)布當天,阿里云百煉平臺同步開放了完整的工具鏈支持,研發(fā)者能夠直接在云端調用。這種“超算集群+開源生態(tài)+云原生”的三位一體架構,與北美AWS、Azure、GCP三大云服務商的商場模式形成鏡像。
另外,按照咱們之前說到的摩根士丹利最新研報,低成本高性能模型亦將重塑數(shù)據(jù)中心和軟件行業(yè)格局:
針對中國數(shù)據(jù)中心而言,短期內,倘若大型科技機構采用類似技術路線,可能減少AI訓練關聯(lián)需要。但從長遠來看,低成本模型將推動推理需要增長,對一線城市數(shù)據(jù)中心形成好處; 針對中國軟件行業(yè),AI模型成本的降低將降低應用程序運行AI功能的門檻,從供給側改善行業(yè)環(huán)境。倘若阿里Qwen-2.5-max的性能確實展現(xiàn)出預期水平,加之其低成本優(yōu)良與完整云生態(tài),或誘發(fā)DeepSeek之后的中國AI資產新一輪重估。返回外鏈論壇: http://www.fok120.com,查看更加多