国产多P交换刺激视频,精品H动漫无遮挡在线看,五月天亚洲图片婷婷,国产最变态调教视频

密切跟進OpenAI,國產o1類推理模型陸續登場
來源:界面新聞作者:伍洋宇2025-01-24 12:53

2025年第一個月,國產o1類模型開始密集更新,發布者包括“六小虎”中的月之暗面、階躍星辰,以及獨立于創業公司格局外的DeepSeek。

1月20日,DeepSeek正式發布性能對齊OpenAI-o1正式版的DeepSeek-R1,并同步開源模型權重。

根據DeepSeek披露的測試結果,它在數學、代碼、自然語言推理等任務上與OpenAI-o1-1217基本持平,尤其在AIME 2024(美國數學邀請賽)、MATH-500、SWE-Bench Verified(軟件開發領域測試集)三項測試集上以微弱優勢取勝。

作為對R1能力的一種驗證,由660B版本R1蒸餾得到的多個小尺寸模型中,32B和70B兩款模型在多項能力上能夠與OpenAI o1-mini對標。并且,這些蒸餾模型分屬Qwen系列和Llama系列,其中,14B Qwen系列蒸餾模型,其各項推理類測試集表現已經明顯好于QwQ-32B-Preview。

需要指出的是,DeepSeek還同步開源了DeepSeek-R1-Zero,這是一個僅在預訓練基礎上加入了RL(強化學習)而沒有經過SFT(監督微調)的成果。

由于沒有人類監督數據介入,R1-Zero在生成上可能存在可讀性較差、語言混雜的現象,但該模型仍然足以對標OpenAI-o1-0912。此外,它更重要的意義是側重于探索僅通過強化學習訓練大語言模型以獲得推理能力的技術可能性,為相關后續研究提供了重要基礎。

定價方面,DeepSeek延續了“AI大模型界拼多多”的身份標簽。DeepSeek-R1 API服務定價為每百萬輸入tokens 1元(緩存命中)/ 4元(緩存未命中),每百萬輸出tokens為16元。這番價格中,其緩存命中的輸入token價格不足OpenAI o1的2%,緩存未命中的輸入價格及輸出價格也僅為o1的3.6%。

另一個與DeepSeek-R1顯得針鋒相對的推理類模型,是月之暗面于同一天發布的K1.5。

從去年11月開始,月之暗面已經更新了k0-math數學模型、k1視覺思考模型等加入了強化學習的k系列模型。k1.5按照模態思路推進,是一個多模態思考模型。

月之暗面給k1.5的定位是“多模態o1”。簡單而言,k1.5同時包含多模態的通用能力和推理能力。

據官方數據,其Short-CoT(可理解為短思考)模式下的數學、代碼、視覺多模態和通用能力,對標GPT-4o和Claude 3.5 Sonnet;Long-CoT(可理解為長思考)模式下的數學、代碼、多模態推理能力,則達到了OpenAI o1正式版水平。

就R1和k1.5的訓練方式而言,二者都采用了強化學習、多階段訓練、思維鏈以及獎勵模型。從公開信息看來,其不同環節存在各自的技術策略。

DeepSeek利用了數千條長CoT冷啟動數據,先是對DeepSeek-V3-Base這一基礎模型進行微調。隨后進行面向推理的大規模RL訓練,并引入語言一致性獎勵克服語言混雜問題。經歷監督微調(SFT)之后,又進行適用于所有場景的強化學習,對推理數據和一般數據采用不同的獎勵規則。

另外,R1在強化學習中加入了組相對策略優化算法(Group Relative Policy Optimization,GRPO),從效果上來說,它能夠優化策略、提高樣本效率和增強算法穩定性等。

k1.5一方面將強化學習的上下文窗口擴展到128k,另一方面采用在線鏡像下降的變體進行穩健的策略優化,兩者相結合讓k1.5能夠建立一個相對簡潔的強化學習框架,在不加入蒙特卡洛樹搜索、價值函數和過程獎勵模型等更復雜技術的情況下,也能夠保證性能。

需要指出的是,k1.5在強化學習中還加入了“長度懲罰”來抑制響應長度,即確立一個公式,根據響應長度和確定性來分配獎勵值。此外它還采用了“最短拒絕采用方法”(選擇最短的正確響應進行監督微調)等方法來抑制響應長度。

k1.5的另一個特點是對文本和視覺數據進行了聯合訓練,這使其具備多模態能力。不過Kimi也承認,由于部分輸入主要支持文本格式,其面對部分幾何圖題的圖形理解能力還不夠強大。

在此之前,階躍星辰也于1月16日上線了Step Reasoner mini(下稱“Step R-mini”)實驗版。這也是一款具備超長推理能力的推理模型。

但它還未完全準備好的是,目前在測試集中主要對標OpenAI o1-preview和o1-mini,而非o1完整版,當然這應該也與模型大小和訓練方式有關。在國內對標模型上,其表現與QwQ-32B-Preview相近。

不過,階躍星辰強調其“文理兼顧”,使用了On-Policy(同策略)強化學習算法,在保證數學、代碼、邏輯推理能力的同時,也能夠完成文學內容創作和日常聊天的任務。

至此,從去年9月OpenAI以o1模型變革模型訓練范式之后,各家大模型公司開始兌現當時的行業預期,形成了一定規模的國產o1類模型跟進潮。

但在所有玩家密切跟進o1的同時,OpenAI又在去年12月的發布季上讓o3和o3-mini一同亮相。盡管還沒有正式上線,但從OpenAI披露的數據來看,o3的性能相比o1又猛長了一大截。

例如,在SWE-Bench Verified這一軟件開發測試集中,o3得分71.7%,而o1僅有48.9%;在AIME2024測試集中,o3準確率96.7%,而o1為83.3%。o3的一些表現,已經開始展現AGI(通用人工智能)的初步特征。

當然,o3也存在自己的問題。一方面,o系列模型普遍更擅長邊界清晰、定義明確的任務,對部分現實世界的工程任務處理還存在欠缺。另一方面,近期,o3在FrontierMath這項數學基準測試中,也因OpenAI資助過相關機構而面臨提前獲取真題的真實能力水平質疑。

但擺在國內大模型公司面前的共同問題仍然是明確的。從技術上來說,無論是DeepSeek-R1還是k1.5,都還沒有成功加入過程獎勵模型和蒙特卡洛樹搜索等更復雜技術,而這是否是模型進一步提高推理能力的關鍵方法,我們還無從得知。

另外,從o1到o3,OpenAI公布的間隔時間僅有三個月,這意味著強化學習帶來的推理階段scaling up的技術范式,顯然比GPT系列模型以年為單位的預訓練范式的節奏要快。

這是國內大模型公司共同要面對的競爭壓力。OpenAI不僅找到了更明確的技術路徑,并且有足夠的資源快速驗證并推進。當下,國內大模型行業將比過去更需要加速提效的突破式創新。

責任編輯: 陳勇洲
聲明:證券時報力求信息真實、準確,文章提及內容僅供參考,不構成實質性投資建議,據此操作風險自擔
下載“證券時報”官方APP,或關注官方微信公眾號,即可隨時了解股市動態,洞察政策信息,把握財富機會。
網友評論
登錄后可以發言
發送
網友評論僅供其表達個人看法,并不表明證券時報立場
暫無評論
為你推薦
時報熱榜
換一換
    熱點視頻
    換一換