2024 年大模型技術快速演進,相較于 2023 年的大小模型之 爭,技術的進步方向逐步向應用落地方向傾斜,降低端側模型 部署門檻,縮短模型推理時延,提升模型交互能力,大模型的 發(fā)展迎來了新的變化。本文將從技術視角梳理 2024 年以來大模 型各個領域發(fā)生的變化,以行業(yè)領先實踐為佐證,提出大模型技術演進方向。語言大模型發(fā)展迎來新范式,通過強化學習優(yōu) 化內部思維鏈策略,以提升復雜邏輯推理能力。多模態(tài)大模型架構正向端到端演進,決策準確性和靈敏度提升推動機器人場景應用落地。在視頻生成領域,DiTs 架構的可擴展性優(yōu)勢顯現(xiàn), 推動 AI應用商業(yè)化。在硬件部署方面,模型壓縮、安全控制等 技術正降低部署門檻。在智能體實踐方面,垂類大模型開始在 智能終端環(huán)境應用。在合成數(shù)據(jù)策略方面,自我獎勵語言模型 生成合成數(shù)據(jù),試圖打破數(shù)據(jù)瓶頸。
一、語言大模型的新范式:強化學習優(yōu)化思維鏈
規(guī)模定律的延伸
在2024年之前,語言大模型的“規(guī)模定律”已經得到了業(yè)界的廣泛認可。模型參數(shù)的擴展、數(shù)據(jù)集質量的提升以及人工微調,使得語言模型展現(xiàn)出了前所未有的泛化能力和通用能力。然而,2024年的技術進步,將這一定律延伸至后訓練階段。
OpenAI的o1推理大模型
今年9月,OpenAI公開發(fā)布的o1推理大模型,通過強化學習優(yōu)化模型內部思維鏈推理邏輯步驟,模擬人的思考過程,加深對問題的理解程度,從而提升處理復雜推理任務的能力。這一技術突破,標志著語言大模型的發(fā)展迎來了新范式。
強化學習的威力
通過強化學習,模型學會了精煉思維鏈并優(yōu)化所用策略,識別并糾正錯誤,將復雜步驟分解為更簡單的部分,并在當前方法無效時嘗試不同的途徑。這一過程顯著提升了模型的推理能力,在多個高難度推理基準測試中,o1的表現(xiàn)超越了人類專家和GPT-4o,展示了其強大的推理能力和專業(yè)知識。
二、多模態(tài)大模型:端到端架構的演進
跨模態(tài)到端到端的轉變
過去,多模態(tài)大模型多采用基于語言模型為主干的跨模態(tài)架構,通過模態(tài)特定的編碼器轉化為統(tǒng)一的向量表示后再輸入語言模型。但這樣的架構帶來了任務響應時間長、模態(tài)間交互細節(jié)損失的問題。
端到端架構的優(yōu)勢
2024年以來,以GPT-4o、Gemini為代表的多模態(tài)大模型開始使用端到端支持多種模態(tài)統(tǒng)一輸入輸出的模型架構。這一架構通過簡化模型的輸入接口,減少模態(tài)間的信息損失,提升了模型處理即時任務的響應時間。
英偉達的GR00T項目
在2024GTC大會上,英偉達發(fā)布了人形機器人項目GR00T,基于控制、執(zhí)行和決策三個層級分層實現(xiàn)模型的端到端訓練學習,通過合并反向反饋得到精準輸出結果,大幅提升了機器人處理復雜任務的精度、高效性以及靈活性。
三、視頻生成領域的突破:DiTs架構的可擴展性
DiTs架構的優(yōu)勢
2024年以來,國內外科技大廠發(fā)布的視頻生成模型多以DiTs為基礎,基于Transformer架構的擴散模型在視頻生成任務中可擴展性優(yōu)勢凸顯。相較于原先的U-Net卷積網絡架構,Transformer骨干架構可以提供基于參數(shù)規(guī)模和訓練數(shù)據(jù)量提升而帶來更優(yōu)越的性能。
OpenAI的Sora視頻生成模型
OpenAI發(fā)布的視頻生成模型Sora基于DiTs架構,在生成視頻的像素穩(wěn)定性、前后邏輯連續(xù)性以及信息丟失等方面有大幅提升。Sora在數(shù)據(jù)處理和視頻標注領域做了創(chuàng)新,基于視頻編碼器將樣本空間數(shù)據(jù)進行時間空間維度壓縮和Patch化處理,再通過相應解碼器實現(xiàn)隱空間向視頻像素空間的映射,以訓練新的視頻壓縮網絡實現(xiàn)長視頻生成的能力。
Meta Movie Gen視頻生成模型
Meta Movie Gen視頻生成模型發(fā)布,其在原先視頻生成模型架構的基礎上,疊加了一個13B參數(shù)轉換器模型Meta Gen Audio,通過數(shù)百萬個小時的音頻參考數(shù)據(jù)的對比總結,Meta Gen Audio可精準匹配聲音和畫面之間的對應關系,根據(jù)不同情緒和環(huán)境的提示詞,找到與畫面完美契合的音樂。
四、硬件部署實踐:端云結合架構的創(chuàng)新
蘋果的Apple Intelligence
蘋果在2024年6月發(fā)布的Apple Intelligence為大模型硬件部署實踐提供了很好的指引。Apple Intelligence采用端云結合方案,分別在設備端和服務器端部署大小語言模型(AFM-on-device和AFM-server),不同應用可以通過統(tǒng)一的語義索引、意圖檢測等工具調用AFM模型。
量化壓縮疊加適配器架構
為保障在端側設備上運行模型同時避免精度上損失,蘋果創(chuàng)新推出量化壓縮疊加適配器的架構,一方面采用量化壓縮的方法降低模型大小,同時通過LoRA適配器來恢復量化模型的精度。
Responsible AI原則
蘋果制定了Responsible AI原則,包括用戶賦能、代表全球、謹慎設計、隱私保護四大原則,被整合到基礎模型開發(fā)的每一個環(huán)節(jié)中,包括數(shù)據(jù)的收集與處理、模型訓練、模型評估、用戶反饋等。
LLM-in-a-flash技術
蘋果研發(fā)了LLM-in-a-flash技術,讓大模型可以不受限于DRAM的限制,在推理時將參數(shù)加載至閃存中來輔助完成計算,分擔存儲壓力,從而降低端側設備部署大模型門檻。
機器人底盤 Disinfection Robot 消毒機器人 講解機器人 迎賓機器人 移動機器人底盤 商用機器人 智能垃圾站 智能服務機器人 大屏機器人 霧化消毒機器人 紫外線消毒機器人 消毒機器人價格 展廳機器人 服務機器人底盤 核酸采樣機器人 智能配送機器人 導覽機器人 |