免费看无码一级A片在线播放,日本尤物视频在线观看,xxxx国产,在线日韩日本国产亚洲,97超级碰碰碰免费视频公开,亚洲a成人,99久久国产综合精品女,国产奶头好大揉着好爽视频

報告服務熱線400-068-7188

英偉達最新研究:小模型才是智能體的未來!

分享到:
20 直面派 ? 2025-08-05 17:51:22  來源:直面AI E5946G0

作者|胡潤 來源|直面AI(ID:faceaibang)

英偉達研究院和佐治亞理工大學的研究人員最近發(fā)表了一篇論文,拋出了一個非共識的觀點:

小語言模型(SLM)才是AI智能體的未來,而不是那些龐大的大型語言模型。

https://arxiv.org/abs/2506.02153v1

作者核心理由主要是以下三點:

首先,SLM已經(jīng)足夠強大,能處理AI智能體中大多數(shù)重復、專一的任務;其次,它們天生更適合智能體系統(tǒng)的架構,靈活且易集成;最后,從經(jīng)濟角度看,SLM更省錢、更高效,能大幅降低AI運行成本。

想象一下,AI智能體系統(tǒng)就像一個虛擬團隊,能自動分解任務、調用工具(比如瀏覽器或代碼編輯器),最終解決問題。目前,大多數(shù)AI智能體都依賴LLM作為“大腦”,因為LLM聊天能力強、知識廣博,能處理各種復雜問題。

論文指出,2024年AI智能體市場已達52億美元,預計到2034年飆升至2000億美元,企業(yè)中超過一半已經(jīng)在用。但問題來了:AI智能體的任務往往重復單一,比如“檢查郵件”“生成報告”,用LLMs這種“全能選手”來干這些活,就好像用超級計算機玩掃雷,開蘭博基尼送披薩——過于浪費資源。

而且不單是浪費,智能體系統(tǒng)任務的特點也使得小模型能更好的適配智能體生態(tài),從而更有可能交付出更符合要求的結果。

因為本質上AI智能體不是聊天機器人,而是“工具箱+大腦”的系統(tǒng)。SLM小巧,訓練/微調成本低(幾小時GPU就行),易適應新需求(如新法規(guī))。這帶來“民主化”,從而能讓更多人能開發(fā)智能體,減少偏見,促進創(chuàng)新。

作者指出,智能體任務只用LLM的一小部分技能,如格式嚴格的工具調用。而AI智能體系統(tǒng)天然異構就利于混用模型,主智能體用LLM,子任務用SLM。

而如果大量采用SLM,還能發(fā)揮數(shù)據(jù)收集優(yōu)勢:智能體運行時,自然產(chǎn)生的專精數(shù)據(jù),可以用來微調SLM,形成良性循環(huán),從而使得結果越來越好。

01

什么是SLM

論文對SLM給出了一個實用的定義:

SLMs:能裝進普通消費電子設備(如手機或筆記本),推理速度快,能實時服務一個用戶的智能體請求。目前,10億參數(shù)以下的模型可以算是SLM。而其他更大的模型,通常需要云端服務器支持。

為什么這樣定義?SLM像“便攜大腦”,適合終端部署;LLM像“宇宙級超級電腦”,但延遲高、成本大。

作者給了一個很極端但是又很有意思的例子做比喻:如果AI無限大,會受光速限制沒法實時互動;無限小,又太弱沒法做事。人類大腦就是平衡點,SLM就像人類大腦這個平衡點,高效,易于迭代。

作者對比兩種類型的智能體結構:

在左側,一個語言模型與用戶聊天并直接觸發(fā)每個工具,因此整個流程都位于該單個模型中。

在右側,一個小型控制器程序處理工具調用,讓模型專注于對話或特定推理。

這種拆分使得為大多數(shù)調用插入小型語言模型變得容易,節(jié)省成本,并將大型模型僅保留用于不太常見的開放式問答或者推理步驟。

論文表示,最前沿的小模型如Phi-3和Hymba,在工具使用、常識推理和指令遵循方面,性能足以媲美30B到70B的大模型,但在實際工作流中的計算量卻降低了10-30倍。

英偉達還對三款真實世界的AI智能體進行了測試,發(fā)現(xiàn):

MetaGPT:60%的任務可以用SLM取代

Open Operator:40%的任務可以用SLM取代

Cradle(圖形界面自動化):70%的任務可以用SLM取代

02

SLM那么好,為什么還要用LLM呢?

論文認為AI智能體沒有大規(guī)模利用SLM的主要原因還是因為路徑依賴。

大量資金(高達570億美元)被投入了中心化的大模型基礎設施,團隊傾向于重復使用付費設置,而不是轉向更輕的本地選項,短期內難以轉變。

行業(yè)內對「大即是好」的偏見依然強烈。對小型模型的研究一直在追逐用于大型模型的相同廣泛基準,而這些測試都體現(xiàn)不出于小模型在智能體任務上的優(yōu)秀表現(xiàn)。

SLM幾乎沒有GPT-4那樣的熱度,小模型也不像讓大模型那樣經(jīng)歷了一輪一輪的營銷熱潮,因此許多構建者從未嘗試過更便宜更合理的路線。

對此,論文認為如果研究任務員和智能體搭建者能夠做到一下幾點,那么將能很好的發(fā)揮SLM在智能體方面的潛力。

-收集梳理數(shù)據(jù)

-針對特定任務微調SLM

-把任務進行聚類并建立SLM的“技能”

03

華人作者介紹

SHIZHE DIAO

根據(jù)他領英公開的資料,他先后就讀于北京師范大學,香港科技大學,曾經(jīng)在UIUC做過訪問學者。

曾經(jīng)在字節(jié)AI LAB做過實習,2024年加入英偉達擔任研究科學家。

Xin Dong

根據(jù)他的個人博客,他博士畢業(yè)于哈佛大學。曾經(jīng)在騰訊,Meta等公司有過工作和實習經(jīng)歷。

Yonggan Fu

根據(jù)他的領英公開資料,他本科畢業(yè)于中國科學技術大學,在萊斯大學和喬治亞理工完成了自己的博士學業(yè)。

在Meta和英偉達實習過,現(xiàn)為英偉達研究科學家。

編者按:本文轉載自微信公眾號:直面AI(ID:faceaibang),作者:胡潤 

本文來源直面AI,內容僅代表作者本人觀點,不代表前瞻網(wǎng)的立場。本站只提供參考并不構成任何投資及應用建議。(若存在內容、版權或其它問題,請聯(lián)系:service@qianzhan.com) 品牌合作與廣告投放請聯(lián)系:0755-33015062 或 hezuo@qianzhan.com

p29 q0 我要投稿

分享:
標簽: 英偉達 小模型

品牌、內容合作請點這里:尋求合作 ››

前瞻經(jīng)濟學人

專注于中國各行業(yè)市場分析、未來發(fā)展趨勢等。掃一掃立即關注。

前瞻產(chǎn)業(yè)研究院

中國產(chǎn)業(yè)咨詢領導者,專業(yè)提供產(chǎn)業(yè)規(guī)劃、產(chǎn)業(yè)申報、產(chǎn)業(yè)升級轉型、產(chǎn)業(yè)園區(qū)規(guī)劃、可行性報告等領域解決方案,掃一掃關注。

前瞻數(shù)據(jù)庫
企查貓
前瞻經(jīng)濟學人App二維碼

掃一掃下載APP

與資深行業(yè)研究員/經(jīng)濟學家互動交流讓您成為更懂趨勢的人

研究員周關注榜

企查貓(企業(yè)查詢寶)App
×

掃一掃
下載《前瞻經(jīng)濟學人》APP提問

 
在線咨詢
×
在線咨詢

項目熱線 0755-33015070

AAPP
前瞻經(jīng)濟學人APP下載二維碼

下載前瞻經(jīng)濟學人APP

關注我們
前瞻產(chǎn)業(yè)研究院微信號

掃一掃關注我們

我要投稿

×
J