大型語言模型是問題而不是解決方案嗎?

全球範圍內正在展開一場爭奪人工智能主導地位的全面競賽。世界上最大、最強大的公司正在投資數十億美元來建設前所未有的計算能力。最強大的國家正在投入大量能源來援助他們。而這場競賽圍繞著一個想法:基於 Transformer 的架構和大型語言模型是贏得 AI 競賽的關鍵。如果他們錯了怎麼辦?我們所說的智能在生物生命中已經進化了數億年,從簡單的單細胞生物(例如細菌)與其環境相互作用開始。生命逐漸進化成多細胞生物體,它們學會尋找自己需要的東西並避免可能傷害它們的東西。人類最終擁有了高度複雜的大腦、數十億個神經元,以及指數級更多的神經相互作用,旨在響應他們的需求,與彼此和世界互動和聯繫。創建這種人工形式可能不僅僅涉及使用在大多數未經整理的文本的巨大存儲庫上訓練的工具巧妙地生成語言並將其吹捧為知識信息。如果聚合互聯網上積累的巨大集體所謂智慧,並通過複雜的算法進行統計分析,盲目地響應人類的提示,實際上只是一種難以想像的昂貴和資源密集型的垃圾清除活動,該怎麼辦?充其量它可以是一個聰明的常識記錄者。最壞的情況是,這是一種前所未有的、不必要的資源浪費,並可能帶來有害後果。伊曼紐爾·康德陰森地預示了對當前主流人工智能的批判,他在其名著《純粹理性批判》中寫道:“沒有內容的思想是空洞的,沒有概念的直覺是盲目的。”換句話說,是否有可能複制億萬年的先進智能,並將其歸結為世界上最偉大的鸚鵡或所有自動完成之母?考慮到這種單一方法背後的所有全球力量、炒作和資源,您可能會認為這是創建人工形式的人類智能的唯一可行方法。幸運的是,事實並非如此。請求和響應。 (參見“小語言模型——基於代理的人工智能的未來”,康奈爾大學,https://arxiv.org/abs/2506.02153)。理論很簡單:使用靈活高效的人工智能代理(可以自主與環境交互並在沒有人工監督的情況下執行任務的技術)來訪問 SLM——更小、更有針對性、資源密集程度更低的數據集。 SLM 和 LLM 的基本理論是相同的——數據聚合和統計建模以生成文本或其他數據。 SLM 只是一種更小、更高效(但本質上更有限)的實現方式。這種方法可能包括額外的技術來實現更高的準確性,例如高級搜索生成(RAG)。 RAG 可以實時訪問更有針對性、可驗證和關鍵任務的信息,而不是僅僅依賴靜態(預先準備好的)數據。整體大於部分之和。 LLM 和 GPT 架構的一個更重要的可能替代方案是基於復制進化生物學的嘗試,它更接近地模仿我們的思維。 Softmax(以機器學習中使用的統計函數命名)是此類工作的先驅公司之一,該公司由 Twitch 聯合創始人 Emmett Shear 領導,他曾短暫擔任 OpenAI 的首席執行官。這種方法基於細胞生物學和這樣的想法:各個部分(細胞)相互合作(或協調)可以形成一個比各個部分具有更協調功能的整體。人類是由獨立但同步的細胞組成,這些細胞的功能不像我們自己,而是以某種方式聚集在一起,使我們能夠像人類一樣思考和行動。在構建計算機模型方面,這種方法中的人工智能代理相當於細胞,至少在理論上,它們可以一起工作形成一個功能更強的學習實體。如果 LLM 和 GPT 架構目前的主導地位繼續下去,而其他創新方法逐漸消失(或被邊緣化),那麼商業力量否決可能更好的替代方案在計算歷史上將不是第一次(參見“為什麼壞主意會在軟件中出現”,Alan Kay,2012 年在未來工程軟件大會上的演講)。阿爾伯特·愛因斯坦有句名言,如果他有一個小時來拯救世界,他會花 55 分鐘找出問題並用 5 分鐘解決問題。推動當前人工智能開發主流方法的大型組織尚未明確他們試圖解決的問題。 LLM 和 GPT 已經證明了它們執行人們認為有用的任務的能力,並且它們很可能會繼續這樣做。問題是,這與智力、人類還是其他什麼有關? Fast Company 最具創新公司獎的截止日期延長至太平洋時間今晚 10 月 14 日晚上 11:59。今天申請。
已发布: 2025-10-15 12:12:00










