首席研究員表示,世界“可能沒有時間”為人工智能安全風險做好準備
| mtgamer.com
Dalrymple said there was a gap in understanding between public sector and AI companies about the power of looming breakthroughs in the technology. Photograph: d3sign/Getty

首席研究員表示,世界“可能沒有時間”為人工智能安全風險做好準備

英國政府科學研究機構的一位領導人物表示,世界“可能沒有時間”為尖端人工智能係統帶來的安全風險做好準備。 Aria 機構的項目主管兼人工智能安全專家 David Dalrymple 告訴《衛報》,人們應該關注該技術不斷增長的能力。 “我認為我們應該關注那些能夠執行人類在世界上完成任務的所有功能的系統,而且做得更好,”他說。 “為了維持對文明、社會和地球的控制,我們將在需要佔據主導地位的所有領域被擊敗。”達爾林普爾表示,公共部門和人工智能公司之間對於這項技術即將突破的力量存在理解上的差距。 “我建議,事情進展得非常快,從安全角度來看,我們可能沒有時間領先,”他說。 “預計五年內最具經濟價值的任務將由機器以比人類更高的質量和更低的成本來執行,這並不是科幻小說。” 達爾林普爾表示,政府不應假設先進系統是可靠的。 Aria 受到公共資助,但獨立於政府並指導研究經費。達爾林普爾正在開發系統,以保障人工智能在能源網絡等關鍵基礎設施中的使用。 “我們不能假設這些系統是可靠的。考慮到經濟壓力,實現這一點的科學不太可能及時實現。因此,我們能做的下一件最好的事情,我們可能能夠及時做到,就是控制和減輕負面影響,”他說。達爾林普爾將技術進步領先於安全的後果描述為“安全和經濟的不穩定”,達爾林普爾說“進步可以被認為是破壞穩定的,但實際上可能是好的,這是許多前沿人士所希望的。我正在努力讓事情變得更好,但風險非常高,人類文明總體上正在夢魘中步入這一轉變。”本月,英國政府的人工智能安全研究所(AISI)表示,先進人工智能模型的能力在所有領域和某些領域的表現都在“迅速提高”每八個月翻一番。據該研究所稱,領先的模特現在平均可以在 50% 的時間內完成學徒級任務,而去年這一比例約為 10%。 AISI 還發現,最先進的系統可以自主完成人類專家需要一個多小時才能完成的任務。該研究所還測試了先進的自我複制模型,這是一個關鍵的安全問題,因為它涉及到一個系統將自身的副本傳播到其他設備並變得更難以控制。測試顯示,兩種尖端模型的成功率超過 60%。不過,AISI 強調,在日常環境中不太可能出現最壞的情況,稱任何自我複制的嘗試“在現實條件下都不太可能成功”。 Dalrymple 認為,到 2026 年底,人工智能係統將能夠實現相當於一整天研發工作的自動化,這將“導致能力進一步加速”,因為該技術將能夠自我完善人工智能開發的數學和計算機科學要素。


已发布: 2026-01-04 14:00:00

来源: www.theguardian.com