所有語言
分享
文章來源:AI范兒
美國政府委託的報告警告,人工智能(AI)發展可能對國家安全構成“滅絕級威脅”。報告建議立法禁止高計算能力的AI模型訓練,並要求AI公司在新模型訓練和部署時獲得政府許可。此外,提議禁止公布強大AI模型的內部工作機制,並對AI芯片製造和出口實施更嚴格控制。這些措施旨在防止AI技術的潛在濫用,並確保全球安全。
美國政府面臨着來自人工智能(AI)帶來的國家安全風險,這些風險可能在最極端的情況下構成“滅絕級威脅”。這是根據美國政府委託並於本周一發布的一份報告所警告的。
報告指出,當前的AI前沿開發正對國家安全構成緊迫且不斷增長的威脅,並認為先進AI和通用人工智能(AGI)的發展可能會對全球安全造成破壞,類似於核武器的問世。儘管AGI尚未問世,但頂尖的AI實驗室正在努力朝這個目標邁進,許多人預計在未來五年內或更短的時間內可能實現。
報告的作者們花費了一年多的時間與200多位政府官員、專家以及前沿AI公司的員工進行了交流,包括OpenAI、谷歌DeepMind、Anthropic和Meta等公司。一些交流內容揭示了一個令人不安的現實:許多在尖端實驗室工作的AI安全人員擔心,公司高管可能會因逆向激勵而做出不當決策。
這份名為“提高先進AI安全性和安全性的行動計劃”的報告提出了一系列廣泛的、前所未有的政策行動建議,如果得以實施,將徹底改變AI行業。報告建議國會應立法禁止使用超過一定計算能力的AI模型訓練,並由新成立的聯邦AI機構設定這一門檻。
報告還建議,新的AI機構應要求處於行業前沿的AI公司在訓練和部署超過一定門檻的新模型時,必須獲得政府許可。此外,報告還提出,當局應“緊急”考慮禁止公布強大AI模型的“權重”或內部工作機制,並加強對AI芯片製造和出口的控制,並將聯邦資金投向旨在使先進AI更安全的研究。
報告是由國務院在2022年11月委託的,作為一份價值25萬美元的聯邦合同的一部分。報告由Gladstone AI撰寫,該公司專門為政府員工提供AI技術簡報。報告於2月26日以247頁的文件形式提交給國務院,但國務院未對報告作出回應。報告首頁聲明,建議“不代表美國國務院或美國政府的觀點”。
報告的建議,許多之前被認為是不可想象的,是在AI領域一系列重大進展之後提出的。自2022年11月發布的聊天機器人ChatGPT首次引發了人們對未來AI可能對人類構成風險的質疑以來,更多功能強大的新工具不斷快速推出。
隨着全球政府討論如何最佳監管AI,全球最大的科技公司也在迅速構建下一代更強大的系統基礎設施,有時計劃使用的計算能力是現有水平的10倍或100倍。同時,超過80%的美國公眾認為AI可能意外引發災難性事件,77%的選民認為政府應加強AI監管。
報告提出,禁止超過一定門檻的先進AI系統訓練,可能會“緩和所有AI開發者之間的競爭動態”,並有助於減緩芯片行業製造更快硬件的速度。報告表示,硬件——特別是目前用於訓練AI系統的高端計算機芯片——是提高AI能力的一個重要瓶頸。監管這種硬件的擴散可能是“保護長期全球安全和安全免受AI影響的最重要要求”。政府應探索將芯片出口許可與芯片上的技術聯繫起來,這些技術允許監控芯片是否用於大型AI訓練運行,作為執行針對訓練超過GPT-4的AI系統的提議規則的一種方式。
報告還提出了一個可能性,即最終,宇宙的物理邊界可能不在那些試圖通過芯片防止先進AI擴散的人一邊。新的聯邦AI機構可以探索阻止發布提高算法效率的研究,儘管它承認這可能會損害美國AI行業,最終可能是不可行的。
儘管存在挑戰,報告的作者們表示,他們被目前用戶如果能夠訪問AI模型的權重,就可以輕鬆且廉價地移除安全防護措施的情況所影響。報告的第三位合著者,前國防部官員Beall,已經離開Gladstone,成立了一個超級政治行動委員會(PAC),旨在倡導AI政策。該PAC的目標是到2024年底通過AI安全立法,使AI安全和安全成為“2024年選舉的關鍵問題”。