近日,meta公司首席執行官馬克·扎克伯格曾懷揣夢想,誓言要將通用人工智能(AGI)——即能夠勝任人類所有任務的人工智能——推向大眾。然而,meta最新發布的政策文件卻透露出,這家科技巨頭在某些特定情境下,可能會對其內部研發的高性能AI系統實施發布限制。
這份名為“前沿人工智能框架”的文件,詳細闡述了meta認定的兩種發布風險極高的AI系統類型:“高風險”系統與“關鍵風險”系統。據meta定義,這兩類系統均具備協助實施網絡攻擊、化學攻擊及生物攻擊的能力。其中,“關鍵風險”系統的威脅尤為嚴重,可能導致在擬部署環境中無法控制的災難性后果,而“高風險”系統雖然也能使攻擊更為便捷,但其穩定性和可靠性相對較低。
meta在文件中列舉了具體的攻擊場景,諸如對企業級環境進行自動化入侵,以及高影響力生物武器的擴散等,并坦言這些案例遠非詳盡無遺,但它們是meta認為最為緊迫,且最有可能因發布強大AI系統而直接觸發的事件。在評估系統風險時,meta并未單純依賴實證測試,而是綜合了內部及外部研究人員的意見,并經由高級別決策者進行審慎審查。meta指出,當前的風險評估科學尚不足以提供明確的量化指標,以確定系統的風險性。
針對被判定為“高風險”的系統,meta將限制其在內部的訪問權限,并在實施風險緩解措施,將風險降至中等水平之前,不予發布。而對于“關鍵風險”系統,meta則將采取未公開的安全防護措施,防止系統被非法獲取,并暫停開發,直至系統危險性得以降低。
meta強調,“前沿人工智能框架”將隨著AI領域的發展而不斷演進。本月,meta還承諾在法國人工智能行動峰會上提前發布該框架,這被視為對公司“開放”開發系統策略所受批評的一種回應。meta一直致力于將人工智能技術公開提供(盡管并非傳統意義上的開源),這與將系統置于API背后的OpenAI等公司形成了鮮明對比。
meta在文件中明確表示:“我們堅信,在權衡開發與部署先進人工智能的利弊時,有可能找到一種方式,既能保留該技術對社會的益處,又能將風險控制在適當水平,從而將其安全地推向社會。”