Meta的開放式開發策略一向受到質疑,該公司主張AI技術的公開透明,但這也導致其AI模型Llama在獲得數億次下載後,被中國用於開發軍事用途的聊天機器人,引發爭議。為了回應外界的疑慮,Meta近日發布「前沿AI框架」政策文件,設立重大風險警戒線。
這份名為「前沿AI框架」的文件旨在於開發和部署尖端AI技術時,權衡效益與風險,力求在保留科技效益,同時將風險控制在合理範圍內。文件指出,Meta將風險系統分為兩類:「高風險」與「重大風險」。按照定義,這兩類系統可能涉及網路安全攻擊、化學及生物武器等用途;其中,「關鍵風險」系統可能導致「無法控制的災難性後果」,而「高風險」系統雖可能使攻擊更易執行,但其影響較可控。
如果某系統被判定為「高風險」,Meta會限制內部存取權限,並在實施風險緩解措施使風險降至「中等水平」之前不會發布該系統;若系統被視為「關鍵風險」,Meta將採取未具體說明的安全措施防止非法存取,並暫停開發直至確保安全。
Meta列舉了一些潛在攻擊情況,如對企業進行自動化入侵或生物武器擴散等。該公司承認,目前文件中列出的潛在災難性事件並不詳盡,也未涵蓋所有可能風險,但這些都是Meta認為最迫切且可能因發布強大AI系統而直接引發的威脅。
此外,在評估系統風險時,Meta不僅依賴單一實證測試,而是結合內外部研究人員意見,由高層決策者進行審查。
我們的電子報內容豐富多彩,從即時新聞到引人深思的評論文章,讓讀者隨時掌握最重要的資訊,並保持參與感。立即訂閱,加入我們的讀者社群,走在時代的尖端。