Tech

Meta推「前沿AI框架」應對高風險技術質疑 設立重大安全警戒線

Feb 5, 2025 6:30 AM
News Image

Meta的開放式開發策略一向受到質疑,該公司主張AI技術的公開透明,但這也導致其AI模型Llama在獲得數億次下載後,被中國用於開發軍事用途的聊天機器人,引發爭議。為了回應外界的疑慮,Meta近日發布「前沿AI框架」政策文件,設立重大風險警戒線。

這份名為「前沿AI框架」的文件旨在於開發和部署尖端AI技術時,權衡效益與風險,力求在保留科技效益,同時將風險控制在合理範圍內。文件指出,Meta將風險系統分為兩類:「高風險」與「重大風險」。按照定義,這兩類系統可能涉及網路安全攻擊、化學及生物武器等用途;其中,「關鍵風險」系統可能導致「無法控制的災難性後果」,而「高風險」系統雖可能使攻擊更易執行,但其影響較可控。

如果某系統被判定為「高風險」,Meta會限制內部存取權限,並在實施風險緩解措施使風險降至「中等水平」之前不會發布該系統;若系統被視為「關鍵風險」,Meta將採取未具體說明的安全措施防止非法存取,並暫停開發直至確保安全。

Meta列舉了一些潛在攻擊情況,如對企業進行自動化入侵或生物武器擴散等。該公司承認,目前文件中列出的潛在災難性事件並不詳盡,也未涵蓋所有可能風險,但這些都是Meta認為最迫切且可能因發布強大AI系統而直接引發的威脅。

此外,在評估系統風險時,Meta不僅依賴單一實證測試,而是結合內外部研究人員意見,由高層決策者進行審查。

CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image
CTA Image

獨家內容與深入分析

我們的電子報內容豐富多彩,從即時新聞到引人深思的評論文章,讓讀者隨時掌握最重要的資訊,並保持參與感。立即訂閱,加入我們的讀者社群,走在時代的尖端。

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.