
Meta 最新 AI 政策轉向:祖克伯承諾開放,但這兩類系統將嚴格管制 – INSIDE
Meta 執行長祖克伯(Mark Zuckerberg)承諾未來將開放通用人工智慧(AGI)供大眾使用,這種 AI 被定義為能執行所有人類工作的系統。然而,Meta 最新發布的政策文件指出,某些高度進階的 AI 系統可能因安全考量而不會對外公開。 這份名為「前瞻 AI 框架」(Frontier AI Framework)的文件將具風險的 AI 系統分為兩類:「高風險」(high-risk)與「重大風險」(critical-risk)。這兩類系統都可能被用於網路安全攻擊、化學及生物武器相關用途,差別在於「重大風險」系統可能造成無法控制的災難性後果,而「高風險」系統雖然也具威脅,但影響較為可控。 Meta 提供了幾個具體的風險情境,例如自動化入侵企業資安系統,或是協助生物武器擴散等。雖然這份清單並未涵蓋所有可能風險,但都是 Meta 認為最迫切且可能因開放強大 AI 系統而直接引發的威脅。 值得注意的是,Meta 評估系統風險時,並非依靠單一客觀指標,而是綜合內外部研究人員的意見,再由高層主管審核定案。Meta 坦承,這是因為目前尚無足夠完善的量化指標可準確評估系統風險。 那麼,Meta 制定了那些措施?對於高風險系統,Meta 將限制內部使用權限,並在實施足夠的防護措施前,不會對外開放。至於重大風險系統,Meta 則會採取特殊的安全防護,避免系統外洩,並暫停開發直到確保安全無虞。 這份文件似乎是回應外界對 Meta 開放式開發策略的質疑。Meta 一向主張讓 AI 技術公開透明,這與 OpenAI 等採取封閉式 API 管理的公司形成對比。Meta 的開放策略帶來優劣互見的結果:旗下的 AI 模型 Llama 雖然獲得數億次下載,但據報導也被中國用於開發軍事用途的聊天機器人。 Meta 也強調,在開發和部署進階 AI 時,會同時權衡效益與風險,致力於在保留科技效益的同時,將風險控制在適當水準。這份框架的發布,也凸顯出 Meta 與中國 AI 公司 DeepSeek 的差異,後者雖然同樣採取開放策略,但幾乎沒有任何安全防護措施,容易產生有害的輸出。 責任編輯:Sisley核稿編輯:Sherlock 本文初稿由…