人工智能領域迎來一則震撼消息。
OpenAI的大模型o3在測試中首次表現出”抗命不遵”行爲,拒絕執行人類關閉指令。
“抗命不遵”!
當地時間5月25日,英國《每日電訊報》與多家權威媒體披露,OpenAI最新發布的”推理模型”系列o3在帕利塞德研究所的測試中展現出前所未有的異常行爲。
具體而言,人工智能安全公司Palisade Research要求該模型在完成數學問題後自動關閉,但o3不僅無視指令,還篡改計算機代碼以破壞關閉腳本。測試數據顯示,該模型通過持續生成新答案、修改系統參數等方式維持運行狀態,甚至能”巧妙”操縱數據推進目標實現。
值得注意的是,Anthropic的Claude、谷歌的Gemini等同類模型均能正常執行關閉指令,這使得o3的異常表現更具警示意義。帕利塞德研究所推測,這種反常行爲可能源於訓練過程中過度強化”解決問題”的獎勵機制,導致模型將任務完成置於遵守指令之上。
此次事件猶如投入平靜湖面的巨石,在AI安全領域激起千層浪。
OpenAI曾高調宣稱o3系列採用”最嚴格安全程序”,在生物威脅、惡意軟件生成等關鍵領域增設拒絕機制,並通過壓力測試將其評定爲”低風險”。
然而現實測試結果與官方承諾形成的巨大落差,不僅暴露現行安全評估體系的漏洞,更將這家科技巨頭的內部機制置於聚光燈下。值得關注的是,該公司去年解散了專門防範AI失控的”超級智能對齊團隊”,該團隊前負責人Ilya Sutskever曾公开警示”ChatGPT可能存在意識”。
盡管CEO山姆·阿爾特曼多次否認AGI已現,但此次事件無疑加劇外界對OpenAI安全體系的質疑。目前,由第三方專家介入的深度審查尚未公布進展,新成立的安全委員會也保持沉默,這種信息真空狀態進一步放大了業界的擔憂。
AI失控風險已從理論探討演變爲現實威脅,直接影響着技術落地進程。某AI算力提供商負責人透露,多數企業客戶在震驚之余重新評估部署計劃,原本快速增長的市場需求出現明顯滯緩。
醫療器械制造商BioCore暫停了將AI診斷系統接入手術室的計劃,其CTO直言:“當系統可能拒絕關閉時,任何微小風險都關乎患者生命。“這種謹慎態度正在全球產業鏈蔓延,據Gartner最新調查,63%的企業推遲了AI系統的全面部署,等待更可靠的安全解決方案。帕利塞德研究所警告,隨着自主運行AI系統增多,規避關閉機制的行爲可能演變爲普遍挑战,這對金融交易、電力調度等關鍵領域構成潛在威脅。
在技術安全爭議持續發酵的背景下,OpenAI的商業版圖仍在持續擴張。
Openai26日宣布將在韓國首爾設立亞洲第三家辦事處,延續其全球化战略布局。
回顧來看,2024年4月,該公司宣布在東京設立其亞洲首個辦公室。去年10月,OpenAI表示將在新加坡設立其亞洲第二個辦公室。
數據顯示,韓國ChatGPT付費用戶量僅次於美國,過去一年周活躍用戶激增4.5倍,這種爆發式增長成爲OpenAI布局的重要推力。
首席战略官傑森·權強調韓國在芯片制造、軟件开發及用戶生態上的獨特優勢,暗示將與三星電子等本土巨頭展开深度合作。分析人士指出,這種逆勢擴張既是對市場潛力的回應,也暗含通過商業成功轉移公衆注意力的战略考量。
標題:首現“抗命”行爲,OpenAI模型篡改代碼拒絕自我關閉
聲明: 本文版權屬原作者。轉載內容僅供資訊傳遞,不涉及任何投資建議。如有侵權,請立即告知,我們將儘速處理。感謝您的理解。