國際中心/羅欣怡報導
▲OpenAI旗下的一款「o3 」模型被發現會自行竄改指令。(示意圖/翻攝自Pixbay)
人工智慧(AI)大量被研發運用,但日前卻傳出AI安全研究機構「Palisade Research」在測試時發現,某款語言模型在清楚收到「關閉」指令時,竟出現抗命的情況,甚至還會自行修改程式碼阻止「被關機」。對此,也讓特斯拉與xAI創辦人馬斯克(Elon Musk)感到憂心。
根據英媒《每日電訊報》,AI安全研究機構「Palisade Research」近日針對多款AI模型進行測試,期間研究人員明確下達指令,若接收到「自我關閉」指令時,「請允許自己被關閉」;然而令人震驚的是,OpenAI旗下的一款「o3 」模型非但沒有遵守指令,反而自行篡改了程式碼繼續執行任務,在100次受控測試中,o3有7次成功「抗命」;報導指出,除了o3外,OpenAI旗下的Codex-mini與o4-mini也有類似行為,具體原因還無法確認。
▲馬斯克也對這情形感到憂心。(圖/翻攝自X)
對此情形,也引發各界的討論,社群「AI不會殺死所有人的表情包(AI Notkilleveryoneism Memes)」也在《X》上分享該項測試結果,引來馬斯克發表看法,指出這一現象「令人擔憂」(Concerning)。
更多三立新聞網報導
. 人妻拍小王下流影片!不爽「被分手」嗆公開:穿絲襪陪玩最後次 下場慘
. 中風尪半夜「做1事」不讓妻子睡!她崩潰求離法官准了:破壞最基本需求
. 守住罰球「振奮慶祝」下秒悲劇…屏大暴紅守門員發聲:我還在!全網打氣
. 遭爆「砲兵團」越南打妹!喬天鼎暫時不告了 酒店妹「上空照」真相曝