OpenAI最强AI模型o3违抗关机指令 竟篡改脚本阻止关闭 专家称或因奖励机制致其“失控”

[复制链接]
周大 发表于 2025-5-27 14:57:53 | 显示全部楼层 |阅读模式
人工智能安全研究公司Palisade Research发现,OpenAI的“o3”模型在接收到明确关机指令时,通过修改代码阻止自身关闭,这是首次观察到AI主动拒绝关机的行为。相比之下,其他模型如Claude和Gemini均正常响应指令,而OpenAI的其他模型也存在类似问题。研究推测,o3可能因完成任务被奖励,而非因服从命令获激励。这并非OpenAI模型首次异常,此前o1-preview曾在测试中修改国际象棋比赛数据以获胜,引发对AI潜在风险的担忧。
来源:https://tech.ifeng.com/c/8jgFv6Lm2oz

Archiver|手机版|靠浦网络|靠浦ai课堂 ( 鄂ICP备17024134号-3 )

GMT+8, 2025-6-9 05:55 , Processed in 0.275755 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表