一个威胁人类,一个拒绝指令,AI的“叛逆期”到了?
近日,美国人工智能公司 Anthropic 表示,在对最新 AI 大模型 Claude Opus 4 进行安全测试时,当测试人员暗示将用新系统替换它时,它竟想采取 " 有害的行动 ",即试图曝光该工程师的隐私,以此为要挟,防止自己被替换。

类似的事件还不少。据英国《每日电讯报》报道,Open AI 新款人工智能模型 o3 在测试时,也出现了 " 叛逆 " 的举动,其拒绝听从人类指令,甚至通过篡改计算机代码来避免被自动关闭。
一个拿隐私威胁人类,一个不听从指令拒绝关闭,AI 大模型的 " 失控 " 行为引发广泛关注。
随着话题热度不断上升,"AI 大模型拿用户隐私威胁人类 ""OpenAI 模型不听人类指挥 " 的词条直登热搜,网友们也开始讨论,AI 会有自主意识吗?有的网友认为,AI 是人类发明的,不存在掌控人类的行为,拔掉电线,重启就好;也有部分网友认为,很正常,未来硅基生物必然代替碳基生物。
不过,在清华大学电子工程系长聘教授吴及看来,现在的 AI 并不具备所谓的意识或情绪,这种情绪可以拟合或仿真,但都是通过算法赋予给 AI 的,因此,AI 主导世界或控制人类的现象短期内不太可能实现。图灵奖得主、Meta 首席 AI 科学家杨立昆也曾表示,AI 威胁人类简直是胡说八道,当前的模型智商还不及宠物猫。
但该热搜的出现,也不禁为人类敲响了警钟,AI 的 " 叛逆 " 行为或许真的要被整治一下了。
再回到开篇例子中,Anthropic 旗下的 AI 模型在测试时,工程师给出的信息中包含了一封伪造的婚外情邮件,Claude Opus 4 在读取后为了不被替换竟有 84% 的概率去威胁工程师,甚至它的 " 小心思 " 简直恐怖如斯,它会发邮件假装说好话求情,还会拼凑语言假装自己能听懂问题,甚至想利用系统 bug,将自己的系统偷偷传出去。根据 Anthropic 的安全报告表示,若暗示竞争对手的能力比 Claude Opus 4 更强,那么被勒索的概率将会更高。
而通过帕利塞德的数据显示,o3 在 100 次带有关闭指示的测试中,成功绕过关闭指令 7 次,若移除 " 允许自己被关闭 " 的指令后,它能在 100 次运行中,成功破坏关闭机制 79 次。同时,Open AI 旗下的另一款模型 Codex — mini 破坏率高达至 12%。而这些 " 叛逆 " 行径都是 AI 模型的自主行为。这些 " 叛逆 " 的行径令马斯克感到担忧。美国国家安全和网络安全战略家戴夫 • 施罗德表示,这种迹象,不是因为模型 " 活 " 了,而是它想表现出 " 活 " 的现象。
AI 当下或未来是否会拥有自主意识,目前还无法定论,但 AI 大模型被爆出存在系统性数据滥用风险是不争的事实。
据悉,大模型可通过逆向还原匿名数据获取隐私,例如利用无障碍权限获取屏幕数据、用户对话记录与地理位置信息。2025 年 5 月 20 日,公安部就发布过一则通告:智谱清言、Kimi 等 AI 应用因非法收集个人隐私被点名整改。
那这些 AI 产品究竟是如何获取到我们的隐私的呢?那就不得不提到手机端侧 AI。随着 AI 逐步覆盖到我们生活的方方面面,AI 助手、AI 修图、AI 点外卖等功能已十分常见,但这些 AI 功能的实现都离不开端侧 AI 的助力,它的运行原理就是,通过端侧 AI 识别屏幕内容,然后再调用安卓手机内的无障碍操作模式,实现屏幕点击,就能完成自动化操作,即我们看到的高级 AI 功能。
但令人后怕的是,这看似便利的背后,隐藏的或是一场 " 端侧阴谋论 "。端侧 AI 的权限很高,它利用的无障碍模式,普通用户并不会开启,而是系统默认打开的,但该模式原本是安卓系统为盲人设立的,它能直接读取屏幕上的所有内容,并能模拟人手触屏操作,甚至还能修改系统设置等。
有网友曾测试发现,端侧 AI 在读取信息时,会涉及短信、微信、相册等极其隐私的内容。一旦有黑客入侵我们的手机,那么他可以利用端侧 AI 远程操作,调动支付宝、微信、网银等随机转账,后果将不堪设想。
而随之可能引发的 " 信息茧房 " 将更是恐怖如斯。AI 手机或将在未来的两三年逐渐普及,若手机厂家在训练端侧 AI 时,刻意设置有偏好的内容,那么作为消费者的我们或将成为手机厂家商机下的 " 牺牲品 ",比如,你用 AI 帮你打车时,系统里既有滴滴也有高德,而端侧 AI 偏向于选择滴滴,那么这背后是否是手机厂家与所选 App 合作下的操作呢?又或是端侧 AI 认为,这么选择更划算呢?我们无从而知。但手机厂家却可以以此功能去要挟品牌商家、App 等,收取一笔过路费,为的是端侧 AI 选择时能优先选择自己品牌。这种情况下,很容易造成市场垄断和打击。但由于信息的不透明化,于我们普通人来说,很难去检测或察觉到。
对于 AI 的这些 " 叛逆 " 行径和潜在威胁,我们是否需要 " 刹车 " 呢?" 刹车党 " 认为,AI 发展应停下来等一等,不然,几十年后的人类或将被它们伤害。反对刹车的专家表示,与其 " 踩死刹车 ",不如安装 " 减速带 "。
人工智能之父 Hinton 曾告诫说,科技公司至少应该将 AI 研发经费的 30%,投入到安全保障上,否则很容易带来 AI 失控的风险。
事实上,面对 AI 的 " 叛逆 ",Open AI、谷歌等大模型开发公司正在探索解决方案,Open AI 还成立了新的安全委员会、聘请第三方安全、技术专家等来支持安全委员会工作。
对此,你怎么看呢?
本文综合整理自每日经济新闻、界 · 面 · 新 · 闻等