往期阅读
当前版: 12版 上一版  下一版
上一篇    下一篇
放大 缩小 默认   

不听人类指挥 智能模型拒绝关闭

  英国《每日电讯报》25日报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。

  报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。

  o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。

  美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。

  这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”

  帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。

  据新华社微特稿

上一篇    下一篇
 
     标题导航
要求哈佛大学提交所有国际学生名单~~~
~~~——直击“禁招令”下的哈佛大学校园
~~~
~~~
~~~
   第01版:要闻导读
   第02版:观点
   第03版:都市
   第04版:都市
   第05版:我们的节日 端午
   第06版:热点
   第07版:警法
   第08版:社区
   第09版:综合
   第10版:中国
   第11版:关注
   第12版:世界
   第13版:文体
   第14版:文化
   第15版:天龙·情感
   第16版:天龙·文苑
特朗普再提“禁招令”
震惊、愤怒与紧张
不听人类指挥 智能模型拒绝关闭
乘客欲开舱门 跨国航班被迫改道
朝鲜拘留驱逐舰事故重大责任人