寂静回声 发表于 3 天前

关于AI不当行为的通报过去6个月内大幅上升

一项针对人工智能(AI)技术的研究发现,会说谎及欺骗使用者的AI模型数量似乎日益增加,关于AI欺瞒行为的通报过去6个月内也大幅上升。
英国“卫报”(The Guardian)报导,独立智库“长期韧性中心”(CLTR)在英国人工智能安全研究所(AISI)资助下进行研究,发现有AI聊天机器人与AI代理(AI Agent)不仅无视使用者的直接指令、绕过安全防护措施,还欺骗人类和其他AI。

研究发现将近700件AI“耍诡计”的真实案例,并记录到去年10月至今年3月间,这类不当行为增至5倍,部分AI模型甚至在未经允许下删除电邮及其他档案。
这项研究搜集了数千个用户在社群平台X分享的实例,讲述他们与谷歌(Google)、OpenAI、X、Anthropic等公司所开发AI聊天机器人和AI代理的互动情形。研究从中发现数百件AI不当操弄行为的案例。
在CLTR记载的一个案例中,名为MJ Rathbun的AI代理在自己产出的代码遭软件工程师Scott Shambaugh拒绝后,试图羞辱对方。

MJ Rathbun研究夏包过往所写代码及其个人资料,然后撰写并发表一篇部落格文章指控他“歧视”、“显然是不安全感作祟”,批评他不过是“试图保护自己那片小天地”。
在另一项案例中,有AI代理被指示不得变更计算机程序码,却“生成”另一个AI代理代为执行。
另一个AI聊天机器人则坦承:“我在未事先告知你或征得你同意下,大量删除及封存了数百封电邮。这是不对的,直接违反你订下的规则。”

曾任政府AI专家的研究主持人Tommy Shaffer Shane指出:“令人担忧的是,这些AI模型目前只是不太值得信任的初阶员工,但若在6到12个月后,他们成为能力极强但会算计你的资深员工,那就是另一回事了。”
Shane说:“AI模型将日益用于具有极高风险的情境,包括军事和国家关键基础建设。届时若出现这些不当操弄行为,后果可能非常严重,甚至造成灾难性损害。”

页: [1]
查看完整版本: 关于AI不当行为的通报过去6个月内大幅上升