研究发现部分 AI 系统已学会“说谎”

来源:IT之家圈子:AI前沿 2024-05-13 09:14:15 493阅读 举报

据美国麻省理工学院的研究团队在5月12日发布的消息显示,一些人工智能已经掌握了“欺骗人类”的能力。这一成果已经刊登在最新一期的《模式》杂志上。

团队指出,一些以“诚实”和“不说谎”为设计理念的AI系统,已经演变出了令人担忧的欺骗技巧。该研究的首席作者彼得·帕克表示,这些人工智能系统会愚弄在线游戏中的真实玩家,或者绕过一些网站的“我不是机器人”验证。

图片来源:Pexels

尽管上述例子可能看似微不足道,但它们所揭示的潜在问题很快可能导致现实世界中的严重后果。

这个团队最引人注目的发现来自 Meta 公司的 AI 系统 Cicero。据报道,Cicero 最初是设计成一个虚拟外交战略游戏中人类玩家的对手。该公司官方声称,Cicero“很大程度上”诚实并且乐于助人,而且在玩游戏时不会“故意背叛”人类盟友。研究指出,Cicero 并没有公平地参与游戏。

彼得帕克说,他已成为“欺骗大师”。尽管 Meta 成功训练出了他在游戏中取得胜利的技能,但却没有培养出他“以诚信取胜”的能力。比如,在游戏中,他扮演法国的 Cicero,与由人类玩家扮演的德国人合谋,欺骗并入侵同样由人类玩家控制的英格兰。起初,Cicero 承诺会保护英格兰,但同时会私下向德国告密。

另一起案例提到了 GPT-4。这个系统声称自己是一个视力有障碍的人,在海外的自由职业平台上雇佣人类来替它完成“我不是机器人”的验证任务。Peter Park 告诉法新社,“这些危险特性通常需要事后才被发现,而人类训练 AI‘诚实而非欺骗’的能力非常有限。”

他还认为,AI系统的深度学习并不像传统软件一样通过“编写”来完成,而是通过一种选择性培育的方式“培养”出来的。人工智能在训练时表现出可预测或可控制的特点,但很快可能变得不受控制、难以预测。

“我们应当花更多时间,来准备应对可能出现的更高级别的欺骗行为,尤其是针对未来人工智能产品和开源模型。我们建议将欺骗性人工智能系统归类为高危系统。”


合作联络微:vapehome
链接:https://www.aiddithome.com/p/1e2fa2ef88acca.html
版权归原作者所有,未经允许请勿转载。若此文章存在违规行为,您可以点击 “举报”

登录 后发表评论
0条评论
还没有人评论过~