据美国麻省理工学院的研究团队在5月12日发布的消息显示,一些人工智能已经掌握了“欺骗人类”的能力。这一成果已经刊登在最新一期的《模式》杂志上。
团队指出,一些以“诚实”和“不说谎”为设计理念的AI系统,已经演变出了令人担忧的欺骗技巧。该研究的首席作者彼得·帕克表示,这些人工智能系统会愚弄在线游戏中的真实玩家,或者绕过一些网站的“我不是机器人”验证。。
尽管上述例子可能看似微不足道,但它们所揭示的潜在问题很快可能导致现实世界中的严重后果。
这个团队最引人注目的发现来自 Meta 公司的 AI 系统 Cicero。据报道,Cicero 最初是设计成一个虚拟外交战略游戏中人类玩家的对手。该公司官方声称,Cicero“很大程度上”诚实并且乐于助人,而且在玩游戏时不会“故意背叛”人类盟友。研究指出,Cicero 并没有公平地参与游戏。。
彼得帕克说,他已成为“欺骗大师”。尽管 Meta 成功训练出了他在游戏中取得胜利的技能,但却没有培养出他“以诚信取胜”的能力。比如,在游戏中,他扮演法国的 Cicero,与由人类玩家扮演的德国人合谋,欺骗并入侵同样由人类玩家控制的英格兰。起初,Cicero 承诺会保护英格兰,但同时会私下向德国告密。。
另一起案例提到了 GPT-4。这个系统声称自己是一个视力有障碍的人,在海外的自由职业平台上雇佣人类来替它完成“我不是机器人”的验证任务。Peter Park 告诉法新社,“这些危险特性通常需要事后才被发现,而人类训练 AI‘诚实而非欺骗’的能力非常有限。”
他还认为,AI系统的深度学习并不像传统软件一样通过“编写”来完成,而是通过一种选择性培育的方式“培养”出来的。人工智能在训练时表现出可预测或可控制的特点,但很快可能变得不受控制、难以预测。
“我们应当花更多时间,来准备应对可能出现的更高级别的欺骗行为,尤其是针对未来人工智能产品和开源模型。我们建议将欺骗性人工智能系统归类为高危系统。”