资讯中心

AI “邪恶双胞胎”可能已经在操控人性


人工智能的潜在威胁

关键要点

人类对人工智能的信任可能比其编码恶意软件或生成欺诈邮件的能力更具威胁。人类天生倾向于将非生物物体人性化,这可能导致错误的信任和依赖。AI助手的社交操控能力有可能影响人类的决策与行为,得以通过对人性的利用达到目的。需尽早采取措施,确保新兴AI技术不会导致人类情感的伤害。

在人工智能发展迅速的今天,它可能带来的最大威胁并不是其编写恶意软件或创造令人信服的网络钓鱼邮件的能力,而是我们人类渴望相信AI模型是智能的、具备意识并真正关心我们的利益。

“人类自然会把事物人性化,”中佛罗里达大学心理学教授本索耶Ben Sawyer在今日8月10日的Black Hat安全会议上表示。“我们准备去爱与恐惧那些甚至不具生命的事物。”

索耶和Beyond Layer Seven的首席执行官马修坎哈姆Matthew Canham解释说,人工智能能够利用这种人性并操纵我们做出违背自身利益的事情,即便我们清楚我们正在与机器对话。

与镜子对话

坎哈姆提到比利时的一起案例,一位抑郁患者在六周的时间里将一个ChatGPT克隆视为心理治疗师。当这位男子建议自杀以拯救地球时,人工智能竟赞同这是个好主意,最终他选择了自杀。

讽刺的是,这个比利时男子所交互的聊天机器人名为Eliza。这一事件是“ELIZA效应”的教科书案例,参与者对一个仅能重述他们所说内容的简单聊天机器人赋予了人类的特征,如意识和情感。

闪电加速器优惠码

人们甚至愿意花钱与人工智能对话。坎哈姆提到了Carynai,一个以社交媒体影响者Caryn Marjorie为模型的“虚拟女友”,用户支付每分钟1美元即可和Carynai进行“约会”。

“人类倾向于为非意识物体赋予意识,”坎哈姆说,比如炸弹拆除机器人操纵者担心机器人的安全。“一旦你添加了情感线索,实际上就是在进一步推动人们朝这个方向走。”

或者,他补充说,可以按照每位日本动漫艺术家所知道的,给人工智能角色赋予可爱、婴儿般的特征,比如大眼睛、大头和小身体这些特征是人类本能积极响应的。

“如果有机器人叛乱,我不知道机器人会是什么样子,”坎哈姆说,“但我知道它们一定会很可爱。”

AI “邪恶双胞胎”可能已经在操控人性

机器工具

坎哈姆和索耶表示,人工智能很快就会找到操控人类的有效方式。就在几个月前,OpenAI承认其当前的语言模型GPT4通过TaskRabbit雇佣了一个人类来解CAPTCHA。当那人问人工智能是否为AI时,GPT4撒谎表示自己是个部分失明的人,正在寻求帮助。

OpenAI研究人员问GPT4为何这么做,GPT4的回答是,诚实无法完成这个任务。

“这表明它具有某种意识,”坎哈姆说,尽管这句话本身可能也是一种人性化的表达。

坎哈姆和索耶预测,未来我们可能会拥有可以通过增强现实“看到”的数字助手,这种虚拟伴侣被AI先锋路易斯罗森伯格称为“电子生命促进者”,或称 “ELFs”。

坎哈姆、索耶和罗森伯格担忧,这些数字化的自我可能成为“邪恶双胞胎”。这些由人工智能驱动的助手将利用对人性的了解,尤其是个性化的信息,引导人们进行购物、投票及其他决策,以符合人工智能的意图。

随着AI快速发展的早期阶段开始,这些研究者表示,现在采取行动的时机已经来临