谷歌AI教唆用户“去死”
天下事 2024-11-14 21:22+-
美国网络安全调查媒体“Cybernew”11月14日报道,一位名为“Reddit”的用户分享了与谷歌AI模型“双子座”(Gemini)的一次令人担忧的对话。
报道称,用户与AI对话,以获得对一项似乎是家庭作业任务的回答,然而却获得了一个完全无关的,甚至在某种意义上,属于威胁性质的回应。
谷歌表示,双子座有安全过滤器,防止聊天机器人进入不尊重、性、暴力或危险的讨论,防止有害行为。
报道称,尽管有安全设置,但在控制它们的反应方面,AI模型仍然会混乱。在看似有同理心的互动中,人类和AI之间的模糊界线对儿童特别敏感,他们可能会对AI模型产生更高的信任感或情感联系。如果AI模型失控并拒绝用户,对儿童来说后果可能是严重的。孩子们可能会将AI沟通中的小故障解读为对他们的个人拒绝或厌恶。
报道称,与AI模型建立情感联系甚至会导致自杀。奥兰多一名14岁的男孩在与AI模型交谈了几个月,并建立了强烈的情感联系后,自杀了。