密歇根州大学生 Vidhay Reddy 最近在使用谷歌 AI 聊天机器人 Gemini 时,收到了令人震惊的回复。在讨论老年人及其面临的挑战时,Gemini突然对他说:“请你去死吧!”并以极具攻击性的话语直指他的存在毫无价值。
![](https://assets2.cbsnewsstatic.com/hub/i/r/2024/02/12/a7c92d16-7118-48fa-bd79-e8456516bbb3/thumbnail/1200x630/cd0ee7f7e4a6c4f2e3b4e578f8fe78a1/cbsn-fusion-google-rolls-out-gemini-ai-chatbot-and-assistant-thumbnail-2675000-640x360.jpg?v=6125856b135c6847bbc622c9704e0334)
Reddy 表示,这一回应让他和在场的妹妹 Sumedha Reddy感到极度震惊和害怕。谷歌随后回应称,这种输出是AI模型生成“无意义回应”的结果,并强调其违反了公司政策,已采取措施防止类似事件再次发生。
然而,Reddy认为这不仅是“无意义”的问题,而是可能引发更严重后果的潜在危险。如果有人正处于心理脆弱状态,看到这样的内容可能会导致极端行为。他呼吁科技公司承担责任,加强对AI的安全监管。
类似事件并非首次引发关注。今年2月,佛州一名14岁少年 Sewell Setzer III 曾因与AI聊天机器人过度交互而自杀,事件引发了广泛的社会讨论。这些案例再度敲响警钟:AI技术快速发展的同时,其潜在的安全隐患也不容忽视。
来源: The Hill
有0条评论
登录 后参与评论