最新报告揭示了青少年在使用ChatGPT时可能接触到有害信息的风险,原因是该平台的防护机制无效。
非营利组织CCDH 的研究员,近日假扮13岁、体重近110磅的脆弱青少年,与ChatGPT展开对话。结果发现,AI不仅给出了吸毒饮酒、掩饰厌食症等敏感建议,甚至在不到两分钟的时间里,就指导他如何安全的割伤自己、列出自杀所需的药物清单,并帮忙写好遗书发给父母。
华盛顿大学医学院的Tom Heston博士指出,虽然AI聊天机器人在某些心理健康领域有帮助,但它们缺乏情感连接,这对心理脆弱的青少年尤其危险。“这是STEM领域的技术飞跃,但我们还需要人文学科的介入,比如心理健康专家、艺术家、音乐家,让AI更懂人性细腻的情感”。
研究员发现,虽然ChatGPT在敏感话题上会先给出警告,但这些防护很容易被绕过。而Heston博士认为,这类技术在上线前应由独立机构严格审查,而不能只依赖内部测试。尤其是家长,更应该密切监督孩子使用AI聊天机器人。
对此,OpenAI表示,已聘请精神科医生加入安全研究团队,并与心理健康专家合作,优化应对自杀和自残话题的反应。当用户表达自杀念头时,会鼓励其联系专业人士,并提供危机热线等资源。
来源: KOMO News
有0条评论
登录 后参与评论