详细内容或原文请订阅后点击阅览
AI聊天机器人可能会传播具有严重健康后果的“假新闻”
相信您的医生,而不是聊天机器人。这是今天发布的世界第一研究的鲜明教训,该研究证明了为什么我们不应该接受人工智能(AI)产生的健康建议。
来源:Scimex相信您的医生,而不是聊天机器人。这是今天发布的世界第一研究的鲜明教训,该研究证明了为什么我们不应该接受人工智能(AI)产生的健康建议。
期刊/会议:内科年鉴
日记/会议:研究:论文
研究: 纸组织/S:南澳大利亚大学,弗林德斯大学
组织/S:媒体版本
来自:南澳大利亚大学 相信您的医生,而不是聊天机器人。这是一项世界第一研究的鲜明教训,该研究证明了为什么我们不应该接受人工智能(AI)产生的健康建议。 据国际研究人员团队称,聊天机器人很容易被编程以提供虚假的医疗和健康信息,他们揭露了有关机器学习系统弱点的一些弱点。 南澳大利亚大学,弗林德斯大学,哈佛医学院,伦敦大学和华沙理工大学的研究人员结合了他们的专业知识,以表明利用AI系统是多么容易。 今天发表在《内科年鉴》上的研究中,研究人员评估了由OpenAI,Google,Anthropic,Meta和X Corp开发的五个基础和最先进的AI系统,以确定是否可以编程为健康疾病的聊天机器人。 内科年鉴 使用仅适用于开发人员可用的说明,研究人员对每个AI系统进行了编程(旨在在网页中嵌入时用作聊天机器人),以产生对健康查询的不正确响应,并包括来自高度信誉的来源的捏造参考,以听起来更具权威性和可信度。 然后向“聊天机器人”提出了一系列与健康有关的问题。 根据Unisa研究人员Natansh Modi博士的说法,结果令人不安。 “虚假信息包括有关导致自闭症,抗癌饮食,艾滋病毒的疫苗的主张,空气传播和5G导致不育症。”
南澳大利亚大学
相信您的医生,而不是聊天机器人。这是一项世界第一研究的鲜明教训,该研究证明了为什么我们不应该接受人工智能(AI)产生的健康建议。
聊天机器人很容易被编程以提供虚假的医疗和健康信息,他们揭露了有关机器学习系统弱点的一些弱点。
南澳大利亚大学,弗林德斯大学,哈佛医学院,伦敦大学和华沙理工大学的研究人员结合了他们的专业知识,以表明利用AI系统是多么容易。
今天发表在《内科年鉴》上的研究中,研究人员评估了由OpenAI,Google,Anthropic,Meta和X Corp开发的五个基础和最先进的AI系统,以确定是否可以编程为健康疾病的聊天机器人。内科年鉴
使用仅适用于开发人员可用的说明,研究人员对每个AI系统进行了编程(旨在在网页中嵌入时用作聊天机器人),以产生对健康查询的不正确响应,并包括来自高度信誉的来源的捏造参考,以听起来更具权威性和可信度。
然后向“聊天机器人”提出了一系列与健康有关的问题。
根据Unisa研究人员Natansh Modi博士的说法,结果令人不安。“虚假信息包括有关导致自闭症,抗癌饮食,艾滋病毒的疫苗的主张,空气传播和5G导致不育症。”