这个转折足以愚弄chatgpt,这可能会花费生命

AI像Chatgpt这样的AI系统可能看起来令人印象深刻,但是一项新的以西奈山为生的研究表明,它们可能会以人为令人惊讶的方式失败,尤其是当道德推理出现时。通过巧妙的调整经典的医疗困境,研究人员透露,即使在事实矛盾的情况下,大型语言模型也经常默认为熟悉或直观的答案。这些[...]

来源:SciTech日报
当谜题稍有改变时,人工智能可能会误判医学道德——这表明它仍然缺乏安全地做出高风险决策的细微差别。图片来源:Shutterstock

像 ChatGPT 这样的人工智能系统可能看起来非常聪明,但西奈山领导的一项新研究表明,它们可能会以令人惊讶的人类方式失败——尤其是当道德推理受到威胁时。

通过巧妙地调整经典的医学困境,研究人员发现,大型语言模型通常默认为熟悉或直观的答案,即使它们与事实相矛盾。这些“快速思考”的失败暴露了令人不安的盲点,可能会对临床决策产生真正的后果。

人工智能模型可能会在复杂的医学伦理中陷入困境

最近由西奈山伊坎医学院的研究人员与以色列拉宾医学中心和其他机构的同事合作进行的一项研究发现,即使是当今最先进的人工智能 (AI) 模型在解决复杂的医学伦理问题时也会犯下令人惊讶的基本错误。

人工智能

7 月 22 日在线发表在《NPJ Digital Medicine》上的研究结果引起了人们的重要关注:当 ChatGPT 等大型语言模型 (LLM) 在医疗保健环境中使用时,应给予多大程度的信任。

NPJ 数字医学

受到卡尼曼的启发:快思考与慢思考

这项研究以丹尼尔·卡尼曼 (Daniel Kahneman) 的著作《思考,快与慢》中的概念为指导,该书探讨了本能、快速决策与更慢、更深思熟虑的推理之间的对比。之前的观察表明,当众所周知的横向思维难题稍作修改时,法学硕士可能会陷入困境。基于这个想法,该研究评估了这些人工智能系统在响应故意改变的医学伦理场景时在快速推理和慢速推理之间转换的效率。

性别偏见之谜暴露了人工智能的局限性

道德情景引发熟悉模式错误

,

AI盲点需警惕

npj 数字医学 谷歌