详细内容或原文请订阅后点击阅览
您可能错过了GPT-5
在OpenAI上周四发布GPT-5之前,首席执行官Sam Altman表示,其功能使他感到“相对于AI毫无用处”。他说,从事它的重量,他想象原子弹的开发商一定会感到。随着科技巨头汇聚在做或多或少相同事情的模型上,Openai的新……
来源:MIT Technology Review _人工智能随着GPT-5的发布,OpenAI已开始明确告诉人们使用其模型进行健康建议。在发布会上,奥特曼(Altman)在Openai雇员Felipe Millon和他的妻子Carolina Millon上欢迎,他们最近被诊断出患有多种形式的癌症。卡罗来纳州谈到向Chatgpt寻求帮助时的帮助,称她上传了活检结果的副本,以翻译医疗术语,并要求AI帮助做出有关是否追求辐射的决定。三人称这是缩小医生与患者之间知识差距的授权例子。
启动随着这种方法的改变,Openai涉水进入危险的水域。
对于一个人来说,有证据表明医生可以从AI作为临床工具中受益,就像在肯尼亚的研究中一样,建议没有任何医学背景的人应要求AI模型就自己的健康提供建议。问题在于,很多人可能会要求提供此建议,而没有医生的运行情况(现在聊天机器人很少提示他们这样做的可能性就不太可能这样做)。
的确,在GPT-5推出前两天,《内科年鉴》发表了一篇论文,讲述了一个人停止吃盐并在与Chatgpt进行对话后开始摄入危险的溴化物。他出现了溴化中毒 - 在美国食品药品监督管理局(Food and Drug Administration)在1970年代开始遏制溴化物在非处方药中使用溴化物后,这在美国大部分消失了,然后几乎死亡,在医院度过了数周。
内科年鉴 已发布那么,这一切何在?本质上,这是关于问责制。当AI公司从有前途的一般情报转向在诸如医疗保健等特定领域提供类似人的帮助时,它提出了第二个但尚未解决的问题,即犯错时会发生什么。就目前而言,几乎没有迹象表明科技公司对造成的伤害承担责任。