背景和目标:研究人员通常使用自动解决方案,例如自然语言处理(NLP)系统来从大量非结构化数据中提取临床信息。然而,临床文本的语义结构和域特异性词汇量很差,可以使开发单一适合所有解决方案变得具有挑战性。大语言模型(LLM),例如OpenAI的生成预训练的变压器3(GPT-3),为捕获和标准化非结构化临床信息提供了有希望的解决方案。这项研究评估了教学的性能,该指令(一种来自LLM GPT-3的模型家族)从医疗案例报告中提取相关的患者信息,并讨论了LLMS与专用NLP方法的优点和缺点。方法:在本文中,通过搜索PubMed,Scopus和Web of Science确定了与儿童外国身体伤害病例报告有关的208篇文章。一名审稿人手动提取有关性别,年龄,造成伤害的物体的信息以及为每个患者构建金标准以比较指令的性能的受伤身体部位。结果:指令gpt在分类涉及伤害的性别,年龄,物体和身体部位方面具有很高的准确性,分别为94%,82%,94%和89%。排除了指令无法检索任何信息的文章时,确定孩子的性别和年龄的准确性已提高到97%,以及确定受伤的身体部位的准确性提高到93%。指令gpt也能够从非英语语言文章中提取信息。结论:研究强调,LLM有可能消除特定于任务的培训的必要性(零摄取提取),从而可以从非结构化的自然语言文本中检索临床信息,尤其是从出版的科学文献中,诸如案例报告中,通过直接利用本文章的PDF PDF文件,而无需进行任何技术知识或任何技术知识范围,而无需直接使用该文章的PDF文件。语料库的多样性,其中包括用英语以外的语言编写的文章,其中一些包含广泛的临床细节,而另一些则缺乏信息,这增加了研究的力量。
随着人工智能技术被推广到医疗保健、学术界、人力资源、法律和众多其他领域,它们成为事实上的真相仲裁者。但真相备受争议,存在许多不同的定义和方法。本文讨论了人工智能系统中对真相的争夺以及迄今为止的普遍反应。然后,它研究了大型语言模型 InstructGPT 中真相的产生,重点介绍了数据收集、模型架构和社会反馈机制如何将对真实性的不同理解交织在一起。它将这种表现概念化为真相的操作化,其中不同的、往往相互冲突的主张被顺利地综合并自信地呈现为真相陈述。我们认为,同样的逻辑和不一致之处在 Instruct 的继任者 ChatGPT 中也存在,重申真相是一个非平凡的问题。我们认为,丰富的社交性和强化“现实”是增强未来语言模型真相评估能力的两个有希望的载体。然而,我们最后退一步考虑将人工智能说真话视为一种社会实践:作为听众,我们想要什么样的“真相”?