抽象的目标是探索大型语言模型(LLM)是否生成的预训练的变压器(GPT)-3和Chatgpt可以编写临床信件并预测常见骨科场景的管理计划。设计了15个场景,并提示Chatgpt和GPT-3撰写临床信件,并分别制定了有关相同场景的管理计划,并删除了计划。使用可读工具评估了主要结果指标的字母。信件和管理计划的准确性由三位独立的骨科手术临床医生评估。结果两个模型在单个提示后为所有方案生成完整的字母。使用Flesch-Kincade等级比较可读性(CHATGPT:8.77(SD 0.918); GPT-3:8.47(SD 0.982)),Flesch Rearbilability Esise(ChatGpt:58.2:58.2(SD 4.00); SD 4.00); gpt-3:gpt-3:59.3:59.3(SD 6.98)(SD 6.98),Sipple of Simple of Sipple of Sipple of Chagpt of Chagpt of Chagpt(chats)(SCHBBLEDS) 0.755); gpt-3:11.4(SD 1.01),并达到(chatgpt:81.2%; gpt-3:80.3%)。chatgpt产生了更准确的字母(8.7/10(SD 0.60)vs 7.3/10(SD 1.41),p = 0.024)和管理计划(7.9/10(SD 0.63)vs 6.8/10(SD 1.06),比GPT-3比GPT-3。但是,两个LLM有时都省略了关键信息或添加了最坏不准确的其他指导。结论本研究表明,LLM可有效地产生临床信件。几乎没有提示,它们是可读的,并且大多是准确的。但是,它们不一致,包括不适当的遗漏或插入。此外,LLM制定的管理计划是通用的,但通常是准确的。将来,经过精确且安全的数据培训的医疗保健特定语言模型可以为通过将大量数据汇总到单个临床字母中来提高临床医生的效率,从而为提高临床医生的效率。