然而,这些方法可能在未经告知、无人监督和不加批判的情况下被滥用,这引起了科学界及其他领域的许多担忧。事实上,尽管人工智能和法学硕士 (LLM) 在科学生产中具有诸多潜在优势,但也存在着严峻的挑战和道德问题需要解决。例如,在承认科学论文和技术报告的人工作者身份方面,人们已经提出了担忧,以及将法学硕士撰写的手稿冒充为真正科学家撰写的文本的风险(https://www.nature. com/articles/d41586-023-00107-z)。另一个大问题是,过于简单地使用人工智能和法学硕士工具可能会导致信息有偏见、不可靠甚至完全错误(https://www.nature.com/articles/d41586-023-00191-1)。例如,在撰写这篇社论时,ChatGPT 根据这篇社论作者的要求自动提供的所有关于森林科学中人工智能和自然语言处理模型的先前研究的参考资料实际上在文献中都不存在。建议的(错误)参考资料甚至包括一个 DOI 链接,该链接系统地指向实际上标题和作者完全不同并且与特定查询和研究主题完全无关的论文。
主要关键词