斯坦福大学教师对人工智能工具在研究中的使用发表看法

斯坦福大学各学科的教员正在将人工智能融入到他们的研究中,平衡其加速分析的潜力与伦理问题和解释限制。斯坦福大学后教员对人工智能工具在研究中的使用的评价首先出现在《斯坦福日报》上。

来源:斯坦福大学日报

随着人工智能 (AI) 工具在斯坦福大学的学术研究中得到越来越广泛的应用,跨学科的教师正在讨论如何在不损害学术严谨性、道德和人类判断力的情况下采用该技术。

历史学副教授 Kathryn Olivarius 对人工智能持谨慎态度。她对 19 世纪美国的研究依赖于档案材料、仔细阅读和原始解释,这些材料通常存在于尚未数字化的实体档案中。

“ChatGPT 或生成式人工智能并不是插入的档案,”Olivarius 说,并指出许多学生认为历史资源可以完全在线访问。

Olivarius 表示,她已经使用了生成式人工智能,并发现它是一个“非常好的文案编辑器”,但她强调,她不会用它来生成草稿。 “对于大多数学者来说,你的思考和好主意都来自于漫长的写作,”奥利瓦里斯说。 “我认为自己从来没有真正外包过我所做的任何研究的这一部分。”

Olivarius 还提出了围绕人工智能在历史研究中使用的伦理担忧,并将当前时刻描述为“狂野的西部”。

“对此的道德规范尚未达成共识,”她解释道。 “如果这不是你的想法,那就不是你的想法,我认为你可以合理地称其为[AI]抄袭。”

她的担忧延伸到了课堂上。在通过让人工智能生成她所在领域的论文来测试人工智能后,奥利瓦里斯表示它犯了重大的解释错误。 “它搞错了,重大的解释性错误,只有我才知道,”她解释道。 “问题是,当你不是专家时,你将无法发现它出错的地方。”

因此,一些教员专注于帮助研究人员更有效地使用这些工具。 Jooyeon Hahm 是跨学科数字研究中心数据科学培训和咨询的负责人,帮助斯坦福大学的研究人员对数据进行定量、计算和算法分析。