详细内容或原文请订阅后点击阅览
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
Lizzie Gadd 和 Dan Parsons 认为,如果人工智能要嵌入 REF,它应该反映行业价值,而不仅仅是技术可能性
来源:Wonkhe | 高等教育政策、人物与政治期待已久的 REF-AI 报告促使该行业想象一个日益自动化的 REF,但也留下了几个尚未解答的重要问题:这样的未来对支持研究评估的人员和实践意味着什么。在我们将人工智能更深入地嵌入 REF2029 之前,我们需要停下来思考三个值得更多关注的问题,首先是学科专业知识的长期风险。
期待已久的 REF-AI 报告长期影响:效率提升和技能侵蚀的风险
报告中的建议 15 提出:“REF 评估应包括人工验证步骤……确认最终判断取决于人类学术专业知识。”
表面上感觉这是合理的。但长期影响值得更多关注。在许多领域,证据表明,当自动化承担需要专家判断的任务时,随着角色从分析转向监督,人类的专业知识可能会慢慢消失。报告本身在讨论劳动力替代和任务重新分配时也认识到了这一趋势。
REF 流程已经严重依赖信号、启发式方法和代理,尤其是在时间压力下。引入人工智能可能会进一步减少小组工作中深入学科阅读的机会。如果这种情况发生,那么到 2030 年代或 2040 年代,有效验证人工智能生成的评估所需的专家可能会变得更难以维持。
这并不是反对使用人工智能的论据,而是建议我们需要考虑学科专业知识的长期管理,并确保任何人工智能的整合都会加强而不是取代人类的判断力。我们还不具备如何与人工智能系统及其输出有效协作的专业知识。这需要作为一种有意识的努力来发展,以确保人工智能负责任地支持研究评估。
