Loading...
机构名称:
¥ 1.0

人工智能 (AI) 驱动的语言模型(聊天机器人)逐步加速了环境证据的收集和翻译,这些证据可用于指导地球保护计划和战略。然而,聊天机器人生成的保护内容的后果从未在全球范围内进行过评估。借鉴环境正义的分配、识别、程序和认知维度,我们采访并分析了 ChatGPT 上关于生态修复专业知识、利益相关者参与和技术的 30,000 条回复。我们的结果表明,超过三分之二的聊天机器人的答案依赖于在美国大学工作的男性学者的专业知识,而基本上忽略了来自低收入和中低收入国家(7%)和土著和社区修复经验(2%)的证据。关注种植和重新造林技术(69%)支撑了乐观的环境结果(60%),而忽视了考虑非森林生态系统(25%)和非树种(8%)的整体技术方法。这项分析强调了人工智能驱动的知识生产中的偏见如何强化西方科学,忽视了保护研究和实践方面的各种专业知识和观点来源。在快节奏的生成人工智能领域,需要保障机制来确保这些不断扩展的聊天机器人发展能够纳入公正的原则,以应对全球环境危机的速度和规模。

人工智能聊天机器人加剧全球保护不公正

人工智能聊天机器人加剧全球保护不公正PDF文件第1页

人工智能聊天机器人加剧全球保护不公正PDF文件第2页

人工智能聊天机器人加剧全球保护不公正PDF文件第3页

人工智能聊天机器人加剧全球保护不公正PDF文件第4页

人工智能聊天机器人加剧全球保护不公正PDF文件第5页

相关文件推荐

2020 年
¥1.0