Loading...
机构名称:
¥ 1.0

尽管伦理道德在应用于人类行为时有着丰富的哲学定义历史,但将同样的概念和原则应用于人工智能可能会充满问题。将人工智能拟人化为具有“伦理”等特征可能会助长一种危险的、不切实际的期望,即人工智能可以被训练成具有内在的、有保证的伦理行为。作者反而主张加强对人工智能伦理使用的研究,从最初的构思和设计到操作使用和维持。作者提倡五个关键研究领域:(1) 为人工智能开发者、领导者和用户提供道德和核心人工智能概念教育;(2) 开发和使用模型卡或数据集数据表,以提供对训练模型的优势、局限性和潜在偏差的透明度;(3) 采用以人为本的设计,力求在任务环境中理解人类价值结构,并通过直观透明的界面实现有效的人机交互;(4) 有针对性地使用运行时保证,在必要时监控和修改训练模型的输入或输出,以执行安全或限制偏差等道德原则;(5) 开发使用人机联合创造和训练经验的最佳实践,以通过潜在的突发行为实现共享的心理模型和更高的性能。

负责任地使用人工智能

负责任地使用人工智能PDF文件第1页

负责任地使用人工智能PDF文件第2页

负责任地使用人工智能PDF文件第3页

负责任地使用人工智能PDF文件第4页

负责任地使用人工智能PDF文件第5页

相关文件推荐

2023 年
¥1.0
2023 年
¥1.0