从技术上讲,这是可能的。从道德上讲,这很复杂。

人工智能使用的激增增加了对哈佛项目的需求,该项目旨在研究计算机科学工作的社会后果

来源:哈佛大学报

2023 年,旧金山的一名行人严重受伤,当时一名司机撞倒了她,将她扔到一辆自动驾驶汽车的车道上,而这辆自动驾驶汽车在她试图靠边停车时将她拖了 20 英尺。在复杂的情况和坠机事件的法律后果中,教育工作者看到了未来工程师应对新兴技术的道德挑战的学习机会。

崩溃

“我们将此案例视为一个警示故事,也是在碰撞不可避免的情况下改进设计的挑战,”迈克尔·波普 (Michael Pope) 说道。他在约翰·A·保尔森工程与应用科学学院的“人工智能的规划和学习方法”课程中为学生主持了一场关于这次事故的讨论。 “我们应该如何为这些不可预测的场景设计系统?我们应该如何考虑这些系统中使用的培训制度和学习模型?”

迈克尔·波普

Pope 是嵌入式伦理学的博士后研究员,该计划于 2017 年启动,将哲学学者带入计算机科学课堂,帮助学生应对其工作的伦理和社会影响。今年,人工智能伦理得到了新的重视。

嵌入式道德规范

“学生基本上在计算机科学课程中感受到了人文教育的气息,”Embedded EthiCS 项目总监 Matthew Kopec 说道。 “在计算机科学课堂上就这些扎根于他们核心价值观的话题进行对话,他们可以真正地互相交谈,了解不同的人有不同的价值观,并捍卫他们的价值观。这在计算机科学课堂上通常不会发生。”

马修·科佩克

‘我只是在这里建造一个机器人’

“从构建表情符号等简单的事情,一直到大型语言模型、自动驾驶汽车和自主武器系统,凡是你能想到的,我们都会提出一些社会、伦理影响。”Huzeyfe Demirtas
胡泽夫·德米尔塔斯 大卫·马兰

随着 ChatGPT 的使用,需求激增

国家科学基金会