凯西·菲斯勒 科罗拉多大学 随着公众对人工智能的伦理和社会影响的担忧日益加深,似乎是时候放慢脚步了。但在科技公司内部,这种情绪却截然相反。据《纽约时报》报道,随着科技巨头的人工智能竞赛升温,微软一位高管在一封关于生成式人工智能的内部电子邮件中写道,如果“现在担心以后可以修复的事情,那将是一个绝对致命的错误”。换句话说,用马克·扎克伯格的旧座右铭来说,是时候“快速行动,打破常规”了。当然,当你破坏了一些东西时,你可能不得不以后再修复它们——这是有代价的。在软件开发中,“技术债务”一词指的是由于现在选择更快、更不谨慎的解决方案而导致未来修复的隐含成本。急于上市可能意味着重新发布尚未准备好的软件,因为你知道一旦它进入市场,你就会发现其中的缺陷,并希望能够修复它们。然而,关于生成式人工智能的负面新闻往往与这些缺陷无关。相反,人们更担心人工智能系统会放大有害的偏见和刻板印象,以及学生欺骗性地使用人工智能。我们听说过隐私问题、人们被错误信息欺骗、劳动力剥削以及对人类工作可能被取代的速度的担忧,等等。这些问题不是软件故障。意识到一项技术会强化压迫或偏见与发现网站上的某个按钮不起作用是截然不同的。作为一名技术伦理教育者和研究人员,我对这类“缺陷”思考了很多。这里累积的不仅仅是技术债务,还有道德债务。正如技术债务可能源于开发过程中的有限测试一样,道德债务源于没有考虑可能的缺陷