人工智能伦理正在经历两次转变。首先,学术组织和私营公司(Peters 等人,2020 年;Whittlestone 等人,2019 年)编纂的庞大的伦理原则正在融合成一个脆弱的共识,即人工智能伦理在理论层面上意味着什么。欧洲理事会的《可信人工智能伦理指南》(Floridi 和 Clement Jones,2019 年)反映了这一松散的共识,它产生了 Morley 等人(2020:2147)所说的“人工智能伦理的第二阶段:在‘什么’和‘如何’之间进行转化”。本文通过记录对现有、已部署且正在运行的人工智能医疗设备进行严格的伦理评估所获得的经验,有助于将抽象原则转化为具体的人工智能应用。本文将遵守与制造商的保密协议,但从广义上讲,该设备会生成心电图的专有分析,以过滤与即将发生的冠心病相关的异常和模式。该评估是受设备制造商邀请的。
人工智能系统可能会表现出偏见。有些偏见实际上并不是故意编入代码的,而是用户互动的结果。海伦·尼森鲍姆以谷歌的行为广告系统为例来解释这种行为。如果搜索两个不同的名字,一个是传统的白种人,一个是传统的非裔美国人,那么搜索传统的非裔美国人的名字会得到更多的背景调查广告。由于用户在搜索传统的非裔美国人名字时更有可能点击背景调查广告,因此谷歌的系统会在搜索非裔美国人名字时投放更多广告。因此,种族偏见是由用户引入人工智能系统的。