约翰·韦弗(John Weaver)摘要撰写,我将文章集中在伯纳德·斯蒂格勒(Bernard Stiegler)的哲学上,因为我认为他是一位哲学家,他正在考虑算法和数据科学的后果。在以下内容中,我简要摘要他的思想,然后讨论他关于算法或他所谓的自动化社会和数据科学的思维内容。然后,我概述了一些我们可以开始思考我们作为教授,老师和学生如何生活在算法和数据领域中的领域,而无需他们权威和完全掌握。课程学者的智力本能通常是为了驳斥与技术和科学有关的事项,就好像我们与世界分开一样。驳回算法和数据科学是我们智力能源不值得的东西,具有深远的环境,政治,文化和教育风险。这从根本上是斯蒂格勒的哲学观点之一,当然也是我的。关键字:Bernard Stiegler,Pharmakon,自动化社会和统计双重。今天的整个世界都非常了解,但是在我们当前的情况下,放弃他们的课程是自杀的:这个时代是decade废的事实,意味着它已经运行了自己的过程……而不采取行动是放弃生活。(Stiegler,2011年,第95页)要注意[Panser]人类世要从能够刺穿被封锁的地平线的飞跃的角度来思考。(Stiegler,2018年,第210页),我经常将自己的企业视为偶然的课程研究。我在课程理论方面没有参加匹兹堡大学的博士生。我是一名比较教育的学生,我的第一本书是关于东德大学系统和学术政治的重组。我直到我的论文辩护之后才认为课程研究是一个感兴趣的领域
人工智能伦理正在经历两次转变。首先,学术组织和私营公司(Peters 等人,2020 年;Whittlestone 等人,2019 年)编纂的庞大的伦理原则正在融合成一个脆弱的共识,即人工智能伦理在理论层面上意味着什么。欧洲理事会的《可信人工智能伦理指南》(Floridi 和 Clement Jones,2019 年)反映了这一松散的共识,它产生了 Morley 等人(2020:2147)所说的“人工智能伦理的第二阶段:在‘什么’和‘如何’之间进行转化”。本文通过记录对现有、已部署且正在运行的人工智能医疗设备进行严格的伦理评估所获得的经验,有助于将抽象原则转化为具体的人工智能应用。本文将遵守与制造商的保密协议,但从广义上讲,该设备会生成心电图的专有分析,以过滤与即将发生的冠心病相关的异常和模式。该评估是受设备制造商邀请的。
人工智能系统可能会表现出偏见。有些偏见实际上并不是故意编入代码的,而是用户互动的结果。海伦·尼森鲍姆以谷歌的行为广告系统为例来解释这种行为。如果搜索两个不同的名字,一个是传统的白种人,一个是传统的非裔美国人,那么搜索传统的非裔美国人的名字会得到更多的背景调查广告。由于用户在搜索传统的非裔美国人名字时更有可能点击背景调查广告,因此谷歌的系统会在搜索非裔美国人名字时投放更多广告。因此,种族偏见是由用户引入人工智能系统的。