Loading...
机构名称:
¥ 1.0

人工智能中的观点和辩论 Alex Rich 4 月 9 日 “从自然愚蠢研究中吸取的人工智能教训” Rich, AS, Gureckis, TM Nat Mach Intell 1, 174–180 (2019) 问:您的观点是什么? 机器学习算法在应用于刑事司法等高风险领域时,可能会表现出有害和偏见。 通常,这些算法会做出曾经留给另一组聪明但有偏见的代理——人类的决策。 我们的文章列出了有关人类学习和决策偏见的文献,并认为了解这些偏见在人类身上产生的原因可以帮助我们防止它们出现在机器中。 问:写这篇文章有什么特定的原因或动机吗? 这篇文章是多种因素汇聚而成的。 在宏观层面,过去两三年来,关于机器学习系统的偏见和负面影响的警钟一直在敲响,需要从多种角度来处理这些问题。从个人角度来说,我正从学术心理学家转变为行业机器学习从业者。这给了我一个独特的视角来回顾过去五十年来对人类偏见的研究如何为这一对话增添色彩。问:你自己对这个话题的看法是如何演变的?花时间研究行业中的机器学习用例让我清楚地认识到,迫切需要实用的工具来识别和防止算法偏见。对于由于选择依存反馈而发生的问题尤其如此,我们将在“观点”的第二部分讨论这个问题。从强化学习和因果推理文献中,有许多潜在的方法可以解决选择依存反馈问题,但缺乏可访问的软件或文字来指导医疗保健等领域的用例,因为在这些领域,经典解决方案可能是不可能的或不道德的。1问:你对 2020 年的人工智能有什么具体的希望吗?令我兴奋的一个趋势是机器学习社区对因果推理和因果关系的兴趣日益浓厚(例如,参见 Judea Pearl 的《为什么之书》)。因果推理不仅可以让人工智能实现更灵活、更像人类的行为,还可以

人工智能的观点和争论

人工智能的观点和争论PDF文件第1页

人工智能的观点和争论PDF文件第2页

人工智能的观点和争论PDF文件第3页

人工智能的观点和争论PDF文件第4页

人工智能的观点和争论PDF文件第5页

相关文件推荐