在本出版物中,人工智能 (AI) 一词是指一大类基于软件的系统,它们从环境中接收信号并采取行动,通过生成输出(例如内容、预测、建议、分类或影响其所交互环境的决策等)来影响该环境 [63]。机器学习 (ML) 更具体地指的是“使计算机能够在没有明确编程的情况下学习的研究领域” [64],或利用数据来学习和应用模式或辨别统计关系的计算机程序。常见的 ML 方法包括但不限于回归、随机森林、支持向量机和人工神经网络。ML 程序可能用于或可能不用于预测未来事件。ML 程序还可用于为其他 ML 程序创建输入。AI 在其范围内包括 ML。虽然 AI 前景广阔,但通过放大现有偏见,自动分类和在大型数据集内发现的便利性可能会给个人和社会带来重大负面影响。偏见可能是有意或无意地引入人工智能系统的,也可能是在人工智能应用于某个应用程序时出现的。某些类型的人工智能偏见是有目的且有益的。例如,人工智能应用程序所依赖的机器学习系统通常会模拟我们的隐性偏见,以创造积极的在线购物体验或识别感兴趣的内容 [65, 66]。推荐系统以及其他建模和预测方法的激增也有助于揭露这些过程中存在的许多负面社会偏见,这些偏见可能会降低公众信任 [67–70]。人工智能并不是在真空中建立或部署的,它与社会现实中的歧视或不公平做法隔绝。将人工智能理解为社会技术系统,就是承认开发技术的过程不仅仅是数学和计算结构。人工智能的社会技术方法考虑了从数据集建模的价值观和行为、与之交互的人类以及涉及其委托、设计、开发和最终部署的复杂组织因素。
随着个人和社区在日益虚拟的环境中互动,他们往往容易受到数字足迹商品化的影响。在这种环境中,模糊的概念和行为被捕获、量化,并用于对人们的生活进行分类、排序、推荐或做出决策。虽然许多组织都试图以负责任的方式利用这些信息,但偏见在技术过程中仍然存在,无论意图如何,都可能导致有害影响。这些有害结果,即使是无意的,也为培养公众对人工智能 (AI) 的信任带来了重大挑战。虽然有很多方法可以确保我们每天使用的技术是安全可靠的,但有些特定于人工智能的因素需要新的视角。人工智能系统通常被置于它们能够产生最大影响的环境中。这种影响是有益的还是有害的,是值得信赖和负责任的人工智能领域的一个基本问题。人工智能带来的有害影响不仅在个人或企业层面,而且能够波及更广泛的社会。人工智能应用或通过跨领域和跨行业的大型机器学习模型的扩展造成的破坏的规模和速度需要我们共同努力。
许多决定基于关于不确定事件的可能性的信念,例如电子的结果,被告的罪恶感或美元的未来价值。这些信念通常在诸如“我认为。。。,”“机会。。。,“”不太可能。。。,“等等。有时,关注事件的信念以数值形式表示为赔率或主观概率。是什么决定了这种情况?人们如何评估不确定事件的概率或不确定数量的价值?本文表明,人们依靠有限数量的启发式原则,这些原则降低了诉讼概率的复杂任务,并将其预测为简单的判断操作。通常,这些启发式方法非常有用,但有时会导致严重而系统的错误。
这是作者接受的稿件,未经编辑、格式化或最终修改。最终稿件将发表在即将出版的《英国科学哲学杂志》上,该杂志由芝加哥大学出版社代表英国科学哲学学会出版。引用或引用时请包含 DOI:https://doi.org/10.1086/714960 版权所有 2021 英国科学哲学学会。
那些使用石头和粘土等耐用媒介的帝国对时间产生了偏见,因为这些媒介可以长期保存信息。由于这些媒介不易运输,它们倾向于建立分散的政府。另一方面,纸莎草和纸张等更轻便、易于运输的媒介产生了空间偏见,因为遥远领土的控制可以通过来自国家首都的书面信息和指令来控制,因此是集中的。例如,这就是罗马帝国的特点。由于这些轻便媒介不耐用,使用它们的社会缺乏随时间推移的连续性。古埃及是一个具有时间偏见的帝国的例子,当它使用石头媒介时,它是分散的。使用纸莎草的罗马帝国是集中的,但它的文化发展方式缺乏连续性。
不仅包括隐性偏见或个人歧视,还包括鼓励和助长这种歧视的规则和实践结构。1 结构性种族主义的一个定义是“社会通过相互加强的住房、教育、就业、收入、福利、信贷、媒体、医疗保健和刑事司法系统助长种族歧视的全部方式”。3 衡量种族主义具有挑战性。它不仅可能是主观的,而且还可能带有政治色彩,并且基于难以收集的数据。尽管如此,为了监测变化和设定目标,有一个可衡量的结果至关重要。出于这个原因,出现了许多衡量种族主义的方法,包括感知歧视量表。3
欧盟委员会于 2021 年 4 月提出的人工智能法案 (AIA) 提案反映了对人工智能的政策和立法关注度的提高。2 该提案包含与保护基本权利相关的条款。这些规定包括风险管理要求(第 9 条),包括关于基本权利的要求,以及对高风险人工智能系统的一致性评估(第 43 条)。值得注意的是,关于本报告的重点,拟议的 AIA 还包括处理敏感数据以检测、监控和纠正可能导致歧视的偏见的法律基础(第 10 条 (5))。在撰写本报告时,围绕拟议的 AIA 的谈判正在进行中。基本权利保护在围绕 AIA 的谈判和讨论中发挥着重要作用。3
摘要 文化和背景可能导致评估不准确,包括传统测试和替代性评估。标准化测试旨在测量智力和一般知识,但它们是基于多数群体的知识和价值观而制定的,这可能会对少数群体产生偏见,包括性别、种族、社区地位以及具有不同语言背景、社会经济地位和文化的人。虽然替代性评估被认为在文化上更加公平,但它们仍然不是完全公平的。创造力与智力同样重要,创造力评估措施是基于个体文化而制定的。为了减少偏见,我们建议在传统测试和替代性评估中增加创造力评估。 关键词:评估,文化偏见,创造力,标准化测试,文化效度
摘要:我们的文章,文化遗产和偏见研究了使用机器学习来解释和对人类记忆和文化遗产进行分类的挑战和潜在解决方案。我们认为,偏见是文化遗产收藏(CHC)及其数字版本中固有的,并且AI管道可能会扩大这种偏见。我们假设有效的AI方法需要具有结构化元数据的庞大,通知的数据集,而CHC通常由于多种数字化实践和有限的互连性而缺乏CHC。本文讨论了CHC和其他数据集中偏见的定义,并探讨了它是如何源于培训数据和人文专业知识中生成平台中的不足。我们得出的结论是,关于AI和CHC的奖学金,准则和政策应以AI技术的固有和增强为偏见。我们建议在整个过程中实施偏见缓解技术,从收集到策展,以支持有意义的策划,拥抱多样性并迎合未来的遗产受众。