摘要 文化和背景可能导致评估不准确,包括传统测试和替代性评估。标准化测试旨在测量智力和一般知识,但它们是基于多数群体的知识和价值观而制定的,这可能会对少数群体产生偏见,包括性别、种族、社区地位以及具有不同语言背景、社会经济地位和文化的人。虽然替代性评估被认为在文化上更加公平,但它们仍然不是完全公平的。创造力与智力同样重要,创造力评估措施是基于个体文化而制定的。为了减少偏见,我们建议在传统测试和替代性评估中增加创造力评估。 关键词:评估,文化偏见,创造力,标准化测试,文化效度
摘要 文化和背景可能导致评估不准确,包括传统测试和替代性评估。标准化测试旨在测量智力和一般知识,但它们是基于多数群体的知识和价值观而制定的,这可能会对少数群体产生偏见,包括性别、种族、社区地位以及具有不同语言背景、社会经济地位和文化的人。虽然替代性评估被认为在文化上更加公平,但它们仍然不是完全公平的。创造力与智力同样重要,创造力评估措施是基于个体文化而制定的。为了减少偏见,我们建议在传统测试和替代性评估中增加创造力评估。 关键词:评估,文化偏见,创造力,标准化测试,文化效度
全球对心理保健(MH)服务的飙升已经扩大了在关键MH组件中使用AI辅助技术的兴趣,包括评估和分类。然而,尽管通过决策支持减轻从业者负担是MH-AI集成的优先事项,但AI系统对从业者决策的影响仍然不足。这项研究是第一个研究MH诊断决策中从业者判断与AI建议之间相互作用的一项研究。使用受试者之间的小插图设计,该研究部署了一个模拟AI系统,以对MH专业人士和心理学专业学生的样本提供有关患者分类和评估的信息,并对评估和分类程序有深刻的了解。的发现表明,当参与者与最初的诊断和专业直觉保持一致时,他们更倾向于信任和接受AI建议。此外,当AI的建议偏离其专业判断时,声称具有更高专业知识的人表现出了增加的怀疑。这项研究强调了MH从业者既没有表现出坚定不移的信任,也没有完全遵守AI,而是表现出确认偏见,主要赞成反映其先前存在的信念的建议。这些见解表明,尽管从业人员可以纠正AI的建议建议,但实施DECIAS的实用性使AI来抵消从业者偏见需要进行额外的调查。
在致命的自主武器系统中的新兴技术方面的政府专家,4-8 3月4日至8日和2024年8月26日至30日,议程项目5进一步考虑并通过共识,一组乐器的要素,不限制其性质,并在其范围内限制其范围的范围,以解决lerthement oferning ofernos的典范,以实例为实例,以实例为实例,以实例为实例,以实例为范围内的武器,以实现自动的范围,以实现自动的自动范围,以实现自动的范围。高缔约方提出的建议以及与致命自治武器系统领域的新兴技术规范和运营框架有关的其他选择,基于该小组的建议和结论,并在法律,军事和技术方面提出专业知识在致命的自主武器系统中的新兴技术方面的政府专家,4-8 3月4日至8日和2024年8月26日至30日,议程项目5进一步考虑并通过共识,一组乐器的要素,不限制其性质,并在其范围内限制其范围的范围,以解决lerthement oferning ofernos的典范,以实例为实例,以实例为实例,以实例为实例,以实例为范围内的武器,以实现自动的范围,以实现自动的自动范围,以实现自动的范围。高缔约方提出的建议以及与致命自治武器系统领域的新兴技术规范和运营框架有关的其他选择,基于该小组的建议和结论,并在法律,军事和技术方面提出专业知识
摘要:人工智能(AI)正在改变EM策略,医疗保健和刑事司法等关键行业,但它也引入了重要的道德和法律挑战,尤其是在性别偏见方面。AI系统经常接受有偏见的历史数据培训,可以使现有的性别不平等永久化甚至扩大。本文探讨了人工智能中性别偏见的法律意义,重点介绍了对反歧视法,透明度问题的挑战以及对监管监督的需求。AI中的性别偏见,从而导致歧视性结果。这种偏见不是技术缺陷,而是使用歧视模式的数据和算法的结果。主要是男性的AI开发人员之间缺乏多样性,通过未解决妇女和边缘化群体的观点和需求来加剧这个问题。
Sana Halwani 受邀在加拿大知识产权协会的项目中分享她的专业知识。Sana 主持了一场关于性别偏见在人工智能领域表现方式、我们可以做些什么以及人工智能如何帮助我们解决性别偏见的讨论。
独立性和多样性 寻求来自不同利益相关者的反馈,以指导影响评估。由于在此初始阶段确定的风险将指导后续的开发和影响评估过程,因此,通过征求具有不同生活经历、文化背景和主题专业知识的人们的不同观点,全面了解可能出现的潜在危害至关重要。如果内部人员缺乏主题或文化多样性,可能有必要咨询第三方专家或征求可能受到系统不利影响的社区成员的反馈。
我们认为,人工智能 (AI) 在艺术领域(例如音乐、绘画)的最新进展对人类中心主义世界观构成了深刻的本体论威胁,因为它们挑战了人类独特性叙事的最后前沿之一:艺术创造力。四项实验(N = 1708),包括一项高强度的预注册实验,一致揭示了对人工智能制作的艺术品的普遍偏见,并揭示了其心理基础。同一件艺术品被贴上人工智能制作(而非人造)的标签时,人们的偏好会降低,因为它被认为缺乏创造力,因此引起的敬畏感也会减少,而敬畏感是一种通常与艺术审美相关的情感反应。这些影响在具有更强的人类中心创造力信念的人(即相信创造力是人类独有的特征)中更为明显。对人工智能艺术的系统性贬低(赋予较低的创作价值、抑制情绪反应)似乎服务于一种动摇的人类中心主义世界观,即创造力专属于人类。
要使人工智能符合道德规范并公平公正,仅使用无偏见的数据是不够的。算法的设计也应使其能够持续动态地检查是否存在偏见。如果审核失败,应消除发现的任何偏见,并在部署算法之前对其进行修复