土耳其法律规定,无论种族、语言和其他因素如何,人人平等。然而,有证据表明,国家和社会都基于种族歧视库尔德人。过去的歧视性做法在历史上对一些库尔德人在公共场合讲库尔德语和获得高级职位的能力产生了一定影响;但现任政府内阁的许多成员都是库尔德人后裔,土耳其之前至少有一位总统有部分库尔德血统。政府禁止举行一些库尔德人集会,并在其他集会上采取限制措施。然而,一般来说,库尔德人可以正常参与私人和公民生活。近年来,尽管受到土耳其当局的密切监督,但重要的库尔德文化节日 Newroz(春分)的公开庆祝活动已获准举行。
• 大多数公司都愿意接受投资者就道德 AI 展开的宣传,但一小部分公司仍未做出回应或拒绝回应。自数字 CIC 成立以来,投资者试图接触的 44 家公司中,有 28 家(约三分之二)对他们的集体宣传做出了回应。另外 11 家公司仍未做出回应或明确拒绝加入对话,其中几家公司认为 AI 的风险并不重大或不适用于他们的业务。• 特定于 AI 的治理和监督机制仍然解释不清,也未得到充分理解。虽然公司已经启动了一系列董事会级别的委员会和小组委员会,全部或部分关注道德 AI,但高管层以下的团队在设计道德 AI 政策和实践方面的作用通常不太明确,他们向董事会上报问题的能力也不太明确。具有广泛代表性的外部咨询委员会很少见。• 公司不清楚如何监控他们购买和销售的人工智能工具。许多公司购买或订购第三方人工智能工具,而不是内部开发。生成式人工智能模型的传播及其迅速融入各种产品进一步助长了这一趋势。但数字 CIC 下的参与表明,无论是买方还是卖方,在向第三方提供模型和工具或自己采购此类工具时,都没有明确和一致地概述他们应用了哪些尽职调查和监控。
数学在人工智能 (AI) 的语言结构中发挥着重要作用。我们将语言过程描述为人类认知和认知计算中都存在的独特结构。人工智能与人类认知的密切关系源于这种独特的结构,它为人工智能干扰与其互动的人的行为铺平了道路。我们强调数学家在设计算法(人工智能语言过程的核心)以及定义人工智能步骤和指令方面的作用。由于算法通过人工智能干扰与人工智能互动的人的思维,提供阻止用户自由选择的预期解决方案,因此我们研究如何应用道德原则来指导用户与智能系统之间的互动,以解决这个问题。我们认为,通过将道德原则融入算法的数学建模中,我们可以避免操纵、不平等和保护个人权利的黑箱。因此,对于那些使用算法的人来说,道德考虑非常重要,这凸显了数学的人文一面。
6 生成式人工智能工具的风险与挑战 ...................................................................... 8 6.1 隐私和安全 ...................................................................................................... 9 6.2 商业化风险 ...................................................................................................... 9 6.3 算法偏见和歧视风险 ................................................................................ 10 6.4 滥用的可能性 ................................................................................................ 11 6.5 破坏教育诚信的风险 ...................................................................................... 11 6.6 制定标准和指南 ...................................................................................... 12 6.7 为教师提供专业发展 ................................................................................ 13 6.8 提高数字素养 ................................................................................................ 13 6.9 对教育环境中生成式人工智能工具的严格要求 ................................................ 14 6.10 鼓励对持续研发的投资 ................................................................................ 14
摘要 数据和自主系统正在接管我们的生活,从医疗保健到智能家居,我们日常生活中几乎没有哪个方面不受它们的影响。这些技术带来的技术进步是无限的。然而,优势与挑战并存。随着这些技术越来越多地涵盖我们生活的方方面面,我们忘记了将我们的生活与技术相结合所产生的伦理、法律、安全和道德问题。在这项工作中,我们研究了人工智能从数据收集到部署的生命周期,对潜在的伦理、安全和法律问题进行了结构化的分析评估。然后,本文提出了第一个道德人工智能可持续性声明的基础,以指导未来以安全和可持续的方式发展人工智能。
研究设计:这项基本的定性研究探讨了人工智能伦理中的基督教声音,并重点关注三个主要问题:1)世界观如何影响我们对人工智能的态度?2)基督教世界观对围绕道德人工智能的讨论有什么独特的贡献吗?3)如果我们将基督教的教义、文本和传统明确地带入对话中,人工智能伦理将如何变得更加健全和有益?使用半结构化问题协议作为主要数据收集工具,并在收集和分析阶段使用持续比较的数据分析方法,我对一批自称是基督徒的人工智能/技术/伦理专业人士进行了有目的的采访,以确定区分基督教伦理世界观和目前围绕道德人工智能讨论的唯物主义世界观的关键主题。
摘要 人工智能领域需要广泛考虑法律、道德和社会因素,以便开发维护人类价值观和权利的道德人工智能 (eAI) 解决方案。目前,存在各种指南和少数特定工具来解释和应对个人挑战。然而,众所周知,许多组织在从人工智能治理中的风险管理角度处理这些考虑时面临着实际挑战。因此,需要新的方法来提供经过严格审查且适用于现实世界的结构和路径,以通过道德评估和指导人工智能发展所需的制衡。在本文中,我们表明,跨学科研究方法是务实地定义使用人工智能的组织面临的道德和社会风险的基础,该方法涵盖了横断面观点。跨结构治理的发现对于成功实施 eAI 也同样重要。根据我们从多学科研究调查中获得的证据,我们提出了一种新颖的数据驱动风险评估方法,称为 DRESS-eAI。此外,通过对我们的方法实施的评估,我们证明了其作为在数据驱动的 AI 时代维护人类价值观的工具的最先进的相关性。
2022 年 2 月,CIFAR、人工智能伙伴关系和 Ada Lovelace 研究所举办了一场关于人工智能/机器学习会议伦理审查实践的研讨会。本次研讨会召集了过去和现在的会议组织者、伦理审查专家以及人工智能和机器学习研究人员,讨论会议组织者在发展道德人工智能文化方面必须发挥的重要作用,分享他们实施或经历过的伦理审查实践,讨论如何有效地使用这些实践,并设想哪些其他干预措施可能会有用。1 本报告记录了这次研讨会,我们希望它能帮助未来的人工智能会议组织者思考他们的会议提交流程、活动议程以及审稿人和与会者的培训机会。我们感谢所有参与者的深思熟虑和坦诚的贡献。
研究设计:这项基本的定性研究探讨了人工智能伦理中的基督教声音,并重点关注三个主要问题:1)世界观如何影响我们对人工智能的态度?2)基督教世界观对围绕道德人工智能的讨论有什么独特的贡献吗?3)如果我们将基督教的教义、文本和传统明确地带入对话中,人工智能伦理将如何变得更加健全和有益?使用半结构化问题协议作为主要数据收集工具,并在收集和分析阶段使用持续比较的数据分析方法,我对一批自称是基督徒的人工智能/技术/伦理专业人士进行了有目的的采访,以确定区分基督教伦理世界观和目前围绕道德人工智能讨论的唯物主义世界观的关键主题。
研究设计:这项基本的定性研究探讨了人工智能伦理中的基督教声音,并重点关注三个主要问题:1)世界观如何影响我们对人工智能的态度?2)基督教世界观对围绕道德人工智能的讨论有什么独特的贡献吗?3)如果我们将基督教的教义、文本和传统明确地带入对话中,人工智能伦理将如何变得更加健全和有益?使用半结构化问题协议作为主要数据收集工具,并在收集和分析阶段使用持续比较的数据分析方法,我对一批自称是基督徒的人工智能/技术/伦理专业人士进行了有目的的采访,以确定区分基督教伦理世界观和目前围绕道德人工智能讨论的唯物主义世界观的关键主题。