摘要:人工智能 (AI) 结合了算法、机器学习和自然语言处理的应用。AI 在教育领域有多种应用,例如自动评估和面部识别系统、个性化学习工具和微博系统。这些 AI 应用有可能通过支持学生的社交和认知发展来提高教育能力。尽管具有这些优势,但 AI 应用仍存在严重的伦理和社会缺陷,而这些缺陷在 K-12 教育中很少被考虑。将这些算法融入教育可能会加剧社会现有的系统性偏见和歧视,使来自边缘化和服务不足群体的学生的隐私、自主权和监视问题长期存在,并加剧现有的性别和种族偏见。在本文中,我们探讨了 AI 在 K-12 教育中的应用,并强调了它们的道德风险。我们引入教学资源,帮助教育工作者应对整合人工智能的挑战,并提高 K-12 学生对人工智能和道德的理解。本文最后提出了研究建议。
● 文章/视频:人工智能如何推荐视频 [ 链接 ] ● 视频:人工智能、社交媒体和选举 [ 链接 ] ● 视频:人工智能和社交媒体营销 [ 链接 ] ● 文章:人工智能在社交媒体中的利弊 [ 链接 ] ● 文章:视频游戏人工智能的社会和哲学影响 [ 链接 ]
摘要 — 智慧城市技术已经能够比以前更细致地追踪城市居民。通过人工智能实现的数据收集和分析的增加,带来了隐私、安全和其他伦理问题。本系统综述收集并整理了智慧城市周围的知识体系。作者使用关键词搜索了 5 个数据库中的 34 篇重点学术出版物,这些出版物的日期为 2014 年至 2022 年之间。这项研究表明,文章通常侧重于隐私、安全和公平的伦理问题、特定技术基础评论或框架和指导对话。本文有助于组织跨学科主题,并将智慧城市伦理方面的知识体系收集起来,形成一个供实践者、研究人员和利益相关者使用的单一、全面的资源。
脑机接口研究中采集的神经数据或实验样本反映了受试者的心理状态、生理健康、人格特质、财富信息等,属于隐私数据。采集数据的范围和人员的访问权限应经伦理委员会批准。应制定适当的处理和管理方案,并根据信息安全管理相关法律法规和技术标准,在数据或样本的采集、存储、使用、处理、传输、发布等全过程中对其进行保护。遵守《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》等法律法规,加强风险监测,防止数据或样本泄露,保障数据安全和受试者的隐私及个人信息安全。
1 National Public Radio, “A Look At How The Revolving Door Spins From FDA To Industry,” September 28, 2016, https://www.npr.org/sections/health-shots/2016/09/28/495694559/a-look-at-how-the-revolving-door-spins-from-fda- to-industry; BMJ,“旋转门:董事会会员,对冲基金和负责调节行业的FDA负责人”,彼得·多什(Peter Doshi),2024年5月8日,https://wwwww.bmj.com/content/385/385/bmj.q975。2参见,例如,美国办公室Senator Elizabeth Warren, In Response to Senator Warren, FDA Commissioner Nominee Dr. Robert Califf Makes Strongest Ethics Commitments of Any Senior Biden Administration Official, January 31, 2022, Press Release, https://www.warren.senate.gov/newsroom/press-releases/-in-response-to-senator-warren-fda-专员提名人 - 罗伯特 - 阿里伯特·马克斯·马克斯 - 斯特朗斯特 - 伦理学 - 官员官员。
该集团成立于阿布扎比,为各种客户群提供创新的数字解决方案、智能连接和下一代技术,包括中东、亚洲和非洲 16 个国家的 1.63 亿用户。2022 年,集团合并净收入为 524 亿迪拉姆,净利润为 100 亿迪拉姆,其高信用评级反映了集团强劲的资产负债表和经过验证的长期业绩。
传统的自由模型通常会隔离自主权,从而导致概念上的显着差距。自由主义者的自由意志强调完全独立于外部决定因素,这是一种理想化和不受约束的代理形式。这种观点忽略了自主权固有地受到系统性和关系影响的方式。另一方面,兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。 坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。 虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。 关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。 共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。
0:00 你好。我的名字是 Jibu Elias,我将谈论文化在人工智能伦理中的作用,特别是从东方文化的角度。在开始之前,我要感谢全球人工智能伦理联盟提供的这个绝佳机会。希望你会喜欢这次讲座。在开始之前,让我先自我介绍一下。我是来自印度的人工智能伦理学家和研究员。我目前是印度政府人工智能倡议 INDIAai 的研究和内容主管。我还是 OECD 专家网络 ONE AI 的成员,也是 Springer 的《人工智能与伦理》期刊的创始成员之一。因此,目前,我的工作重点是建立印度统一的人工智能生态系统,并努力缩小由于人工智能等技术而产生的数字鸿沟。通过本课程,我将带您了解以下几点。首先,我们将从当前情况下人工智能伦理的重要性开始,文化在决定人工智能伦理方面发挥的作用。第三,为什么我们需要在人工智能伦理话语中实现多样性和包容性。第四和第五点是我们可以从东方文化视角的人工智能伦理以及东方哲学方法中学到的东西。