• 监管人工智能应用,而不是人工智能本身 • 根据人工智能应用风险进行监管 • 4 个风险等级:不可接受、高、低、最小 • 建立对人工智能和整个人工智能生态系统的信任 • 高风险人工智能系统的技术文档、记录保存和透明度/可解释性 • 低风险人工智能系统的透明度义务 • 人为监督 • 提供商、用户和其他利益相关者的义务
摘要 人工智能 (AI) 技术在教育中的应用带来了许多可能性和好处。然而,它也引发了需要仔细考虑的道德问题。这项研究探讨了人工智能在教育中的应用所带来的伦理影响。这项研究考察了关键的伦理层面,包括隐私和数据保护、公平和偏见以及对师生关系的影响。研究结果强调了透明度、问责制和公平性在人工智能设计和部署中的重要性。这项研究提出了一个全面的框架来指导人工智能在教育中的伦理应用,强调需要强有力的政策、算法透明度和解决偏见问题。通过积极解决这些道德问题,教育利益相关者可以确保一个负责任和包容的教育环境,在坚持道德原则的同时充分利用人工智能的潜力。人工智能 (AI) 彻底改变了包括教育在内的各个领域。它与教育系统的整合引发了有关隐私、自主权、偏见和问责制的道德问题。本文从哲学角度探讨人工智能在教育中的伦理影响。本文借鉴著名哲学家的著作,探讨在教育环境中使用人工智能技术所固有的道德考量。
1 普适数据这一术语旨在指通过在线服务收集的有关人员的数据(用户贡献、观察、获取或推断),无论这些数据在多大程度上是公开的、汇总的或可能导致识别个人。普适数据可能包括文本、图像、视频、生物特征信息、有关数据主体行为的信息(购买、财务状况、媒体消费、搜索历史、医疗状况、位置等)以及构成个人数字足迹的其他信息。在线服务可能包括整个技术堆栈/技术基础设施中的各种信息技术,包括但不限于基于 Web 的监控工具、内容交付网络、区块链技术、数字劳动力平台、教育技术、物联网设备、联网汽车、可穿戴设备、移动传感器、数据代理、流媒体服务、搜索引擎、在线市场、社交媒体平台和人工智能系统。 “普适数据”这一术语源自美国国家科学基金会资助奖编号 1144934 下开展的研究(https://www.nsf.gov/awardsearch/showAward?AWD_ID=1144934)。2 例如,请参阅 Michael Zimmer 的《解决大数据研究伦理中的概念差距:情境完整性的应用》,《社交媒体+社会》4,第 2 期(2018 年),https://doi.org/10.1177/2056305118768300;aline shakti franzke 等人的《互联网研究:道德准则 3.0》,互联网研究人员协会(2020 年),https://aoir.org/reports/ethics3.pdf。3 本征求意见稿中所述的道德和隐私准则侧重于数据从在线服务提供商流向在线服务提供商之外的独立研究人员,这些研究人员通常隶属于学术或非营利机构。 4 数据中介机构旨在描述一个独立的实体,其专门为促进研究人员和在线服务提供商之间根据商业或非商业协议进行数据访问和共享而运营,或评估
鉴于人工智能开发人员在确保人工智能系统、其成果和此类系统用户的责任方面发挥着重要作用,我们需要他们采取负责任、合乎道德和负责任的方法。因此,我们建议这些参与者参与旨在产生负责任的人工智能设计和使用的政策制定过程。根据我们的实证研究结果,我们提出了几项建议,以弥补当前在追求负责任的人工智能时将道德原则、认证标准和解释方法作为问责机制所发现的缺陷。我们希望这些建议能够有助于讨论如何在实践中确保问责制,同时兼顾开发人员、研究人员和公众的观点。
● 自主性:万一您正在研究的病毒发生变异并逃出实验室,造成新的流行病,这可能会剥夺他人的生命和健康权利。 ● 后果:这可能会带来好或坏的后果。从好的方面来说,功能获得性研究通常是安全的,可以帮助预防未来的流行病并挽救生命。从坏的方面来说,逃逸的病毒可能会非常致命和灾难性的。 ● 公正性:这一决定可能为所有人带来同等的利益和风险。 ● 性格:假设您的主要价值观之一是诚实。您很可能必须对自己在实验室所做的事情保密,以免引起社会恐慌。这意味着这个决定会导致您损害您的一个关键价值观。 ● 普遍性:如果实验室里还有其他人从事功能获得性病毒学研究,您可能会感到安全,因为您知道世界将更好地应对未来的疾病爆发,尤其是因为逃逸病毒的可能性非常小。
1.将精力集中在研究和创新界、成员国和私营部门,以及那些在欧洲人工智能战略中应该优先考虑的领域。2.在主要贸易伙伴的政策与欧盟管理人工智能开发和使用的政策之间建立一致性。3.分析当前生态系统中理论框架和构建可信人工智能系统的方法之间的差距,以创建更具可操作性的指导,帮助组织在实践中实施这些原则。4.注重协调和政策协调,特别是在两个领域:增加对人工智能初创企业的融资以及发展技能和调整当前的培训计划。5.利用联邦学习、差异隐私、联邦分析和同态加密等技术进步,重点关注促进数据私密和安全共享的机制。6.创建现有人工智能研究卓越中心网络,以加强研究和创新社区,重点是开展考虑到各种价值观/道德观的高质量学术工作。7.促进知识转移,为中小企业发展人工智能专业知识,并通过数字创新中心支持中小企业与其他利益相关者之间的伙伴关系。8.在有关人工智能系统不透明度的讨论中添加细微差别,以便对这些系统的治理方式以及在哪个地方需要何种程度的可解释性和透明度采取循序渐进的方法。9.为个人创建一个对人工智能系统的决定或输出提出上诉的流程,例如“谈判权”,这类似于《通用数据保护条例》(GDPR)中详述的“反对权”。10.实施新规则并加强现有法规,以更好地解决有关人工智能系统的担忧。11.禁止使用面部识别技术,这可以大大降低歧视性结果和侵犯基本权利的风险。12.对所有人工智能系统(例如低风险、中风险和高风险应用程序)都应遵守类似的标准和强制性要求。13.确保如果使用生物特征识别系统,它们能够实现实施的目的,同时也是完成任务的最佳方式。14.15.对不被视为高风险的系统实施自愿标签系统,并应通过强有力的经济激励措施进一步支持该系统。任命了解人工智能系统并能够与各种利益相关者有效沟通任何潜在风险的个人参与人工监督过程,以便他们采取适当的行动。
机器道德。剑桥:剑桥大学出版社,第1页。 451-463,2011。Greene,J。 “我们的无人驾驶困境”。 科学352(6293),1514-1515,2016。 kasirzadeh,A。 “两种类型的AI存在风险:决定性和累积性”。 arxiv:2401.07836v2,2024 Kitchin,R。“智慧城市和城市科学的伦理”。 菲尔。 trans。 R. Soc。 A 374:20160115,2016。 Liao,M。(ed)。 人工智能的伦理。 牛津:牛津大学出版社,2020年。 Levy,D。爱+与机器人的性 - 人类机器人关系的演变。 纽约:哈珀多年生,2008年。 Mendonça,R。,Filgueiras,F。和Almeida,V。算法制度主义 - 社会和的变化规则Greene,J。“我们的无人驾驶困境”。科学352(6293),1514-1515,2016。kasirzadeh,A。“两种类型的AI存在风险:决定性和累积性”。arxiv:2401.07836v2,2024 Kitchin,R。“智慧城市和城市科学的伦理”。菲尔。trans。R. Soc。 A 374:20160115,2016。 Liao,M。(ed)。 人工智能的伦理。 牛津:牛津大学出版社,2020年。 Levy,D。爱+与机器人的性 - 人类机器人关系的演变。 纽约:哈珀多年生,2008年。 Mendonça,R。,Filgueiras,F。和Almeida,V。算法制度主义 - 社会和的变化规则R. Soc。A 374:20160115,2016。Liao,M。(ed)。人工智能的伦理。牛津:牛津大学出版社,2020年。Levy,D。爱+与机器人的性 - 人类机器人关系的演变。纽约:哈珀多年生,2008年。Mendonça,R。,Filgueiras,F。和Almeida,V。算法制度主义 - 社会和
● 考虑到引入的透明度框架,您对 FB 透明度报告的实施有什么疑问?是否还有需要透明化的事情?● 您认为透明度报告有效吗?为什么有效或无效?● 您可以对实施提出哪些批评?● 您认为有哪些设计机会可以改进报告?● 您还想分享哪些其他观察结果?
人工智能已经在增强或取代人类应对复杂挑战的努力。它发出了 COVID-19 疫情的一些早期警报,帮助加速了疫苗的开发,并在恢复过程中发挥着越来越重要的作用。然而,进步也给个人和社会带来了风险。在某些情况下,人工智能的开发和使用会产生意想不到的后果,例如操纵行为、加剧不平等和偏见、极端主义和激进主义,或歧视性就业市场。在其他情况下,人工智能的部署带有先验恶意,例如传播虚假信息或劫持核心流程。
摘要 — 智慧城市技术已经能够比以前更细致地追踪城市居民。通过人工智能实现的数据收集和分析的增加,带来了隐私、安全和其他伦理问题。本系统综述收集并整理了智慧城市周围的知识体系。作者使用关键词搜索了 5 个数据库中的 34 篇重点学术出版物,这些出版物的日期为 2014 年至 2022 年之间。这项研究表明,文章通常侧重于隐私、安全和公平的伦理问题、特定技术基础评论或框架和指导对话。本文有助于组织跨学科主题,并将智慧城市伦理方面的知识体系收集起来,形成一个供实践者、研究人员和利益相关者使用的单一、全面的资源。
