人工智能(AI)是颠覆性技术浪潮中的最新技术,它提供了巨大的好处,但如果以不受控制的方式部署,也会带来风险。认识到这一点,包括越南在内的世界许多国家都在努力研究和建立法律框架来规范和管理人工智能的发展,以确保该技术支持其社会经济发展。在此背景下,作为世界数字技术领导者之一的欧盟的立法经验具有重要意义。2016 年通过的欧洲 GDPR 已成为数据保护方面的国际标准。目前处于起草阶段的欧盟人工智能法案将于 2024 年底前生效,该法案为人工智能驱动的产品、服务和系统的开发、商品化和使用制定了横向规则,包括人工智能系统和数据保护。本文特别研究了《人工智能法案》/人工智能系统与 GDPR 之间的相互作用,并考虑了截至 2022 年 10 月的监管现状。关键词:人工智能、人工智能法案、GDPR、欧盟、数据保护
E007 财务 Ponier Jörg E011 公共关系和筹款 公共关系和筹款 Guzei Andreas, Schipani Nicole E014 内部审计 Mayerhofer Otto E017 维也纳技术大学学院 维也纳技术大学学院 Gappmaier Carolin E018 数据保护和文档管理 数据保护和文档管理 Thirsfeld Christina E019 校园软件开发 校园软件开发 Spreicer Wolfgang E020 信息技术解决方案 信息技术解决方案 Blaha Andreas E034 性别能力 性别能力 Vojta Michael E040 图书馆 Schubert Chris E050 低温设施 Kopp Manuela E056 博士学校 博士学校 Tauböck Shabnam E057 设施和中心 Neff Sabine E057-09 VSC 研究中心 VSC 研究中心 Goldenberg Florian E058 研究、技术、创新支持 Dolovai Verena E060 战略教育中心 发展中心 Tauböck Shabnam E062 招生办公室 Gründling-Riener Jasmin E063 国际办公室 Gabko Peter E065 大学发展和质量管理 Rasl Karoline E067 人力资源管理 Vojta Michael E068 人力资源开发 Vojta Michael E080 建筑和技术房地产和设施管理 Holly Isabella, Holluger Konrad E081 档案馆档案馆 Ebner Paulus
随着人工智能的发展,数字格局正在发生变化。作为欧盟机构和团体的数据保护机构,EDPS 旨在确保人工智能以人为本、可持续的方式融入日常生活,尊重隐私和数据保护原则。看看我们为欧盟及其他地区建设更安全的数字未来所采取的措施。
新技术带来了新的伦理(和法律)挑战。通常,我们可以应用先前建立的原则,即使可能需要一些时间才能完全理解新技术的细节 - 或由此产生的问题。例如,国际放射防护委员会成立于 1928 年,其建议基于平衡与 X 射线和 CT 扫描相关的辐射暴露与新调查的诊断优势。随着证据的积累和技术的变化,他们定期更新他们的建议,1 并且能够从完善的道德原则中推断出来。其他新技术不太适合现成的道德解决方案。本期的几篇文章讨论了与医学中使用人工智能 (AI) 相关的道德挑战。尽管已经制定了关于人工智能使用和发展的多项道德规范和指南,但哈根多夫指出,其中许多都重申了“基于普遍遵守原则和规则的义务论导向、限制行动的道德”。2 将现有的道德框架应用于人工智能是有问题的,原因有几个。具体来说,人工智能有两个特点与传统医学伦理所基于的当前临床实践截然不同:1.所谓的深度学习“黑匣子”,即深度神经网络经过训练,可以迭代适应,从而在复杂和非线性数据层之间做出越来越好的解释。3 由此产生的(并且不断适应的)算法通常过于复杂,无法解释或说明,这意味着正在使用的部分流程甚至对用户来说都是不透明的。4 这使得遵守透明度和知情同意原则变得困难甚至不可能,并限制了用户(临床医生和患者)的自主权。2.AI 的每个元素都是为了实现其创建者设定的特定目标而开发的,但没有“意图”