为会员提供折扣或免费活动。美国建筑师研究所(AIA)o美国伊利诺伊州计划协会(APA-il)O芝加哥地区树木倡议(CRTI)O伊利诺伊州技术研究所,景观建筑计划(IIT)O大湖区气候行动委员会(IIT)o千年公园基金会(Mpf)Orino offent(Mpf)
1. 搜索、探测、导航、制导和航海 (SDNGN) 仪器 2. 维护、维修和大修 资料来源:IBIS;AIA 全球航空航天市场展望和预测;2012 年 SIA 卫星行业状况;公司年度报告;OneSource 公司数据;FAA;欧洲 GNSS 机构 2012 年和 2013 年;国防部和 NASA 合同数据库;A.T. Kearney 分析
AIA 明确禁止使用人工智能对人类行为进行潜意识扭曲,从而可能造成身体或精神伤害;利用年轻人、老年人或残疾人等特定人群的弱点;进行可能导致不合理或不成比例的有害待遇的社交评分;以及执法部门在公共场所进行实时远程生物特征识别(搜寻失踪人员或反恐行动等特定行动除外)。
• 消费者担心人工智能系统的风险,需要强有力的立法提案来确保他们的基本权利得到保护并免受伤害。 • ANEC 欢迎欧盟委员会提出的《人工智能法案》(AIA),但它需要改进才能为人们提供值得信赖和安全的人工智能。 • AIA 的部分内容建议使用基于新立法框架的标准化。该框架旨在为单一市场的产品准入而设计,但应用于人工智能领域时会引发问题。 • 从实质性和流程的角度来看,将基本权利和欧盟价值观和原则转化为技术标准存在困难。 • 按照目前的说法,《人工智能法案》中提出的标准化使用并不适合维护基本权利。 • 不应使用协调标准来定义或应用基本权利、法律或道德原则。 • 标准的使用应仅限于定义技术要求,《人工智能法案》中需要更详细、更明确的要求,以使标准发挥“重复或持续应用的技术规范”的作用。 • 实施技术方面的标准应在国家和地区层面上在消费者和更广泛的社会参与下制定,并纳入消费者的需求。
- - - e = - = 3; 2q3a5e:envercr:,!c)'--- = --- E E 8,p?=^ .2.2.3 s -e或!,4-> f g raeeeeeeee!: *ee aia€2i c = p b =。=; e- .. i u o^= uo g,!5.8:CN!o。=; “' - l xei>。= d = i cr e 3 0!3 = illf!!:' - j;:>,r gr-grerge,l fr 5 p r 5 e fr == 3; f5'; ; 5 V:Seee
• 标准开发组织,例如 ASTM F42 委员会、SAE AMS AM 委员会、美国焊接协会等,已发布原料材料规范、工艺规范指南、成品材料规范、设计指南、测试方法、设备鉴定指南等。 • 行业联盟和手册 AIA AM 工作组、MMPDS 第 2 卷(金属材料)和 CMH-17 AM 协调委员会(非金属材料) • FAA 命令 8110.4C、EASA 认证备忘录 CM-S-008 第 3 期、FAA-EASA 工作组
• Armin Angermeyer, Public Affairs Manager, Allianz • Dan Bernstein, SVP & General Manager, Head of Strategic Partnerships Group for Global Retail Markets, Liberty Mutual • Matteo Carbone, Founder and Director, IoT Insurance Observatory • Sue Coulter, Head of Group Digital and Analytics, AIA Group • Karyn Faggello, Vice President, Global Marketing and Communications, Chubb • Tomoko Hayakawa, Senior Industry Researcher, Meiji Yasuda Life • Noriyoshi Hosokawa, Line Manager, IT Digital Planning Unit, Dai-ichi Life • Iwan Juwono, Head of Insurance, Grab • Christoph Krieg, Chief Strategy Officer, ZA Tech • Alexander Lay, Head of Central Division, Data and Analytics, Munich Re • LEE Minwoo, Head of Group Enterprise Architecture and Governance, AIA Group • Darren L. Pain, Director Cyber, The Geneva Association • Bernhard Schneider, Partner Insurance Consulting, PwC Switzerland • Camila Serna, EVP, Global Head of Digital Acceleration, Chubb • SONG Bill, CEO, ZA Tech • SOONG Chuan Sheng, CEO, Klook Insurance • Simon Torrance, CEO, Embedded Finance & Insurance Strategies • Juliane Welz, Senior Manager, Insurance Transformation, PWC瑞士PWC•Xiao Jing,集团首席科学家,ping an•Zhou Xiang(Shawn),Leadinx首席执行官,Leadinx
《人工智能法案》草案禁止以下系统:i)部署有害操纵“潜意识技术”的人工智能系统;ii)利用特定弱势群体的人工智能系统;iii)公共当局或代表公共当局用于社会评分目的的人工智能系统;iv)在公共场所为执法目的而使用的“实时”远程生物特征识别系统,但少数情况除外。有人呼吁扩大这一名单,例如包括预测性警务或私人组织的社会评分。
第 2 步:识别风险 识别您的应用程序可能对个人、团体和社会造成哪些风险?风险可能源自目标本身,但也可能是由有偏差的训练数据、数据安全问题、模型漂移等造成的。特别是确定您的应用程序是否属于 AIA 第 6 条中提到的高风险类别之一。如果您的应用程序构成高风险,则可能需要进行专门的风险评估。如果您处理个人数据,可能还需要进行数据保护影响评估 (DPIA)。
基于机器学习 (ML) 和其他技术的人工智能 (AI) 系统有可能改善我们的生活以及整体经济和社会福利。它们可以促进更好的医疗服务、更安全、更清洁的交通系统、更好的工作条件、更高的生产力以及新的创新产品、服务和供应链。人工智能系统还可以通过多种方式使公共部门受益,例如,通过自动执行重复和耗时的任务,或通过向公共机构提供更准确、更详细的信息、预测和预报,这反过来可能导致根据个人情况量身定制的个性化公共服务。人工智能系统甚至可能有助于应对关键的全球挑战,例如气候变化和新型冠状病毒大流行。然而,与每一种颠覆性技术一样,人工智能系统不仅带来好处,也带来巨大的风险,引发了各种法律和道德挑战。人工智能系统有可能对人们的生命、健康和财产造成不可预测的损害。它们还会影响西方社会建立的基本价值观,导致侵犯人们的基本权利,包括人的尊严和自决权、隐私和个人数据保护、言论和集会自由、不歧视、或获得有效司法补救和公平审判的权利,以及消费者保护 [ 1 – 3 ]。我们特别赞赏 AIA 遵循基于风险的方法,只有当人工智能系统可能对基本权利和安全构成高风险时才会施加监管负担。在此背景下,我们欢迎欧盟委员会于 2021 年 4 月 21 日提出的“制定人工智能协调规则”的法规提案,即所谓的“人工智能法案”(以下简称:AIA)[ 4 ]。