建筑、工程和建设 (AEC) 行业是欧盟 (EU) 的关键行业,因为它占 GDP 的 9% 并提供了超过 6% 的欧洲就业机会 (Baldini 等人,2019 年)。尽管如此,与其他行业相比,该行业的生产率水平却非常低,许多建筑项目都面临成本和时间超支的问题。这种延迟可能是由于该行业数字化程度较低造成的:根据麦肯锡全球研究院 (MGI) 行业数字化指数,建筑业在欧洲排名垫底,在美国排名倒数第二 (麦肯锡全球研究院,2017 年)。除此之外,当前的劳动力短缺、COVID-19 疫情以及建设可持续基础设施的需求都加速了快速变革以实现更高数字化的需要。最近,受“工业 4.0”的启发,人工智能 (AI) 应用发展势头强劲,并具备作为推动 AEC 适当数字战略的骨干的所有功能(Darko 等人 2020 年,Pan & Zhang 2021 年)。根据 MGI(Chui 等人,2018 年)的数据,到 2030 年,人工智能对全球经济的潜在价值将达到 13 万亿美元,相当于累计 GDP 比 2018 年增长 16%。尽管人工智能有多种定义,但欧盟委员会任命的高级专家组 (HLEG) 将人工智能定义为“由人类设计的软件(也可能是硬件)系统,该系统在给定复杂目标的情况下,通过数据采集感知周围环境,解释收集到的结构化或非结构化数据,推理知识或处理从这些数据中得出的信息并决定最佳行动,从而在物理或数字维度上采取行动
[1] AI HLEG(人工智能高级专家组),“可信人工智能的道德准则”,https://ec.eu-ropa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai。2019.[2] M. Ananny 和 K. Crawford,“无知的观察:透明理想的局限性及其在算法问责制中的应用”,新媒体与社会,第20,号3,页973–989。2018.[3] S. Baum,“人工智能伦理、风险和政策项目调查(2017 年 11 月 12 日)”。全球灾难风险研究所工作文件 17-1。 http://dx.doi.org/10.2139/ssrn.3070741。2017.[4] M. Brent,“仅靠原则无法保证合乎道德的人工智能”。自然机器智能。2019.[5] J. Bryson 和 A. Winfield,“人工智能和自主系统的标准化道德设计”,计算机,卷50,号5,页116-119。2017。[6] V. Charisi、L. Dennis、M. Fisher、R. Lieck、A. Matthias、M. Slav-kovik、J. Loh、A. F. T. Winfield 和 R. Yampolskiy,“走向道德自治系统”,预印本 arXiv:1703.04741。2017。[7] V. Dignum,“负责任的自治”,预印本 arXiv:1706.02513。2017 年。[8] 欧盟委员会,“自治系统 - 报告”。特别欧洲晴雨表 427/Wave EB82.4 – TNS 观点与社会,https://ec.europa.eu/commfrontoffice/publicopinion/ar- chives/ebs/ebs_427_en.pdf。2015 年。[9] A. W. Flores、K. Bechtel 和 C. T. Lowenkamp,“假阳性、假阴性和错误分析:对机器偏见的反驳:全国各地都有软件用于预测未来的罪犯,而且它对黑人有偏见”,联邦缓刑,vol.80,
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
如果欧洲要充分发挥其在这一领域的潜力,就需要世界一流的网络安全数字基础设施来开发和运行人工智能。它还需要制定利用 6G 的计划,以便为下一波数字基础设施做好充分准备。测试和验证人工智能是生产阶段的一部分。该行业需要开发和提供自己的测试设施和参考资料,以使自己处于创新和竞争力的前沿。为了支持欧洲的人工智能研究界,应该允许在未来的任何框架内对人工智能进行保密开发、创新和试点,不受市场准入要求的限制。这可以通过在欧盟层面使用实验条款和监管沙箱来实现。在这个快速发展的领域,行业行为准则尤为重要。我们认为,最重要的强制性要求是有关人工智能系统的目的和性质的信息。人工智能的自愿标签制度可能会挑战企业的公平竞争环境。标签制度可能会给中小企业带来沉重的负担。这将有利于那些有能力满足要求但又给消费者带来最小利益的大型企业。自我监管和自我评估是证明遵守可信人工智能道德准则的首选方式,因此我们欢迎人工智能高级专家组 (AI HLEG) 发布更高级的评估清单。欧洲不应关闭使用非欧洲数据为其人工智能提供动力并产生最高质量人工智能成果的大门。社会面临的最紧迫问题是人工智能本身的运作和结论是否合法。欧洲的标准化框架对于促进人工智能的卓越发展至关重要。市场相关的技术标准可以支持互操作性、技术转让并创造竞争杠杆,以在人工智能应用中占据领先地位。最好采取国际化方法;只有在没有采取国际举措的情况下,欧洲才应该为公共部门数据和人工智能应用制定自己的标准。信任生态系统对于许多行业来说,人工智能技术是一种重要的工具和资产。例如,交易商多年来一直在使用这项技术来提高竞争力、可访问性并提供更好的客户体验。例如,人工智能通过为客户创建更精准的定制产品来增强客户服务,帮助识别欺诈行为,实现更安全的支付,并通过改善物流和减少面料浪费来提高可持续性。企业必须通过负责任地使用数据和新技术来赢得公众信任。公民和环境受到产品安全法 (GPSD)、产品责任法 (PLD)、数据保护法 (GDPR) 以及消费者法的保护。此外,公众需要能够理解这些新事物如何以及意味着什么
人工智能 (AI) 和其他机器学习 (ML) 应用正日益渗透到我们生活的各个方面,医疗保健也不例外。除了新兴应用之外,AI 已经以多种方式得到应用,包括医学成像、解析和整理电子病历、优化护理轨迹、诊断、提高临床试验的入组率,甚至减少医疗错误 (1-4)。这不是一份详尽的清单;可以说,这些应用与医学领域本身一样多种多样且复杂。2018 年,纳菲尔德生物伦理委员会指出,由于 AI 在用于训练 ML 算法的数据集中重现偏见的方式,以及偏见可以“嵌入算法本身,反映 AI 开发人员的信念和偏见”的方式,AI 在医疗保健领域的使用可能存在问题 (2)。在本文中,我认为偏见是指对边缘群体有意识和无意识的负面情绪或看法,这种情绪或看法根源于历史歧视,会影响一个人的行为和思维方式。这些偏见及其对健康的负面影响已经在最近的 ImpactPro 研究等案例中得到体现,该研究发现纽约联合健康服务中心的一种算法未能以与白人患者相同的比例向黑人患者推荐复杂的健康需求计划 (5-6)。因此,医疗保健领域必须应对此类技术的普及,以纠正医疗保健系统中先前的不平等现象,这些不平等现象产生了人工智能技术目前正在重现的偏见数据 (4,7)。为此,医疗从业人员必须采取各种反偏见措施,例如隐性偏见培训、医学偏见教育和“换位思考”,并承担起 AI 技术监督者和合作者的责任。目前用于减少日常医疗互动中偏见的许多措施可以转移到 AI 中,尤其是当医疗从业人员对 ML 算法推荐的决策拥有最终决定权时。很难确定 AI 在医疗保健领域应用的通用规则,因为应用、用途和环境非常多样化,并且一直在发展。鉴于此,我将使用 ImpactPro 案例来说明 AI 对医疗保健的影响如何重申在提供医疗服务以更好地满足边缘化患者的健康需求时打击偏见的现有职责。我认为 ImpactPro 案例表明,医疗从业者有机会通过减少医院和医学研究中的偏见实践以及与边缘化社区建立信任来抵制 AI 算法中的偏见,最终目标是改善用于训练 AI 的数据,并更快地发现 AI 结果存在偏见的案例。这些途径也符合 AI 最佳实践的原则,例如《蒙特利尔人工智能负责任发展宣言》和人工智能高级专家组 (HLEG) 提出的原则。