摘要 — 本研究旨在评估欧盟 (EU) 内可信人工智能 (TAI) 的当前模糊格局,特别关注能源领域。分析涵盖法律框架、指令、举措和标准,如可信人工智能的人工智能伦理指南 (EGTAI)、可信人工智能评估清单 (ALTAI)、人工智能法案和相关的 CEN-CENELEC 标准化工作,以及欧盟资助的项目,如 AI4EU 和 SHERPA。随后,我们介绍了一种新的 TAI 应用框架,称为 E-TAI,专为能源应用量身定制,包括智能电网和智能建筑系统。该框架从 EGTAI 中汲取灵感,但针对能源领域的人工智能系统进行了定制。它是为电力和能源系统 (EPES) 的利益相关者设计的,包括与输电系统运营商、配电系统运营商、公用事业公司和聚合商相关的研究人员、开发人员和能源专家。这些利益相关者可以利用 E-TAI 为能源部门开发和评估人工智能服务,重点确保整个开发和迭代评估过程的可信度。
摘要“可信赖的人工智能”(TAI)存在争议。考虑到科技巨头的日益强大,以及人们担心人工智能伦理缺乏足够的制度支持来在人工智能行业执行其规范,我们努力在人工智能发展中协调伦理和经济需求。为了在欧洲背景下建立这种融合,欧盟委员会发布了《可信赖人工智能伦理指南》(EGTAI),旨在加强伦理权威,并在人工智能行业、伦理学家和法律监管机构之间找到共同点。乍一看,这种尝试可以统一围绕人工智能发展的不同阵营,但我们质疑这种统一,认为它使伦理观点服从于行业利益。通过运用拉克劳关于空洞符号和批判性话语分析的研究,我们认为欧盟的努力并非毫无意义,而是通过推广“TAI”作为统一符号,在不同利益相关者之间建立了一系列等价关系,并保持开放,以便不同的利益相关者在共同的监管框架内统一他们的愿望。然而,通过仔细阅读 EGTAI,我们发现人工智能行业需求凌驾于道德之上。这使得人工智能伦理面临一个令人不安的选择:是肯定行业的霸权地位,破坏道德准则的目的,还是争夺行业霸权。