网络地热还提供了比许多单独的无连接热泵系统的好处。GSHP(地面源热泵)比ASHP(空气源热泵)更有效,尤其是在通过共享环连接时。在冬季,地面比空气有更多可供提取的热量,在夏天,将热量放入55度地面比90度空气更有效。GSHP通常比安装ASHP的成本高,但是共享循环可以降低由于规模经济而导致的安装成本。热网络的运行效率将导致节省成本。连接的热泵系统挖掘成共享的热环将转化为较低的需求峰,这转化为在电力上的支出较少,而在电分布基础设施上的支出较少。GSHP系统的另一个好处是设备在室内,从而减少了天气的磨损和更容易的维护。
虽然我们总体上支持多方利益相关者的方法,使行业能够参与起草过程,但《人工智能法案》次级立法(例如指南和通用人工智能 (GPAI) 行为准则)的审议速度过快,限制了利益相关者提供有意义意见的能力。这种方法不成比例地使大型、资源丰富的公司受益,而将较小的欧洲创新者排除在外。欧洲公司必须有机会参与直接影响其投资和创新能力的标准制定过程。鉴于这些准则和指南草案的技术性和详细性,利益相关者需要合理且相称的时间来做出回应。例如,我们建议将 GPAI 行为准则 V2 的反馈截止日期延长至 2025 年 1 月下旬。此外,根据需要更新每轮磋商的暂定时间表将有助于企业有效地分配资源。最后,我们鼓励委员会进一步加强人工智能办公室,提高其有效管理这些流程的能力。
• 使用潜意识、操纵或欺骗手段扭曲行为,妨碍知情决策,造成重大伤害。 • 利用与年龄、残疾或社会经济状况相关的弱点扭曲行为,造成重大伤害。 • 生物特征分类系统推断敏感属性(种族、政治观点、工会会员资格、宗教或哲学信仰、性生活或性取向),但标记或过滤合法获取的生物特征数据集,或执法部门对生物特征数据进行分类的情况除外。 • 社会评分,即根据社会行为或个人特征对个人或群体进行评估或分类,对这些人造成有害或不利的待遇。 • 仅根据分析或性格特征评估个人犯罪的风险,但用于增强基于与犯罪活动直接相关的客观、可验证事实的人类评估的情况除外。 • 通过从互联网或闭路电视录像中无针对性地抓取面部图像来编制面部识别数据库。 • 在工作场所或教育机构推断情绪,医疗或安全原因除外。 • 在公共场所为执法部门提供“实时”远程生物特征识别 (RBI),但以下情况除外:
“各国不应假设企业总是喜欢或受益于国家不作为,它们应该考虑采取一系列措施——国家和国际措施、强制和自愿措施——以促进企业尊重人权。”《联合国工商企业与人权指导原则》原则 3 的评论(2011 年)
提醒一下,AIA 目前是欧盟委员会起草的一项立法草案。虽然欧盟成员国最终可能会实施类似的法案,但该法案目前正处于由欧洲议会民选议员与欧盟各国政府合作和协商修订的阶段。虽然欧盟监管提案的核心是保护人们免受人工智能对健康、安全和基本权利的风险,但我们承认,在制定政策时,必须对财务影响进行合理的分析。只有这样,要求才能转化为切实可行的行动计划,并最终付诸行动。这种务实的分析过程也可以发现可能被忽视的假设和连贯性缺陷。我们还单独对该法案本身进行了较长的评论,请参阅“对欧盟人工智能法案的反思以及我们如何使其变得更好”。3
1 研讨会于 2023 年 7 月在阿姆斯特丹大学举行。更全面的建议版本将在即将发表的文章中发表。我们感谢各位参与者在研讨会期间和之后的宝贵意见(参加研讨会并不等于认可下文列出的所有建议):Bettina Berendt 博士(柏林工业大学互联网与社会教授)、Ian Brown 博士(里约热内卢热图利奥·瓦尔加斯基金会法学院技术与社会中心客座教授、顾问)、Nick Diakopoulos 博士(西北大学传播学和计算机科学教授(特聘))、Tim de Jonge(拉德堡德大学博士候选人)、Christina Elmer(多特蒙德大学数字新闻/数据新闻教授)、Natali Helberger 博士(阿姆斯特丹大学杰出法学与数字技术大学教授)、Clara Helming(AlgorithmWatch 高级政策与宣传经理)、Karolina Iwańska(欧洲非营利组织中心数字公民空间顾问)法)、Frauke Kreuter 博士(慕尼黑大学统计与数据科学教授)、Laurens Naudts 博士(阿姆斯特丹大学法学博士后研究员)、Liliane Obrecht(巴塞尔大学法学博士生)、des 博士。 Angela Müller(AlgorithmWatch 政策与宣传主管)、Estelle Pannatier(AlgorithmWatch CH 政策与宣传经理)、Stanislaw Piasecki 博士(阿姆斯特丹大学法学博士后研究员)、João Quintais 博士(阿姆斯特丹大学信息法助理教授)、Matthias Spielkamp(AlgorithmWatch 创始人兼执行董事)、Daniel Oberski 博士(乌得勒支大学健康数据科学教授)、Ot van Daalen 博士(律师;阿姆斯特丹大学信息法讲师和研究员)、Kilian Vieth-Ditlmann(AlgorithmWatch 政策与宣传副团队负责人)、Sophie Weerts 博士(洛桑大学公法副教授)、Frederik Zuiderveen Borgesius 博士(拉德堡德大学 ICT 和法律教授)。此外,我们感谢以下专家对研讨会成果的宝贵书面反馈:Nikolett Aszódi(AlgorithmWatch 政策与宣传经理)、Paul Keller(Open Future 政策总监)和 Alex Tarkowski(Open Future 战略总监)。
● 受监管实体的潜在范围更广:与通常适用于满足特定门槛的受监管实体的州数据隐私法不同,CAIA 适用于任何开发或部署高风险 AI 系统的个人或实体。此外,该法律的一部分适用于提供或部署面向消费者的 AI 系统的任何实体。 ● 特定角色的义务:CAIA 为部署者和开发者分配了特定角色的义务,类似于数据隐私制度下的控制者和处理者。部署者直接与个人互动并最终控制系统的使用方式,需要维护风险管理计划、进行影响评估并提供相关的消费者权利。另一方面,开发者必须提供部署者履行其职责所需的信息和文档。 ● 减轻算法歧视的注意义务:开发者和部署者有注意义务保护消费者免受算法歧视,这在实践中可能意味着 CAIA 的执行者将使用比例测试来评估开发者和部署者的行为。 “算法歧视”的定义似乎涵盖了故意歧视和差别影响。● 新型消费者权利:除了类似立法中常见的消费者权利(例如使用前通知权)外,如果高风险人工智能系统做出不利决定,CAIA 还为消费者提供了特殊权利。在这种情况下,部署者必须向消费者提供理由陈述、纠正权,并在可行的情况下上诉人工审查。● 总检察长权力:尽管 CAIA 没有创建私人诉讼权,但它赋予科罗拉多州总检察长执行法律和实施必要法规的重要权力。
目前对 GPAI 的讨论往往集中在 AI 研究前沿的大型语言或大型视觉模型上,例如 OpenAI 的 GPT-3 和 DALL·E 2 或 Google 的 PaLM。但拟议的定义还将涵盖许多预先训练的、多用途的 AI 模型(例如用于对象检测),这些模型作为云 AI 服务提供——例如通过 AWS、Google Cloud 或 Microsoft Azure 提供的服务——已经得到广泛使用。这些也通常没有《AI 法案》所规定的特定预期用途。委员会和其他提案可能会让合规负担落在中小企业和其他调整 GPAI 系统以供下游使用的参与者身上,同时(无意中)减轻了一些全球最大公司对其开发的技术可能造成的危害的责任。
常设委员会支持 LD 2167 为在这里开始他们的故事的多元化社区提供更多资源的努力。新美国人办公室的建立将提供有关这些人群的更准确数据,创建一个集中的枢纽来提供援助,并帮助新缅因州人融入缅因州社区,同时保留其文化身份的独特性。ONA 的政策目标将解决外国出生的缅因州人面临的许多问题,包括住房、经济、食品和工作相关的差距。越多的缅因州人能够获得为自己创造更好生活质量的资源,缅因州对所有居民来说就越好,无论种族、性别、国籍或邮政编码如何。
我们业务中发现的高风险领域 虽然现代奴隶制在所有国家都存在,但我们会考虑与现代奴隶制相关的特定地区风险,例如,移民工人人口众多、就业和劳动法执法较弱或现代奴隶制盛行的国家。我们了解,我们供应链中的国家可能存在更高的现代奴隶制风险,需要与我们的供应商和业务合作伙伴进行额外的尽职调查和合作。我们还了解并认识到,虽然现代奴隶制在任何人群中都存在,但有些群体比其他群体更容易受到伤害,包括:外国移民工人;合同工、代理工和临时工;难民、寻求庇护者、少数民族和宗教少数群体以及青年或学生工人。我们的供应链仍然是业务中风险最高的领域,因此我们继续确保采取相关措施减轻风险,并遵循上述做法,以消除与不合乎道德的供应商合作的可能性。通过确保我们的供应商签署《HMSHost 供应商行为准则》来管理这一风险。我们的承诺 公司和 Avolta 集团为在整个业务范围内预防现代奴隶制方面取得的进展感到自豪。但是,我们知道还有更多进展需要取得,Avolta 集团和公司正在努力实现这一目标。 我们采取的措施的有效性以及我们如何衡量这些措施 我们仍然致力于定期审查我们的政策和做法,如果这些政策和做法没有被证明是有效的,我们将做出任何必要的改变。我们继续能够通过与供应商的书面协议清楚地记录我们的合规性。 2023 年,公司尚未获悉其业务或供应链中存在或以前发生过人口贩运或现代奴隶制的情况。我们没有正式的 KPI 来监控我们的进展,但未来公司将考虑如何有意义地衡量其在监控和防止现代奴隶制和人口贩运方面取得的进展。
