联邦选举委员会也在考虑制定有关人工智能的规则,并在今年宣布他们预计将在初夏采取行动。在最近致 FCC 的一封信中,联邦选举委员会副主席写道:“目前没有一个机构拥有管辖权或能力解决这个庞大而复杂问题的各个方面。” 虽然联邦选举委员会可以监管联邦候选人在线广告中人工智能的使用,但 FCC 可以专注于联邦选举委员会无法采取行动的领域。联邦选举委员会不监管电视台和广播电台。根据法律,联邦选举委员会对竞选活动的权力仅限于联邦政治候选人,并不扩展到独立议题竞选活动或州和地方选举。
2021 年,谷歌宣布了“数字未来计划”,该计划将在五年内向澳大利亚投资 10 亿美元,重点用于基础设施、新的人工智能研究中心和其他研究合作伙伴关系。据独立估计,该计划将为澳大利亚的 GDP 带来 13 亿美元的增长,并为整个经济提供 6,500 个额外就业岗位。2022 年,谷歌推出了谷歌澳大利亚研究中心,并与澳大利亚大学建立了量子计算研究合作伙伴关系。此后,我们宣布了新的合作伙伴关系,以探索听力保健的新可能性和人工智能解决方案,改善澳大利亚社区的眼病检测,并保护和恢复澳大利亚的巨型海藻森林。
Inditex是一家全球时尚,设计,分销和零售公司,旨在为200多个市场的客户提供鼓舞人心,质量和负责任的时尚建议。Inditex Group是几个商业品牌的家族:Zara,Pull&Bear,Massimo Dutti,Bershka,Stradivarius,Oysho和Zara Home。该公司已经实施了以四个支柱为基础的业务模式:一个独特的时尚建议,差异化购物体验,非凡的团队以及在小组活动的每个阶段实施负责任的做法。在这方面,Inditex在尊重和透明度的框架内,与我们的利益相关者的持续对话,基于促进人权,并具有对客户,社会,行业和我们的环境产生积极影响的最终目的。
数据是AI开发的基石。AI经常使用从网络上刮下来的数十个数据点进行训练和微调,批量购买或由大量人类注释者贡献。知道用于培训模型的数据集中的内容以及如何编译它们,对于安全和负责的AI系统的开发和部署至关重要。AI数据透明度是指关于在整个AI生命周期3中如何使用数据的开放性,重点是上游数据组件:培训数据,微调,调整,参考数据和基准测试。4尽管具有数据的重要性,但大多数领先的AI公司一直不愿透露用于训练和测试其模型5的数据集的详细信息,这有助于称为“不断增长的数据透明度危机”。6斯坦福基金会模型透明度指数评估了提供许多AI工具和服务的骨干的主要基础模型,这表明与透明度7的其他方面相比,使用的数据透明度非常低。最近的ODI研究检查了媒体中强调的最近“ AI事件”链接的一系列模型的数据透明度,并确定了数据透明度信息的同样较低的存在,以及访问此信息的关键障碍。8
我们要求员工和承包商承担责任。如果我们发现违反我们关于人口贩运和奴役的政策的行为,我们将在法律允许的范围内采取合理和必要的措施,以适当的方式处理此事。我们还设有一个由第三方公司管理的免费电话号码,供我们的员工、业务合作伙伴和供应商保密地报告任何问题。
数据是AI系统的骨干。算法治理的很大一部分是关于通过算法对数据进行透明和可解释的处理,直到最近才成为数据监管机构和公民的黑匣子。数据主权要求公民知道是否以及如何在AI系统中使用其数据。算法的透明度是道德和仅具有足够透明度的数据实践的一个方面。 GPAI数据治理工作组一直在研究工具,以提高透明度,并在公共部门部署AI技术。算法的透明度是道德和仅具有足够透明度的数据实践的一个方面。GPAI数据治理工作组一直在研究工具,以提高透明度,并在公共部门部署AI技术。
尽职调查过程是Inditex人权战略的第二个主要支柱(人权政策是通过伦理线第三条的第一个,以及查询和申诉机制,第三条)。该集团的可持续供应链战略是通过“中心的工人”战略来管理的。该策略是由人权尽职调查过程造成的七个优先影响领域(PIA)。已经确定了这些优先领域的三个,以进一步监督有关强制和非自愿劳动的供应链的努力:保护移民和难民,性别,多样性,多样性,包容性以及保护原材料生产劳动权利。
质量是公司每个人的责任,因此,我们必须继续在员工中建立和加强质量文化。在这一年中,我们引入了三种关键行为,即勇气、尊重和共同创造,以在日常活动中推动质量文化思维。我们开展了各种活动和持续沟通,以提高对这三种关键行为的认识,并提供指导和提示,让这些行为付诸实践。我们的一些质量举措包括适当分阶段开展审计工作,并鼓励员工畅所欲言,提供建设性的反馈意见。文化转型并非一朝一夕就能实现的。这是一个持续的过程,需要全心全意地接受和实践共享的举措和小习惯。
摘要:人工智能生成的内容在人们生活中的出现越来越多,而能够有效浏览和区分此类内容的重要性与透明度有着内在联系,我们的研究重点是透明度,我们通过评估《人工智能法案》第 50 条来研究这一概念。本文呼吁采取行动,在指定《人工智能法案》的透明度要求时考虑最终用户的利益。它侧重于一个特定的用例——媒体组织在生成人工智能的帮助下制作文本。我们认为,目前的形式下,第 50 条留下了许多不确定性,并且有可能在保护自然人免受操纵或赋予他们采取保护行动的权力方面做得太少。本文结合文献和调查数据分析(基于代表荷兰人口的样本),就《人工智能法案》透明度义务的实施提出了具体的政策和监管建议。其主要目的是回答以下问题:如何协调《人工智能法案》适用于人工智能生成的数字新闻文章的透明度规定与新闻读者对操纵和赋权的看法?
● 考虑到引入的透明度框架,您对 FB 透明度报告的实施有什么疑问?是否还有需要透明化的事情?● 您认为透明度报告有效吗?为什么有效或无效?● 您可以对实施提出哪些批评?● 您认为有哪些设计机会可以改进报告?● 您还想分享哪些其他观察结果?