● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
1.将精力集中在研究和创新界、成员国和私营部门,以及那些在欧洲人工智能战略中应该优先考虑的领域。2.在主要贸易伙伴的政策与欧盟管理人工智能开发和使用的政策之间建立一致性。3.分析当前生态系统中理论框架和构建可信人工智能系统的方法之间的差距,以创建更具可操作性的指导,帮助组织在实践中实施这些原则。4.注重协调和政策协调,特别是在两个领域:增加对人工智能初创企业的融资以及发展技能和调整当前的培训计划。5.利用联邦学习、差异隐私、联邦分析和同态加密等技术进步,重点关注促进数据私密和安全共享的机制。6.创建现有人工智能研究卓越中心网络,以加强研究和创新社区,重点是开展考虑到各种价值观/道德观的高质量学术工作。7.促进知识转移,为中小企业发展人工智能专业知识,并通过数字创新中心支持中小企业与其他利益相关者之间的伙伴关系。8.在有关人工智能系统不透明度的讨论中添加细微差别,以便对这些系统的治理方式以及在哪个地方需要何种程度的可解释性和透明度采取循序渐进的方法。9.为个人创建一个对人工智能系统的决定或输出提出上诉的流程,例如“谈判权”,这类似于《通用数据保护条例》(GDPR)中详述的“反对权”。10.实施新规则并加强现有法规,以更好地解决有关人工智能系统的担忧。11.禁止使用面部识别技术,这可以大大降低歧视性结果和侵犯基本权利的风险。12.对所有人工智能系统(例如低风险、中风险和高风险应用程序)都应遵守类似的标准和强制性要求。13.确保如果使用生物特征识别系统,它们能够实现实施的目的,同时也是完成任务的最佳方式。14.15.对不被视为高风险的系统实施自愿标签系统,并应通过强有力的经济激励措施进一步支持该系统。任命了解人工智能系统并能够与各种利益相关者有效沟通任何潜在风险的个人参与人工监督过程,以便他们采取适当的行动。
鉴于人工智能开发人员在确保人工智能系统、其成果和此类系统用户的责任方面发挥着重要作用,我们需要他们采取负责任、合乎道德和负责任的方法。因此,我们建议这些参与者参与旨在产生负责任的人工智能设计和使用的政策制定过程。根据我们的实证研究结果,我们提出了几项建议,以弥补当前在追求负责任的人工智能时将道德原则、认证标准和解释方法作为问责机制所发现的缺陷。我们希望这些建议能够有助于讨论如何在实践中确保问责制,同时兼顾开发人员、研究人员和公众的观点。
该集团成立于阿布扎比,为各种客户群提供创新的数字解决方案、智能连接和下一代技术,包括中东、亚洲和非洲 16 个国家的 1.63 亿用户。2022 年,集团合并净收入为 524 亿迪拉姆,净利润为 100 亿迪拉姆,其高信用评级反映了集团强劲的资产负债表和经过验证的长期业绩。
1 普适数据这一术语旨在指通过在线服务收集的有关人员的数据(用户贡献、观察、获取或推断),无论这些数据在多大程度上是公开的、汇总的或可能导致识别个人。普适数据可能包括文本、图像、视频、生物特征信息、有关数据主体行为的信息(购买、财务状况、媒体消费、搜索历史、医疗状况、位置等)以及构成个人数字足迹的其他信息。在线服务可能包括整个技术堆栈/技术基础设施中的各种信息技术,包括但不限于基于 Web 的监控工具、内容交付网络、区块链技术、数字劳动力平台、教育技术、物联网设备、联网汽车、可穿戴设备、移动传感器、数据代理、流媒体服务、搜索引擎、在线市场、社交媒体平台和人工智能系统。 “普适数据”这一术语源自美国国家科学基金会资助奖编号 1144934 下开展的研究(https://www.nsf.gov/awardsearch/showAward?AWD_ID=1144934)。2 例如,请参阅 Michael Zimmer 的《解决大数据研究伦理中的概念差距:情境完整性的应用》,《社交媒体+社会》4,第 2 期(2018 年),https://doi.org/10.1177/2056305118768300;aline shakti franzke 等人的《互联网研究:道德准则 3.0》,互联网研究人员协会(2020 年),https://aoir.org/reports/ethics3.pdf。3 本征求意见稿中所述的道德和隐私准则侧重于数据从在线服务提供商流向在线服务提供商之外的独立研究人员,这些研究人员通常隶属于学术或非营利机构。 4 数据中介机构旨在描述一个独立的实体,其专门为促进研究人员和在线服务提供商之间根据商业或非商业协议进行数据访问和共享而运营,或评估
对 Timnit Gebru 和 Google 道德 AI 团队的支持 过去三年来,加州大学伯克利分校的 AFOG 受益于 Google 道德 AI 团队的几位成员参加我们的工作组会议和研讨会。最近,该团队的联合负责人 Timnit Gebru 博士因要求在她和她的团队成员进行的研究的内部审查过程中提高透明度和程序公平性而被解雇。AFOG 小组的成员研究数字技术在社会中的作用,并寻求建立更好、更公平的系统的方法。数十年来的技术史研究表明,技术不可避免地具有政治性。它们以独特的方式构建和调解人与人之间的关系。虽然数字技术具有巨大的潜在效益,但总有缺点、风险和危害需要考虑。这些风险并非均匀分布,而是经常遵循现有权力等级制度。根据我们在此领域的研究,我们了解到:
研究人员是否知道道德考虑因素以及何时将其应用于研究?本文使用二级数据源来描述数据编辑学科和原则的各个方面,并以道德考虑在定性和定量研究方法中研究研究中的编辑数据。通过过去的研究,研究的道德亚结构包含三个层面的维度:哲学,实践和反思性。数据编辑过程探索和审查数据,以确保一致性,错误和异常值和纠正错误,以提高收集到的数据的质量,准确性和充分性,从而使其更适合于收集数据的目的,例如检测到数据持续数字的字段数量和误差。数据编辑过程基于逻辑,常识和遵守书面程序或编辑指南,针对院士,政策制定者和研究人员的未来研究人员。
2025年1月15日撰写:纳粹·安迪比(Nazanin Andalibi)(密歇根大学),大卫·丹克斯(加利福尼亚大学,圣地亚哥分校),海莉·格里芬(Haley Griffin),海莉·格里芬(计算机研究协会),玛丽·卢·马赫(Mary Lou Maher)(计算机研究协会),杰西卡·麦克莱恩(JESSICA MCCLEARN(GOOGLE),Google)健康),凯蒂·西克(Katie Siek)(印第安纳大学),塔米·托斯科斯(Tammy Toscos)(Parkview Health),Helen V. Wright(计算研究协会)和Pamela Wisniewski(Vanderbilt University)此反应来自计算机研究协会(CRA)的计算社区联合会(CCC)(CCC)和CRA-Industry(CRA-Industry)。CRA是近250个北美计算机研究组织的协会,包括学术和工业,以及来自六个专业计算社会的合作伙伴。CCC的任务是CRA的小组委员会,是为了追求创新的,高影响力的计算研究,与紧迫的国家和全球挑战保持一致。CRA的另一个小组委员会CRA-I的使命是召集行业合作伙伴计算共同利益的研究主题,并将其与CRA的学术和政府选民联系起来,以促进共同利益和改善社会成果。请注意,本材料中表达的任何意见,发现,结论或建议是作者的意见,不一定反映了作者隶属关系的观点。下面我们回答了提出评论请求的问题1-9、11和13-14。
马里兰州克朗斯维尔:今天,马里兰州信息技术部 (DoIT) 和马里兰州人工智能分部宣布,他们已向马里兰州议会提交了人工智能支持战略和人工智能研究路线图(AI 路线图)。该路线图列出了该州将实施的 5 部分战略,以加快在全州安全实施人工智能和机器学习技术。它还概述了该州将在 12 个关键领域开展的具体研究,包括促进经济发展、提高州劳动力的生产率以及为当地学校系统制定政策。“生成人工智能正以前所未有的速度发展,可能影响马里兰州人民生活的几乎每个方面,”DoIT 部长兼人工智能分部主席 Katie Savage 表示。“人工智能路线图为马里兰州在 2025 年的发展规划了路线图,帮助其加快人工智能采用的步伐,同时考虑到马里兰州独特的资产、机遇和风险。我们准备以切实可行的方式采用这项技术,使我们的国家更加安全、更具竞争力、更高效。”
