负责任的关键词检索结果

国防部首席数字和人工智能办公室主办负责任的国防人工智能论坛

DOD Chief Digital and AI Office Hosts Responsible AI in Defense Forum

国防部首席数字和人工智能办公室结束了其“负责任的国防人工智能论坛”,这是一场为期 3 天的活动,汇集了国防领导人、人工智能专家、政策制定者和全球创新者,重点关注负责任人工智能的进步。

希克斯强调国防部对负责任的人工智能使用的承诺

Hicks Highlights DOD's Commitment to Responsible AI Use

国防部副部长凯瑟琳·希克斯在华盛顿的一个论坛上谈到了国防部致力于成为制定军事人工智能合理道德政策的世界领导者的承诺。

智利和塞浦路斯加入《阿尔忒弥斯协定》,开展负责任的月球探索

Chile and Cyprus join Artemis Accords for responsible moon exploration

智利和塞浦路斯签署了《阿尔忒弥斯协定》,使月球探索联盟的国家数量达到 47 个。

负责任的人工智能测试和评估 (RAITE)

Responsible Artificial Intelligence Test and Evaluation (RAITE)

负责任的人工智能测试和评估 (RAITE)

Responsible Artificial Intelligence Test and Evaluation (RAITE)

2024 年 6 月 | 负责任的 AI

负责任的人工智能 (RAI) 战略和实施途径

Responsible Artificial Intelligence (RAI) Strategy and Implementation Pathway

2024 年 6 月 | 负责任的 AI

负责任的人工智能 (RAI) 战略和实施途径

Responsible Artificial Intelligence (RAI) Strategy and Implementation Pathway

负责任的人工智能 (RAI) 工具包

The Responsible Artificial Intelligence (RAI) Toolkit

S. 4495,《促进负责任的评估和采购以推进企业范围内部署人工智能法案的准备》

S. 4495, Promoting Responsible Evaluation and Procurement to Advance Readiness for Enterprise-wide Deployment for Artificial Intelligence Act

按照参议院国土安全和政府事务委员会于 2024 年 7 月 31 日的报告要求

Nirmala Sitharaman 提倡大型经济体采用负责任的资本主义来推动公平增长

Nirmala Sitharaman advocates responsible capitalism in large economies to drive equitable growth

在瓜达拉哈拉举行的技术领袖圆桌会议上,她强调了印度和墨西哥之间合作的重要性,特别是在人工智能、农业和医疗保健等领域

保护儿童的数字足迹并探索负责任的在线行为

Protecting The Digital Footprint Of Children And Exploring Responsible Online Behavior

我们在网上采取的每一个行动都会被存储起来,以创建我们所谓的数字足迹。成年人可能会对此更加谨慎,但儿童和青少年并不真正了解鲁莽的在线活动的后果。那么,如果不照顾年轻学习者的数字足迹,会有什么后果呢?阅读本文,了解如何与孩子谈论他们的在线声誉以及保护它的技巧。本文首次发表于 eLearning Industry。

“负责任的共识”不能凌驾于 WTO 决策共识的需要之上:专家

‘Responsible consensus’ cannot override need for consensus in WTO decision-making: Experts

新加坡加快 WTO 决策的提议引发争论

负责任的军事使用人工智能:弥合原则与实践之间的差距

Responsible Military Use of AI: Bridging the Gap between Principles and Practice

首尔 REAIM 峰会上的这个小组重点讨论了制定军事人工智能使用国际治理的必要性。

负责任的军事使用人工智能:弥合原则与实践之间的差距

Responsible Military Use of AI: Bridging the Gap between Principles and Practice

在首尔举行的 REAIM 峰会上,这个小组重点讨论了制定军事人工智能使用国际治理的必要性。

揭开黑暗面:管理暗数据以实现负责任的人工智能

Unveiling the Dark Side: Managing Dark Data for Responsible AI

在当今数据驱动的世界中,组织越来越多地利用人工智能来获得竞争优势并推动创新。然而,组织中仍有相当一部分数据未得到管理,通常被称为“暗数据”。如果不加以有效处理,这些隐藏的信息可能会带来重大风险。暗数据挑战暗数据构成了更多 […] 揭开黑暗面:管理暗数据以实现负责任的 AI 的帖子首先出现在 SAAL 上。

负责任的人工智能和大型模型的道德权衡,与 Sara Hooker 一起

Responsible AI & the Ethical Trade-offs of Large Models, with Sara Hooker

在本集中,高级研究员 Anja Kaspersen 与 Cohere for AI 的 Sara Hooker 进行了交谈,讨论了模型设计、模型偏差和数据表示。

我们对安全、负责任的生成式 AI 的承诺进展更新

A progress update on our commitment to safe, responsible generative AI

负责任的 AI 是亚马逊的一项长期承诺。从一开始,我们就将安全性、公平性、稳健性和隐私性嵌入到我们的开发流程中并教育我们的员工,从而优先考虑负责任的 AI 创新。我们努力改善客户的生活,同时建立和实施必要的保障措施来保护他们。我们实用的 […]

PROJECT SYNDICATE:人类如何失去控制:丹·戴维斯评论:“不负责任的机器:为什么大系统会做出糟糕的决定——以及世界如何失去理智”

PROJECT SYNDICATE: How Humanity Lost Control: A REVIEW of Dan Davies: "The Unaccountability Machine: Why Big Systems Make Terrible Decisions – And How the World Lost Its Mind"

对于 Project Syndicate:我们建造的不负责任的机器,或者我们复杂的社会系统如何让我们变得富有但不快乐……