本工作组报告审查了欧盟和英国在线内容审核的监管、监督和执行情况。报告确定了与内容审核标准的共同监管和自我监管相关的关键问题和挑战,包括在线平台服务的内部监督机制。报告审查了国际上、欧盟和英国现有的监管内容审核标准。报告评估了独立监督和监管机构所发挥的作用和职责的关键问题和未决问题,以及在线内容审核政策和实践对基本权利、民主和法治提出的主要挑战。报告特别关注评估不仅与隐私和数据保护有关的问题,还关注影响言论自由和法治、正当程序和有效补救措施的问题。报告提出了一系列政策建议,旨在确保为开放和安全的在线环境提供原则性的公平竞争环境。
现实世界中人工智能和新兴技术系统的开发需要直接处理复杂、异构、多模式和混乱的数据。这些系统的实施和部署涉及挑战,只有遵循工程角度的最佳实践才能以原则性的方式应对这些挑战 - 允许高效处理大型和不完整的数据集,部署强大的代码,并扩展云中的处理能力。本单元整合了数据科学和工程的基础知识:它介绍了基本的数据结构和数据建模,讨论了数据预处理技术,并分析了现实世界的数据集。
Anushri Dixit获得了博士学位。 2023年加利福尼亚理工学院的控制和动力系统和她的学士学位2017年佐治亚理工学院电气工程中的电气工程。她目前是普林斯顿大学机械与航空工程系的博士后研究员。她的研究重点是运动计划和对非结构化环境中机器人的控制,同时以原则性的方式解决不确定性。她在风险感知方法的计划方面的工作已在各种机器人平台上部署,这是Team Costar在DARPA Subterranean挑战中努力的一部分。她在《机器人学习会议》(作为合着者)的决策和控制大会上获得了杰出的学生纸奖,并被芝加哥大学选为数据科学的新星。
但一个更加模糊的问题依然存在:金融服务机构如何才能安全、负责且合乎道德地使用人工智能?这个问题没有单一的答案;正如 FS-ISAC 人工智能风险工作组的白皮书中所讨论的那样,金融服务公司必须根据其文化、客户和风险状况判断正确答案。然而,答案会产生与业务相关的后果。例如,虽然负责任的使用有助于避免声誉损害,但它也结合了用例规划和详尽的文档,这提高了使用人工智能输出做出的决策的有效性,并提供了在网络事件期间提高弹性的机制。遵守负责任的人工智能使用原则有助于防止因不当生成或应用不当而造成的财务损失。建立、记录和可证明原则性的人工智能实践
在图表上的表示是一个基本问题,在各种任务中可能至关重要。图形神经网络是图表学习的主要方法,其表示能力有限。因此,将高阶拓扑和几何信息明确提取并纳入这些模型可能是有益的。在本文中,我们提出了一种原则性的方法,以根据持续同源性理论提取图形的丰富连通性信息。我们的方法利用拓扑特征来增强图形神经网络的表示学习,并在各种节点分类和链接预测基准上实现最先进的性能。我们还探索了拓扑特征的端到端学习的选择,即将拓扑计算视为学习过程中可区分的操作员。我们的理论分析和实证研究为在图形学习任务中采用拓扑特征提供了见解和潜在指南。关键字:持续的同源性,拓扑数据分析,图形神经网络,图表学习,图形同构
本文介绍了两种原则性的推理形式:溯因推理和论证推理,并阐述了它们在机器学习中可以发挥的基本作用。本文回顾了过去几十年来关于这两种推理形式与机器学习工作的联系的最新成果,并由此阐述了溯因推理和论证推理的解释生成作用如何使它们成为可解释机器学习和人工智能系统开发的自然机制。溯因推理通过数据的转换、准备和均质化来促进学习,从而为实现这一目标做出了贡献。论证作为传统演绎推理的保守扩展,为学习提供了一种灵活的预测和覆盖机制——一种与所学知识相关的目标语言——它明确承认在学习的背景下,需要处理与任何经典逻辑理论不相容的不确定、不完整和不一致的数据。
定量风险评估无法消除风险,也无法解决贸易销售。但是,如果评估质量很高,并且决策者了解如何使用它,则可以指导原则性的风险管理和减少。本书建立了一个统一的科学框架,用于讨论和评估风险评估的质量以及它们是否适合目的。不确定性是一个中心话题。实际上,关于投入的不确定性很少反映在评估中,因此许多安全措施被认为是不合理的。其他主题包括概率的含义,概率模型的使用,模型不确定性,如何理解和描述风险,贝叶斯思想和技术的使用以及在实用决策背景下使用风险评估。为专业人员以及研究生和研究人员写的书,假定基本概率,统计和风险评估方法。实例使概念具体,三个扩展案例研究表明了行动中的科学框架。
在像 covid-19 大流行这样的危机中,政府和卫生服务部门必须迅速果断地采取行动,阻止疾病的传播。人工智能 (AI),在这种情况下主要意味着越来越强大的数据驱动算法,可以成为这一行动的重要组成部分——例如,通过帮助追踪病毒的进展或优先考虑稀缺资源。1 为了拯救生命,快速大规模地部署这些技术可能很有吸引力。然而,人工智能的部署会影响广泛的基本价值观,例如自主权、隐私和公平性。如果委托、设计和部署人工智能的人从一开始就采取系统的道德方法,即使在紧急情况下,人工智能也更有可能带来好处。道德是关于以原则性的方式考虑一项行动的潜在危害和好处。对于广泛部署的技术,这将奠定可信度的基础。合乎道德的部署需要广泛而公开地进行咨询;深入而广泛地思考潜在影响;并且保持透明
在新冠疫情这样的危机中,政府和卫生服务部门必须迅速果断地采取行动,阻止疾病的传播。人工智能(AI)在这种背景下主要意味着越来越强大的数据驱动算法,它可以成为这一行动的重要组成部分——例如,通过帮助追踪病毒的进展或优先利用稀缺资源。1 为了拯救生命,人们可能倾向于快速大规模地部署这些技术。然而,人工智能的部署会影响一系列基本价值观,如自主权、隐私和公平。如果那些委托、设计和部署人工智能的人从一开始就采取系统的道德方法,那么即使在紧急情况下,人工智能也更有可能发挥作用。道德是关于以原则性的方式考虑某一行为的潜在危害和好处。对于一项广泛部署的技术,这将奠定可信度的基础。道德部署需要广泛而公开地进行咨询;深入而广泛地思考潜在影响;并保持透明