然而,我们知道这些人工智能系统可能很脆弱且不公平。在停车标志上添加涂鸦会欺骗分类器,使其认为这不是停车标志 [Eykholt 等人2017]。在良性皮肤病变图像中添加噪声会欺骗分类器,使其认为它是恶性的 [Finlayson 等人 2019]。美国法院使用的风险评估工具已被证明对黑人存在偏见 [Angwin 等人2016]。企业招聘工具已被证明对女性存在偏见 [Dastin 2018]。那么,我们如何才能兑现人工智能带来好处的承诺,同时解决这些对人类和社会产生重大影响的情况呢?简而言之,我们如何实现可信赖的 AI?1.从可信赖计算到可信赖的 AI 具有里程碑意义的 1999 年国家科学院网络空间信任报告为可信赖计算奠定了基础,并继续成为一个活跃的研究领域 [NRC 1999]。美国国家科学基金会启动了一系列关于信任的项目。从可信赖计算(2001 年启动)开始,然后是网络信任(2004 年),然后是可信赖计算(2007 年),现在是安全和可信赖系统(2011 年),计算机和信息科学与工程理事会已经发展了可信赖计算的学术研究社区。尽管它始于计算机科学界,但对可信计算研究的支持现已涵盖 NSF 的多个理事会,并涉及许多其他资助组织,包括通过网络和信息技术研究与开发 (NITRD) 计划的 20 个联邦机构。行业也是可信计算的领导者和积极参与者。凭借比尔盖茨 2002 年 1 月的“可信计算”备忘录 [Gates 2002],微软向其员工、客户、股东和其他信息技术部门发出了可信软件和硬件产品的重要性。它提到了微软内部
托马斯·麦凯布(Thomas B.麦凯布基金咨询委员会(McCabe Fund Advisory委员会)监督奖励过程,欢迎初级教师(助理教授)以及新招募的人提交提出创新的生物医学和外科研究的建议,这些建议桥接了临床和基础科学。这个机会对未获得或有限的校外研究资金的临床(CE和AC)赛道开放。任期和研究轨道教师没有资格申请。McCabe奖励过程与Perelman医学院院长办公室和大学投资办公室协调。
新泽西州上诉司法院案卷号。A-2397-22 Jeannette Andreula,原告诉讼,诉Nutley镇教育委员会,博士。朱莉·格拉泽(Julie Glazer),洛林·里斯特尔(Lorraine Restel),珍妮·萨诺(Janine Sarno),查尔斯·库辛斯基(Charles Kucinski)和丽莎·丹切克·马丁(Lisa Dancheck Martin),被告人。__________________________________________________ 2024年11月19日 - 裁定2024年12月26日,在法官Gooden Brown和Chase法官之前。在新泽西州埃塞克斯郡法律部高等法院上诉中,案卷号L-6740-21。Anthony M. Rainone辩称了上诉人的原因(Brach Eichler,LLC,律师;律师的Anthony M. Rainone,简介; Lauren A.小伍兹,简介)。
Jeannette和她的团队任务机器人整理一个房间:从地板上捡起所有对象,将每个物体放在其所属的位置。执行此任务时的关键挑战之一是确定每个对象的正确容器。这是因为家庭组织是高度个人化的,而不同的人对物体应该去的地方有不同的喜好。一个人可能喜欢抽屉里的衬衫,另一个人可能希望它们在架子上。
[海报。1] Alaa Eldin Abdelaal,Jiaying Fang,Tim N. Reinhart,Jacob A. Mejia,Tony Z. Zhao,Chelsea Finn,Jeannette Bohg和Allison M. Okamura。(2024)。基于力的机器人从演示中学习软组织操纵。在斯坦福大学人工智能研究所(HAI - 五)中。
本版本的编写工作由国际贸易和一体化部门负责人 Keiji Inoue 监督。 Diogo Aita、Jose Elias Duran、Matthew Gomies、Sebastian Herreros、Jeannette Larde、Nanno Mulder、Ira Ronzheimer、Miryam Saade、Mario Saeteros 和 Ricardo Sanchez Petrie 和 Silvana Sanchez d顾问 Domenico 参与了章节的准备和起草。感谢 Sebastian Castresana、Javier Meneses 和 Gaston Rigollet 的贡献。
Alexey Bochkovskiy;百度 PaddlePaddle 计算机视觉团队;徐成刚(长江商学院);Mohammed AlQuraishi(哥伦比亚大学);Evan Schnidman(EAS Innovation);林方真(香港科技大学);David Kanter(MLCommons);Sam Bowman(纽约大学);Maneesh Agrawala、Jeannette Bohg、Emma Brunskill、Chelsea Finn、Aditya Grover、Tatsunori Hashimoto、Dan Jurafsky、Percy Liang、Sharon Zhou(斯坦福大学);Vamsi Sistla(加州大学伯克利分校);Simon King(爱丁堡大学);Ivan Goncharov(Weights & Biases)
设想的工作流程中的第一步是针对人类和人类水平的群体集体构建与与任务相关的现实方面相对应的正式概率描述。包括可用的动作和观察结果,以及前瞻性自主系统的可用性,以及行动和观察与世界动态相互作用的方式。仅具有丰富的词汇量,用于世界范围内不确定的轨迹的属性,才能以完全扎根的方式指定“正确”问题。即使是概率不确定性,也缺乏足够的认识论谦卑。正如Jeannette Wing [3]所建议的那样,我们旨在构建定义概率模型类别的系统描述。正确性是指对于班级中的所有模型,由部署引起的有害结果的可能性均受社会风险标准的限制。
Alex Agius Saliba(2),Peter Agius,Bauseemer(2),Biljana Borzan(2)。 Dieringer(2),Regina Doherty(2),Clara Dostalova,DóraDávid(2),Hanna Gedin,Gozi Sandro,Elizabeth Grossmann,Maria Guzenina, Pierfancesco Maran(2)Kate场Katečná(2)。 Schwab,苏格兰Tomiss(2),Tsyodras Dimits,Vaidere(2),Kim Van Sparrentak
设想的工作流程的第一步是让人类和人类级别的人工智能群体共同构建与与任务相关的现实方面相对应的正式概率描述。这包括未来自主系统可用的行动和观察,以及行动和观察与世界动态相互作用的方式。只有拥有丰富的世界状态不确定轨迹属性词汇,才能以完全有根据的方式指定“正确”的问题。即使只有概率不确定性也缺乏足够的认识论谦逊;正如 Jeannette Wing [3] 所建议的那样,我们的目标是构建定义概率模型类的系统描述。正确性意味着对于类中的所有模型,部署导致有害结果的概率都受社会风险标准的约束。