这句话原本是关于科学家在电影《侏罗纪公园》中创造食人恐龙的,但它同样适用于企业对人工智能的使用。人工智能(“AI”)对许多人来说是一个难以接近的话题。大数据、机器学习、神经网络、算法、深度学习和物联网——有太多的技术流行语,很难全部理解。2 媒体对人工智能的描述对提高公众对人工智能的理解帮助不大。媒体通常将人工智能描绘成能够回答任何问题的人工智能,或者呈现一个人工智能试图摧毁人类的反乌托邦社会。3 重要的是要认识到人工智能的现实及其法律和社会影响,即使人工智能难以捉摸的能力可能会模糊虚构与现实之间的界限。4 从最简单的意义上讲,人工智能就是机器将输入的数据转换成可识别模式和/或然后使用这些模式制定决策的能力。5 这些决策可以是任何事情,包括如何穿越环境、使用什么字体来最大化销售额,甚至是预测明天的天气这样复杂的事情。
私营公司对面部图像的收集在全球范围内呈上升趋势,这对经济发展和隐私法都具有重大影响。本评论以面部识别技术公司 Clearview AI 和视频共享应用程序 TikTok 为案例研究,以研究这些做法引发的问题。在总结联合国 (U.N.) 和欧盟 (E.U.) 建立的相关法律制度后,将欧盟隐私制度应用于 TikTok 最新的隐私政策。该评论最后提出更新欧盟和联合国隐私制度,以更有效地规范 TikTok 的数据收集和类似的商业行为。这些拟议的更新包括将所有面部图像视为欧盟制度下的特殊类别生物特征数据,并修改联合国制度以专门涵盖数字隐私。
即使其他证据规则表明证据具有可采性,规则 403 也赋予法院排除证据的自由裁量权。建立这种自由裁量权隐含着这样的假设:真理和正义不能仅靠语言来捕捉,而需要人类情感的介入。在更世俗的层面上,规则 403 承认,基于过去情况的明确规则有时在新的和意想不到的环境中不起作用。因此,规则 403 的目的是通过司法灵活性来提高准确性和公平性。30 可采性规则本身要求证据结果不灵活,因此未能考虑到案件具体情况引起的任何问题。3 1 此外,希望排除 EEOC 裁定的当事人可能认为,本身规则剥夺了他们就陪审团决策中可能至关重要的问题发表意见的机会。32
32 人工智能发明人项目 https://www.cipco.uzh.ch/dam/jcr:1a3a7015-02c8-4b38-954b-961ef12308d0/Pr%C3%A4sentation%20Abbott_CIPCO%20Online%20Workshop%2011.06.2021.pdf (最后访问时间为 2022 年 2 月 13 日)。33 同上。34 美国专利法简史 (2014 年 5 月 7 日),https://perma.cc/C75E-Q466 (最后访问时间为 2022 年 2 月 11 日)。35 美国宪法。艺术。I,§ 8。36 美国专利法简史(2014 年 5 月 7 日),https://perma.cc/C75E-Q466(上次访问时间为 2022 年 2 月 11 日)。37 同上。38 同上。39 同上。
花旗集团。多德-弗兰克法案并不采用破产或救助,而是提供联邦存款保险公司 (FDIC) 接管,相当于进行受控清算——对破产公司进行清盘,而不是重组或救助。与破产的主要区别在于,联邦存款保险公司现在可以提供运营资本,使公司在清算前维持运转,以防止雷曼式突然倒闭带来的冲击波。无担保债权人将承担资产价值低于公司负债的损失,股东将最后获得偿付。但多德-弗兰克法案不仅用联邦存款保险公司接管取代破产,而且还使接管成为帮助陷入困境的大型金融公司的唯一途径。该立法既剥夺了美联储向特定公司发放紧急贷款的权力,也取消了联邦存款保险公司的紧急贷款担保权。多德-弗兰克法案还禁止任何赋予财政部向金融部门注资权力的措施,例如问题资产救助计划 (TARP) II。
摘要 摘要 在整个互联网中,各种组织已经部署了许多聊天机器人来回答客户提出的问题。近年来,我们一直在为青少年举办网络安全夏令营。由于 COVID-19,我们的线下夏令营已改为虚拟夏令营。因此,我们决定开发一个聊天机器人,以减少电子邮件和电话的数量,以及根据我们从以前的夏令营收到的问题一遍又一遍地回答相同或类似问题的人工负担。本文介绍了我们使用 Google Dialogflow 平台为中学和高中网络安全夏令营实施 AI 聊天机器人的实践经验。我们选择了一些常见问题来构建我们的聊天机器人。我们认为,与其直接在网站上发布许多常见问题(许多人可能对此不感兴趣),不如使用聊天机器人,以互动的方式回答任何用户的疑问或询问。我们对聊天机器人的初步评估表明,聊天机器人受到了使用者的好评。29 名学生在使用聊天机器人后填写了一份简短的问卷。79.5% 的学生同意聊天机器人易于使用;89.6% 的学生同意聊天机器人的界面用户友好;89.7% 的学生认为聊天机器人效果很好,聊天机器人非常有帮助,帮助他们回答了一些营地或网络相关的问题;75.9% 的学生喜欢使用聊天机器人;总体而言,82.8% 的学生对聊天机器人感到满意。我们相信聊天机器人比问答代理更有用,它可以进一步发展成为教师和学生的高级虚拟助手。至于未来的工作,我们有兴趣将聊天机器人扩展到网络安全领域的一般问题,以便聊天机器人可以为更多与网络安全知识相关的问题提供标准化答案。
详细概述了美国不方便法院原则的兴起,并分析了该领域目前的具体发展,包括最近对 Piper Aircraft Co. v. Reyno 的判决。1 第二部分进一步考虑了美国境内根据 28 U.S.C. 进行美国境内审判地转移的平行发展。§ 1404(a),及其对不方便法院原则的影响。然后,第二部分最后分析了该原则的现状及其在美国的适用性。接下来,第三部分探讨了英国的不方便法院原则,包括其历史和教条发展,并批判性地分析了上议院在 Spiliada Maritime Corp. v. Cansulex .Ltd.2 案中的裁决的影响。第四部分和第五部分指出了美国和英国在涉及德国当事人的案件中实际应用不方便法院原则的差异。第五部分还介绍了海牙公约
利阿贺拿是主赐予利希的通讯设备,用于确定适当的行进方向。该设备包含两个指针,其中只有一个指针是提供方向信息的必需指针。但利阿贺拿的功能不仅仅是一个简单的指南针,因为它还需要信念才能正确操作。由于单个指针始终“指向”某个方向,因此需要额外的指针来指示是否可以依赖第一个指针。第二个指针的拟议用途符合现代容错计算机系统中使用的完善的工程原理,称为“投票”,其中比较两个相同的过程状态,如果它们相同,则宣布正确,如果它们不同,则宣布不正确。因此,当第二个指针与第一个指针重合时,表示操作正确,而当第二个指针正交时,表示非操作。
利阿贺拿是主赐给李海的通讯设备,用来决定正确的行进方向。这个设备有两个指针,只有一个指针是必要的,用来提供方向信息。但利阿贺拿的功能不只是一个简单的指南针,因为它还需要信心才能正确操作。由于一个指针总是“指向”某个方向,所以需要额外的指针来指示第一个指针是否可以依赖。第二个指针的这个拟议用途符合现代容错计算机系统中一种成熟的工程原理,称为“投票”,其中比较两个相同的过程状态,如果它们相同,则宣布正确,如果它们不同,则宣布不正确。因此,当第二个指针与第一个指针重合时,表示操作正确,而当它们正交时,表示未操作。
自 2010 年以来,人类准备水平的概念一直在发展中,作为现有技术准备水平 (TRL) 量表的可能补充。其目的是提供一种机制来解决与系统中的人为因素相关的安全和性能风险,该系统与系统工程界已经熟悉的 TRL 结构相似。新墨西哥州阿尔伯克基的桑迪亚国家实验室于 2015 年发起了一项研究,以评估将人类准备规划纳入桑迪亚流程和产品的选项。研究小组收集了大部分基线评估数据,并进行了访谈,以了解员工对四种不同人类准备规划选项的看法。初步结果表明,所有四种选项都可能发挥重要作用,具体取决于所执行的工作类型和产品开发阶段。完成数据收集后,将在一个或多个测试案例中评估已确定解决方案的实用性。