! “# $ % !"#%& # ' ( # ) !"#%& * $ + , - . ! # /0 !, . 1 . # )
私营公司对面部图像的收集在全球范围内呈上升趋势,这对经济发展和隐私法都具有重大影响。本评论以面部识别技术公司 Clearview AI 和视频共享应用程序 TikTok 为案例研究,以研究这些做法引发的问题。在总结联合国 (U.N.) 和欧盟 (E.U.) 建立的相关法律制度后,将欧盟隐私制度应用于 TikTok 最新的隐私政策。该评论最后提出更新欧盟和联合国隐私制度,以更有效地规范 TikTok 的数据收集和类似的商业行为。这些拟议的更新包括将所有面部图像视为欧盟制度下的特殊类别生物特征数据,并修改联合国制度以专门涵盖数字隐私。
Xg Tbia H d_ ʥ +H\ :DWVRQ³&DQ , 6XH
摘要 摘要:第二次世界大战期间,马里兰州里奇营在情报士兵的训练中发挥了重要作用。这个营地是众多向士兵传授在战场上收集情报的各种方法的营地之一。从航空摄影到囚犯审讯,士兵们学习了收集信息、理解信息以及根据他们对敌军位置和行动的了解提出计划所需的技能。士兵们在完成六个月的强化训练并被派往国外协助战争后,这些技能将接受考验。尽管里奇营是战争努力的重要组成部分,但关于该营地及其士兵在战争期间的活动的文献并不多。本文将通过探索在该营地接受训练的三名士兵的历程来了解该营地在第二次世界大战期间所发挥的作用:卡尔·霍农、威廉·H·比洛斯和埃德蒙·温斯莱特。
这会是我们写的最后一篇社论吗?或者说,会不会是我们写的最后一篇社论?根据本期特刊中提出的观点,人工智能完全接管期刊出版流程是完全有可能的,从人工智能生成的评论开始,正如我们的一些撰稿人所讨论的那样,直到实现完全由人工智能驱动的期刊,包括社论。但是,您将在本期特刊中遇到的其他观点则表明,我们作为编辑的角色仍然至关重要,提出的各种理由表明,在学术期刊文章的制作、评估和出版的各个方面保持高水平的人类参与非常重要。但在质疑我们在期刊生态系统中的角色时,我们提出了一个基本问题,即未来的知识生产应该采取何种形式,这是我们的许多撰稿人所探讨的一个基本问题。您将要阅读的其他观点探讨了作者、编辑、审稿人、出版商和最终读者的当前角色,这些角色受到现有制度动态的支持,而这些动态本身可能会让位于新的认识论基础和以新方式产生、验证和共享的知识单元。变革之风正在吹拂,我们最好开始弄清楚如何扬帆起航。
* Samuel D. Hodge Jr. 是天普大学的教授,教授法律、解剖学和法医学。他撰写了 700 多篇出版物、六本医学教材和两本法律书籍。他还是争议解决研究所的调解员和中立仲裁员,以及医学和法律事务的全国公共演讲者。Hodge 教授撰写了多篇关于人工智能在不同背景下的应用的文章。 1 生成式人工智能可能会从根本上改变法律实践,THE E CONOMIST(2023 年 6 月 6 日),https://www.economist.com/business/2023/06/06/generative-ai-could-radically-alter-the-practice-of-law?utm_medium=cpc.adword.pd&utm_source=google&ppccampaignID=17210591673&ppcadID=&utm_campaign=a.22brand_pmax&utm_content=conversion.direct-response.anonymous&gad_source=1&gclid=CjwKCAiAhJWsBhAaEiw AmrNyq5G4kIw31ce8BecM- YHV5LS1gjL4H5wxutYCAhenX_4GyMcVdSzNZxoCQLcQAvD_BwE &gclsrc=aw.ds。
摘要 — 生成式人工智能技术的兴起给版权法带来了前所未有的挑战,特别是在人工智能训练过程中对受版权保护作品的合理使用方面。生成式人工智能工具(例如 ChatGPT)在大量数据集上进行训练,这些数据集通常包含受版权保护的材料,通常未经作者同意或使用补偿。这种广泛的未经授权的使用导致了法律纠纷,原告声称在训练人工智能模型中使用受保护的文本构成侵犯版权行为。本说明研究了合理使用原则在生成式人工智能中的应用,分析了四个法定因素中的每一个,以证明生成式人工智能对受版权保护内容的商业复制不具有变革性,损害了原创作品的市场,不应被视为合理使用。
人工智能 (AI) 系统设计中的道德责任 David K. McGraw 1 摘要 本文旨在概述人工智能 (AI) 系统设计者的责任所涉及的道德问题。首先,作者深入探讨了这一责任的哲学基础,研究了各种伦理理论,以了解个人对他人和社会的道德义务。作者认为,技术设计者有责任考虑其创作的更广泛社会影响。随后,作者仔细研究了人工智能系统与传统技术相比是否具有独特的道德问题这一基本问题,指出了复杂性、不透明性、自主性、不可预测性、不确定性以及重大社会影响的可能性等因素,并认为人工智能算法的独特特征可能会产生新的道德责任类别。最后,本文提出了一个框架和策略,用于对人工智能设计师的责任进行伦理考虑。关键词:人工智能(AI)伦理、负责任的人工智能设计、人工智能伦理框架、技术哲学 简介 近年来,人工智能(AI)引起了公众的关注,人们对这项快速发展的技术的变革潜力既感到兴奋又感到担忧。随着人工智能系统变得越来越复杂并融入我们的日常生活,人们越来越认识到,这些技术的开发和部署引发了深刻的伦理问题。突然之间,“人工智能伦理”话题成为一个热门话题,引起了政策制定者、行业领袖、学术研究人员和普通公众的关注。这种广泛关注的背后是人们对人工智能变得越来越普及可能产生的社会影响和意想不到的后果的共同担忧。那些创造、实施和使用这些强大且具有潜在破坏性的技术工具的人的道德义务是什么?这是围绕人工智能的人类伦理的新兴讨论的核心问题。在《国际责任期刊》(IJR)的创刊号上,创始主编 Terry Beitzel 解释说,“责任”一词可以涵盖从道德到法律概念的一系列含义。这次讨论的核心是道德的基本问题。然而,Beitzel 总结说,IJR 的重点大致是“由‘谁或什么负责为谁做什么以及为什么?’ (2017, p. 4) 这个问题定义和激发的各种复杂问题”。本文就该问题展开研究,但缩小了这一更广泛范围,以探讨与人工智能 (AI) 系统相关的具体道德责任。Rachels 将“最低限度的道德概念”定义为“至少,努力用理性指导一个人的行为——即
自动决策系统(“ADM”),无论是采用人工智能、机器学习还是其他算法过程,在现代生活中都已无处不在,但它们的使用通常不为社会所注意或看不见。目前,没有联邦法律要求在使用 ADM 收集个人数据、评估个人数据或对其生活做出决定时向个人发出通知或披露信息。这对于雇佣关系来说尤其令人担忧,因为通知和透明度对于个人隐私至关重要,而秘密使用 ADM 系统会使申请人和雇员无法了解雇主的决策过程并根据适用的反歧视法寻求补救。一些州和地方政府已经认识到这种危险,并已采取初步措施保护申请人和雇员,而欧盟已提出一项全面的人工智能法规,将管理此类系统在那里开发的所有阶段。本文提出了一种基于通知和透明度的监管体系,该体系考虑到管理雇佣关系的现有法律并对这些法律进行补充,以建立一个促进申请人和雇员权利的法律框架,同时也允许灵活地开发有利于雇员、雇主和社会的 ADM 系统。
美国政府擅长采取军事行动、非动能信息行动和刑事起诉等硬性反恐措施。然而,在反恐方面,《第一修正案》阻碍了美国政府防止和遏制伊斯兰国等恐怖组织的招募工作,这些组织拥有专业级的社交媒体营销部门。但是,反恐工作并不一定只在政府内部进行。社交媒体平台可以用于较软的反恐方法,它们必须加紧努力,打击其平台上的恐怖分子招募。事实上,一些社交媒体平台在停用恐怖分子账户方面取得了巨大进步,但它们必须继续发展以打击和减少激进化。本文提出,人工智能可以帮助政府和私营部门打击恐怖分子和恐怖分子招募。最后,本文建议政府使用人工智能来进一步加强其硬反恐工作,社交媒体平台应该使用人工智能来增强其软反恐方法。
