本报告是在 Vivendi 集团(定义见下文)可能拆分出数家实体的背景下编写的,这些实体预计将分别成为独立上市公司,独立于 Vivendi SE(“Vivendi”)运营,Vivendi SE 是一家受法国法律管辖并在巴黎泛欧交易所上市的欧洲公司(其股票将继续在巴黎泛欧交易所上市),其中包括 Vivendi 的 Havas 业务部门(“Havas 业务”)。为实施这一潜在拆分,Vivendi 或其直接或间接持有股权的任何合并子公司或附属公司(“Vivendi 集团”)所需的交易在本文中统称为“Vivendi 分拆”。 Vivendi 分拆的完成取决于一系列条件的满足,包括但不限于获得法国、荷兰和英国的相关监管部门批准,以及在 2024 年 12 月 9 日左右举行的 Vivendi 股东大会上,Vivendi 股东三分之二 (⅔) 多数票批准 Vivendi 分拆。Havas 无法保证 Vivendi 分拆所需的部分或全部条件将得到满足或及时豁免。如果 Vivendi 分拆的所有条件均得到满足或及时豁免,预计 Havas 将拥有并运营 Havas 业务,并随后进行上市。在这种情况下,Havas 普通股在泛欧交易所阿姆斯特丹的交易预计将于 2024 年 12 月 16 日上午 9:00(CET)开始,最初以“是否交割和何时交割”为基础,Havas 普通股的常规交易预计将于 2024 年 12 月 18 日上午 9:00(CET)开始。Havas 将根据适用法律法规,在适当的时候向市场通报最新情况。
在莱萨夫,我们的研发与创新与我们对可持续未来的愿景相一致,并且我们对我们能够在实现这一愿景中发挥的作用充满信心。可持续发展是我们使命的核心:我们希望提供可持续的和创新的解决方案,使莱萨夫成为微生物、生物技术和生物过程领域的领导者。在莱萨夫,研发与创新由我们先驱者的热情和真正的投资雄心驱动,特别是在设备和工程方面。将于 2022 年在法国北部的马尔克昂巴勒尔镇开设的莱萨夫生物科技园,已被证明是卓越的创新助推器。位于莱萨夫生物科技园内的莱萨夫生物科技研究所 (LIST) 也已扩展到旧金山和波士顿这两个生物技术领域的先驱城市。
* Eugene L.和Barbara A. Bernard知识产权和技术法教授,乔治华盛顿大学法学院。感谢JP Schnabel和Alexa Adalian的出色研究帮助。我们还感谢以下人们对本文早期草案的出色反馈:丽贝卡·克鲁托夫(Rebecca Crotof),本·格林(Ben Green),阿齐兹·霍克(Aziz Huq),玛格特·卡明斯基(Margot Kaminski),詹姆斯·劳(James Lau),迈克尔·里奇(Michael Risch)和艾丽西亚·索洛·尼德曼(Alicia Solow-Niederman)。** Hideyuki Matsumi或Yuki是法律,科学,技术与社会研究小组(LSTS)以及Vrije Universiteit Brussel(VUB)的健康与老化法律实验室(HALL)的研究小组。纽约酒吧的成员。本文是为题为“新AI:Chatgpt和其他新兴技术的法律和道德意义”的研讨会做好了准备的,由Fordham Law Review和Fordham University of Fordham大学神经科学与法律中心共同主持,于2023年11月3日在福特汉姆大学法学院举行。
出勤期望 所有成员的参与对于本课程的成功至关重要。参与包括参与正在进行的讨论和批评、提出处理项目的替代方法、深思熟虑的过程和强烈的职业道德。参与的评估标准包括质量和数量。出勤率也占您成绩的 5%。如果您不出现并且没有参加整个课程,您将被扣分。参与所获得的 5 分是加权的。这门课本质上是非常体验性和实验性的。我们将进行大量的课堂活动,您将获得学分。其中许多活动无法在课外“弥补”。如果你不来,你会错过很多。出勤率和期末成绩之间存在相关性。如果你来上课,你更有可能取得好成绩。学生如果希望请假,他们必须提前向老师提供书面/电子邮件解释缺勤情况和/或在必要时提供适当的证明(例如医生或父母的信),这需要在缺勤后的一周内进行。本课程的出勤率、补考、作业和其他工作的要求与大学政策一致,可在此处找到:https://catalog.ufl.edu/ugrad/current/regulations/info/attendance.aspx • 缺勤可能包括生病、宗教节日和医生预约,以及
名称纪律组织核心团队Cynthia null NESC博士领导LARC Donna DeNna Dempsey技术主管JSC Alan Hobbs博士Alan Hobbs人为因素Arc/ San Jose State University arc/ San Jose State University Foundation(SJSU)Kara Latorella博士LARC Ruthan Lewis Lewis Lewis Dr. Ingalls Industries Terrence Tyson Human Factors ARC Peter Robinson Intelligent Systems ARC Dr. Zhaofeng Huang Reliability and Statistics The Aerospace Corporation Marta Durham Space Flight Operations JSC/KBR Wyle Services, LLC Christopher Niemann Space Flight Operations JSC/KBR Wyle Services, LLC Thera Shear-Tungol Space Flight Operations JSC/KBR Wyle Services, LLC Mr. Andrew Chaikin太空历史学家兼作家Andrew Chaikin LLC学生实习生Megan Dempsey学生实习生佛罗里达州悉尼·休斯·巴尔德(Sydney Hughs Baird Austin Delahunt计划分析师LARC/MTSO BECKI HENDRICKS计划分析师LARC/MTSO评估支持Missy Strickland项目协调员LARC/AMA LINDA BURGESS计划和控制分析师LARC/AMA ERIN MORAN技术编辑LARC/AMA JONAY JONAY CAMPBEL TRARC/AMA JONAY CAMPBELL技术编辑LARC/AS&M
随着人工智能 (AI) 的熟练程度不断提高,AI 用作团队成员而不是工具的潜力正在接近实现。这一进步正在推动对人类团队的适用性或人类自主知识的应用进行新的研究。在当前的研究中,我们通过质量方法来阐述团队的人员组成(团队中的人员数量和人员数量)如何影响团队的情绪、团队流程、团队成员本质状态,以及它们作为团队认知系统的出现。共有 4 6 个团队完成了团队或 K 模拟,在了解他们的团队经验或经验后,我们将进行查看。所有团队均由人类组成;然而,有两个条件是,他们的团队成员都是非同伙代理人。访谈是使用扎根的方法进行分析的,其中揭示了团队组成之间的主题差异。根据我们的研究结果,我们提供了一个新模型来描述早期行动团队如何实现有效的团队过程以及新兴的认知状态。
摘要 本立场文件中的论点以我作为计算机科学和认知科学教员的职业生涯为基础。在过去的三十年里,我们终身学习与设计中心 (L3D) 的研究一直以人为本的设计、智能增强和分布式认知为中心,重点是如何通过社会技术环境超越无辅助的个体人类思维。本次研讨会的主题“人工智能为人类服务还是人类为人工智能服务”并没有简单的答案。我的论点为“人工智能为人类服务”的观点提供了支持。我们的研究活动和我对之前 CoPDA 研讨会的贡献,通过将“生活质量”假设为一个总体设计目标,探讨了有利于人们、社会和人类需求的问题,丰富了关于“人工智能为人类服务”的讨论,而不仅仅是讨论效率和生产力。关键词 1 人类为人工智能,人工智能为人类,生活质量
摘要 人工智能和人类可以真正交流吗?在本文中,在介绍一些背景知识并阐述我的提议(§1-3)之后,我探索了一种回答这个问题的方法,我称之为“心理行为方法论”(§4-5)。该方法论遵循以下三个步骤:首先,阐明哪些心理能力足以进行人类交流(而不是更普遍的交流)。其次,阐明测试行为是否表现出这些能力所需的实验范式。第三,应用或调整这些范式来测试人工智能是否表现出相关行为。如果前两个步骤成功完成,并且人工智能通过测试并得到与人类相似的结果,则证明该人工智能和人类可以真正交流。这种心理行为方法的优点在于我们不需要了解黑盒算法(例如标准深度神经网络)的工作原理。这与我们不需要了解人类大脑的工作原理就可以知道人类可以真正进行交流的事实类似。这种方法也有其缺点,我将讨论其中的一些缺点(§6)。
提高我们对人类如何看待人工智能队友的理解,是我们对人机团队进行全面理解的重要基础。通过扩展认知科学的相关工作,我们提出了一个基于项目反应理论的框架来对这些感知进行建模。我们将这个框架应用于现实世界的实验,其中每个参与者与另一个人或人工智能代理一起在问答环境中工作,反复评估其队友的表现。利用这些实验数据,我们展示了我们的框架在测试人们对人工智能代理和其他人的看法的研究问题中的用途。我们将人工智能队友的心理模型与人类队友的心理模型进行对比,以描述这些心理模型的维度、它们随时间的演变以及参与者自身自我感知的影响。我们的结果表明,人们期望人工智能代理的表现平均而言明显优于其他人类的表现,并且在不同类型的问题中差异较小。最后,我们讨论了这些发现对人机交互的影响。
为什么解释未能提高人类的表现?虽然这是一个很难回答的问题,但现有的结果提供了一些线索。首先,Lai 等人 (2020) 指出了两种不同类型的人工智能学习问题:模拟人类技能与发现新知识 [ 10 ]。他们推测,在后一种情况下,人类可能没有足够强的任务直觉来有效利用简单的解释,从而需要额外的训练 [ 10 ]。即使在模拟任务中,模型也可能会偶然学习到与人类直觉不太吻合的模式,正如 Feng 等人 (2018) 在用于情绪分析的 LSTM 模型中观察到的那样 [ 4 ]。与其他模型相比,解释可能更适合捕捉某些类型的模型错误:Carton 等人 (2019) 发现,解释可能更适合捕捉某些类型的模型错误。 (2020) 观察到它们减少了假阳性,同时增加了假阴性,推测受试者发现推翻被错误识别为有毒的短语比发现模型遗漏的真正有毒的短语更容易 [ 3 ]。