人工智能正在改变我们的世界,而我们尚未完全理解或利用其力量。这是一场席卷一切的旋风。ChatGPT 等法学硕士的出现以及人们对其能力的认识不断提高,正在挑战许多行业,包括学术出版业。内容创作的潜在好处显而易见,例如有机会克服语言障碍。然而,也存在危害:法学硕士编写的文本可能不准确,参考文献可能不可靠。关于人工智能对内容负责的程度、所制作内容的原创性和质量以及偏见、不当行为和错误信息的可能性,仍然存在疑问。
摘要 当 AI 驱动的司法访问 (A2J) 系统中使用的大型语言模型 (LLM) 工具的训练数据集不能反映其社区时,它们就会经历系统性偏见。这种偏见可以说表明,LLM 应该看到其法律基础的有效性在司法管辖权方面受到质疑。由于 ChatGPT 有能力通过美国律师资格考试,这为 LLM 工具提供了希望,即可以在普通人的指导下训练 LLM 工具来执行法律专业人员的工作,从而为服务不足的诉讼当事人带来好处。然而,在审查数据集来源时,在遵守法律主权、法治和结果质量方面出现了重大挑战。虽然隐私和数据安全通常会将数据主权集中在数据保存的地理位置,但 A2J 社区也应该注意对 LLM 训练数据集的司法管辖区外的贡献,这些贡献质疑普遍接受的法律主权规范,并因此扭曲其法律应用,使其超出受影响社区的可接受范围。为了更好地代表 LLM 工具所带来的挑战,提出了一种新颖的四分信息主权理论,涵盖了人口、领土、边界承认和监管等问题。因此,本文将研究并质疑 LLM 是 A2J 的推动者的说法。讨论将涉及如何通过短视的数据主权来避免司法管辖权挑战(例如传统的法律主权),从而规避通常表现为偏见的训练数据偏差的风险,然后再考虑司法管辖权定义的训练数据限制如何影响结果质量和重新制定律师在法律程序中的传统角色。最后,我们将根据当代的关注和诉讼,探讨未能充分应对这些深远挑战(影响从社区到宪法的各个层面)的危险。 关键词 1 系统法律基础的验证;法学硕士;大型语言模型;主权;法治;管辖权;偏见;人工智能风险;采用的语用学;自我代理的诉讼当事人;小组讨论;引导式讨论;正在进行中的“人工智能司法途径研讨会”(AI4AJ 2023),2023 年 6 月 19 日,葡萄牙布拉加 chris.draper@meidh.com;nicky.gillibrand@ucdconnect.ie
同理心是实现亲社会行为的基石,可以通过在故事中分享个人经历来唤起。虽然同理心受到叙事内容的影响,但直觉上,人们也会通过叙事风格对故事的讲述方式做出反应。然而,同理心和叙事风格之间的关系尚未完全了解。在这项工作中,我们使用 LLM 和大规模众包研究,对风格和同理心之间的关系进行了实证检验和量化。我们引入了一种基于理论的新颖分类法 H EART(人类同理心和叙事分类法),它描述了可以与故事叙述者产生同理心的叙事风格元素。我们确定了 LLM 在从 H EART 中提取叙事元素方面的表现,表明使用我们的分类法进行提示可以产生合理的、人类级别的注释,超出了以前基于词典的方法所能达到的范围。为了展示我们分类法的实证应用,我们通过一项大规模众包研究收集了故事共情判断数据集,参与者人数为 N = 2,624 人。1 我们表明,通过 LLM 提取的叙事元素(尤其是情感生动性和情节量)可以阐明叙事风格培养对个人故事的共情的途径。我们的工作表明,此类模型可用于叙事分析,从而获得以人为本的社会和行为洞察。
然而,这些方法可能在未经告知、无人监督和不加批判的情况下被滥用,这引起了科学界及其他领域的许多担忧。事实上,尽管人工智能和法学硕士 (LLM) 在科学生产中具有诸多潜在优势,但也存在着严峻的挑战和道德问题需要解决。例如,在承认科学论文和技术报告的人工作者身份方面,人们已经提出了担忧,以及将法学硕士撰写的手稿冒充为真正科学家撰写的文本的风险(https://www.nature. com/articles/d41586-023-00107-z)。另一个大问题是,过于简单地使用人工智能和法学硕士工具可能会导致信息有偏见、不可靠甚至完全错误(https://www.nature.com/articles/d41586-023-00191-1)。例如,在撰写这篇社论时,ChatGPT 根据这篇社论作者的要求自动提供的所有关于森林科学中人工智能和自然语言处理模型的先前研究的参考资料实际上在文献中都不存在。建议的(错误)参考资料甚至包括一个 DOI 链接,该链接系统地指向实际上标题和作者完全不同并且与特定查询和研究主题完全无关的论文。
拟人化,即把类似人类的特征赋予非人类实体的倾向,在许多社会背景下都很普遍——儿童将玩具拟人化,成人将品牌拟人化。它在科学上也是一个多功能工具,行为心理学和进化生物学一丝不苟地记录了它的后果。随着人工智能系统的广泛采用,以及通过对齐技术、人类声音和化身使其变得像人类的推动,用户将其拟人化的倾向显著增加。我们采用二元方法来理解这种现象,使用大型语言模型 (LLM),通过研究 (1) 客观的法律含义,通过最近的人工智能权利法案蓝图的视角进行分析,以及 (2) 定制和拟人化的微妙心理方面。我们发现,针对不同用户群定制的拟人化法学硕士违反了立法蓝图中的多项规定,并引发了法人资格的混乱。此外,我们指出,法学硕士的拟人化会影响其对用户的影响,从而产生操纵和负面影响的可能性。由于法学硕士针对儿童和患者等弱势群体进行了超个性化,我们提出了一种保守的策略,谨慎使用拟人化来提高人工智能系统的可信度。
现在判断这将如何影响人工智能还为时过早,也不清楚其对某一特定工作岗位的影响是积极的还是消极的。研究开始强调哪些工作最有可能受到影响而不是消失 (8)。例如,图像识别等分类任务可以用人工智能来完成,这将影响那些工作涉及分类任务的工作者,如放射科医生 (7)。最近有研究表明,生成式人工智能 (特别是法学硕士) 和非生成式人工智能之间的差异 [如 (7) 所述],数百万个工作岗位可能会受到法学硕士的影响。值得注意的是,这些研究强调“影响”并不意味着“取代”。对于许多工作而言,将工作流程的某些方面自动化可能会提高生产率、从事该工作的员工的工资以及雇用该工作的员工数量。
欢迎词 8 Joseph Brennan,学生副院长 8 Isaiah Gonzales,SBA 主席 9 学术日历 10 机构资源 13 部门信息 14 咨询服务 19 公证人 25 联邦勤工俭学工资表 33 学生组织 34 学术规定 41 I. 简介 42 II. 一般规定 42 III. 法学博士 57 A. 学位要求 57 B. 诊所和实习的资格和要求 67 C. 独立研究项目 69 D. 指导学习 72 E. 成绩和学术标准 74 IV.硕士学位课程 78 V. 联合学位 101 A. 联合法学博士/硕士学位 101 1. 学位要求 101 2. 联合法学博士/气候与环境政策硕士(MCEP) 102 3. 联合法学博士/动物保护政策硕士(MAPP) 102 4. 联合法学博士/环境法与政策硕士(MELP) 102 5. 联合法学博士/能源监管与法律硕士(MERL) 102 6. 联合法学博士/食品与农业法硕士(MFALP) 102 7. 联合法学博士/恢复性司法文学硕士(MARJ) 102 8. 联合法学博士/公共政策硕士(MPP) 102 B. 联合法学博士/法学硕士学位 103 1. 学位要求 103 2. 联合法学博士/法学硕士环境法 103 3. 联合法学博士/法学硕士能源法 103 4. 食品与农业法联合法学博士/法学硕士 104 5. 动物法联合法学博士/法学硕士 104 VI. 双学位 – 法学博士项目 104 VII. 双学位 MELP 项目 110
人工智能工具融入学术工作,给学生和教授提出了重要的问题。学生应该如何使用这些工具?教授应该如何应对这些工具的出现?可以实施哪些政策,以在保持学术诚信的同时充分利用颠覆性技术?为了探讨这些问题,我们最近与 ESCP 商学院柏林校区的学生组织了一场名为 Prompt-o-thon 的活动。该活动展示了人工智能的潜力,并讨论了其在学术工作中的应用。讨论包括在学术工作中使用法学硕士和其他人工智能工具的好处和挑战,以及探索确保合乎道德和负责任地使用法学硕士的潜在政策。鉴于这些工具的不断发展,大学将需要调整其教学和评估方法,以跟上学术工作不断变化的形势。