研究方向:本报告概述了具有高智力价值和更广泛影响的 IR-GenAI 系统的八个研究方向:(1)IR-GenAI 中的评估挑战和需求;(2)从隐性和显性的人为反馈中学习,以解决可能需要推理的复杂问题;(3)理解和建模不断发展的生成式 AI 信息访问系统的用户;(4)解决或缓解 IR-GenAI 新技术带来的社会技术问题的挑战和潜在解决方案;(5)开发个性化 IR-GenAI 系统的方法;(6)在开发 IR-GenAI 方法时扩展计算、数据和人力时的效率考虑;(7)信息检索在增强 AI 代理中的作用;(8)专门用于信息访问和发现的基础模型。
• 鼓励学生利用技术,包括生成式 AI 工具,来加深对课程材料的理解。• 学生可以在本课程中使用人工智能工具(包括生成式 AI)作为学习辅助工具或帮助完成作业。但是,学生最终要对他们提交的作业负责。• 学生必须将人工智能工具生成的任何内容以及用于生成内容的提示作为作业的附录提交。• 人工智能工具生成的任何内容都必须适当引用。许多发布标准引用格式的组织现在提供有关引用生成式 AI 的信息(例如 MLA:https://style.mla.org/citing-generative-ai/ )。• 学生可以选择在完成本课程的作业时使用生成式 AI 工具;此用途必须记录在每个作业的附录中。文档应包括使用了哪些工具、如何使用它们以及如何将 AI 的结果纳入提交的作品中。
● 持续监控 c 和维护 a、b、d:随着新数据的出现,持续监控人工智能的性能,跟踪准确性、公平性和安全性等关键指标,以确保算法是最新的。定期使用最新的真实数据重新验证系统,以检查性能漂移。如果监控发现性能下降,及时重新训练或优化模型。由于在决策环境中赋予特定利益相关者特定责任时,问责制的构建效果最好,因此卫生系统应考虑明确所有权或委派监控、修改、重新训练和/或停用算法的责任。
另一方面,威胁行为者也在越来越多地利用这些新工具的力量,尤其是设计和改进更难检测的恶意软件以及增强其网络钓鱼技术。具体来说,生成式人工智能将使欺骗行为更难被发现,因为它允许威胁行为者创建更加个性化的通信,并利用音频和视频形式的深度伪造。举一个例子,威胁行为者现在可以简单地识别公司首席执行官的现有在线视频或音频文件,利用生成式人工智能应用程序创建克隆首席执行官声音的音频消息,然后使用它对毫无防备的公司员工发起社会工程攻击。
LLM 代表了最先进的技术,在性能和语言质量方面超越了其他当前的 T2T 模型。因此,它们被认为是 T2T 模型考察的代表。LLM 是强大的神经网络,最多可拥有一万亿个参数。它们在大量文本语料库上进行训练,专门用于处理和生成文本。LLM 的训练通常可分为两个阶段:首先,进行无监督训练,使 LLM 对文本有大致的了解。接下来是微调,使 LLM 专门用于特定任务(NIST,2024)。文本是基于随机相关性生成的;概率分布用于预测在给定上下文中接下来可能出现哪个字符、单词或单词序列。LLM 的输出通常表现出很高的语言质量,因此通常与人类书写的文本难以区分。
“我是一名人力资源沟通专家,拥有五年多的经验。在过去三年中,我一直负责 Hartley 公司的人力资源沟通工作。在这个职位上,我管理一个由三人组成的团队,我们负责向 8,000 名员工传达所有福利和政策。在此职位之前,我的职业生涯始于 General Financial 的人力资源协调员,两年间我学到了很多东西。当我的经理调到 Hartley 时,她邀请我一起负责他们的人力资源沟通工作。我很喜欢在 Hartley 的时光,但我开始考虑下一步该怎么做,因为目前的职位没有太多的成长空间。在我职业生涯的这个阶段,我觉得我已经准备好将我的技能运用到一个更全球化的组织中,以应对一些新挑战,这就是我如此感兴趣的原因这个职位。”这是我的简历:{resume}
可访问性、公平性、风险和道德:特定学生可能更熟悉生成式 AI 工具。根据 2023 年 5 月的皮尤研究中心的一项研究,家庭收入较高且受过正规教育的美国人更有可能了解 ChatGPT,而听说过 ChatGPT 的白人成年人使用聊天机器人进行娱乐、工作或教育的可能性始终低于亚裔、西班牙裔或黑人同龄人。有些人将这项技术视为弥补不平等的一种方式。目前,许多生成式 AI 工具都是免费的,但这些工具的更强大版本开始收取订阅费。有一些风险和实际预防措施需要牢记并与学生讨论:拥有这些工具的公司会收集信息,因此您和您的学生不应输入机密信息。查看您使用或建议作为课堂材料的任何工具的隐私政策。大型语言模型是根据来自互联网的信息进行训练的,因此它们的输出包含存在于这些数据中的误解、偏见、暴力、种族主义、性别歧视等。大型语言模型对知识产权的使用存在争议;有关侵犯知识产权的诉讼正在审理中。生成式人工智能会编造(产生)不存在但听起来合理的信息。生成式人工智能也会受到人类书写提示的偏见的影响。生成式人工智能工具不是搜索引擎;输出需要检查。并非所有生成式人工智能工具都符合《美国残疾人法案》定义的无障碍要求。人工智能公司因不公平的劳工行为而受到批评。
有关诉讼中 AI 的更多信息,请参阅《评估 ChatGPT 授权动议的法律伦理》、《诉讼律师应谨慎对待 AI 工具》和《为什么法律部门应该拥抱 AI 的工作潜力》。在诉讼中使用生成式 AI 之前的注意事项
1. 始终坚持学术诚信和诚实的原则——有关学术诚信的一般信息和资源可在学术诚信网页上找到。2. 始终遵守大学的学生行为准则。3. 始终尊重隐私和保密性,避免与生成式人工智能工具共享敏感的个人信息。4. 请记住,生成式人工智能并不总是可靠的。例如,它可能提供虚假或过时的信息或虚假的参考资料,也可能是故意误导信息的来源。5. 始终批判性地评估使用人工智能生成的响应。使用已知可靠的来源来验证信息。如果您对所生成内容的可靠性有疑问,请咨询您的讲师或导师。6. 生成式人工智能工具应用于补充学习和研究,而不是代替通过 Moodle、Talis 阅读列表和图书馆提供的可靠学术资源。 7. 生成式人工智能工具在学术工作中有很多有用的方法,包括头脑风暴、写作任务的初稿、编辑写作任务并提供写作反馈、为文章提出结构建议、使用内容制作演示文稿、为演示文稿和视频制作音乐或制作图像来说明你的工作。 8. 你的讲师会告诉你,在论文或特定评估中,是否允许、要求或禁止使用生成式人工智能工具。在哪里允许
● 引用您的来源。截至本文撰写时,生成式人工智能因未提供适当的引用来说明其在构建问题答案时从何处借用信息而臭名昭著。如果您使用生成式人工智能,则应尽可能引用原始来源,或者仅引用您在给定日期使用了给定的生成式人工智能引擎。同样,如果您使用人工智能生成图像,则应在图像标签中引用这一点。这是学术界的传统做法,既不应该令人惊讶也不应该造成不便,而且不将他人的工作归功于自己(即剽窃)也是合乎道德的。● 灵感和总结。使用生成式人工智能起草文档或将文档从 3 页缩短到 1 页可以节省大量时间。鉴于该技术目前容易出现错误和偏见,您应该仔细检查由 AI“危险……”(见下文)生成的任何此类材料,并考虑引用您对该技术的使用,如果它对最终产品有重大贡献。● 研究。尝试使用这项技术作为分析或研究工具,同时注意“危险……”(见下文),这对大学和整个社会都非常重要,因为我们正在努力应对一种与我们大多数人习惯的截然不同的技术。请与社区其他成员分享您学到的知识,即使是非正式的。