生成式人工智能 (AI) 在学术领域的作用日益突出,为创造力和创新提供了机会,需要谨慎关注。随着大学应对人工智能的复杂性,它们需要确保其使用符合其学术目标、道德承诺和法律要求。在研究和写作中使用生成式人工智能必须符合明确的道德准则,以确保学术诚信。以下准则为研究生负责任地使用生成式人工智能工具提供了一般指导,并参考了阿尔伯塔大学的多项机构政策和法规。打算在论文研究和写作中使用生成式人工智能工具的研究生必须事先获得其导师和监督委员会成员的许可和批准。他们必须在论文前言和研究成果的任何出版物中透明地披露生成式人工智能工具和技术的使用情况,以确保学术诚信。研究生课程和单位可能会制定研究生必须遵守的学科或学科特定准则。
GenAI 的技术进步反映在专利活动的急剧增加上。在过去 10 年中,GenAI 的专利家族数量从 2014 年的仅 733 个增长到 2023 年的 14,000 多个。自 2017 年推出 Transformer(大型语言模型背后的深度神经网络架构已成为 GenAI 的代名词)以来,GenAI 专利数量增长了 800% 以上。在同一时期,科学出版物的数量增长更多,从 2014 年的仅 116 篇增加到 2023 年的 34,000 多篇。仅在 2023 年,就发表了超过 25% 的 GenAI 专利和超过 45% 的 GenAI 科学论文。
本文利用非常规数据,包括网站流量数据和 Google Trends,揭示了各国个人对生成人工智能工具的实时使用模式。本文还研究了推动生成人工智能的采用及其对在线活动的早期影响的国家层面因素。截至 2024 年 3 月,排名前 40 的生成人工智能工具每月吸引数亿用户的近 30 亿次访问。仅 ChatGPT 就占据了 82.5% 的流量,但仅达到谷歌每月访问量的八分之一。生成人工智能用户偏向年轻、受教育程度高和男性,尤其是对于视频生成工具,其使用模式强烈表明与生产力相关的活动。生成人工智能在全球范围内取得了前所未有的快速发展
ChatGPT 模型使用预训练过程,该过程涉及预测缺失单词或单词序列中的下一个单词。此过程允许模型学习自然文本中单词之间的底层结构和关系,从而使其能够对提示生成连贯且像人类一样的响应。为了对 GPT 进行微调以用于像 ChatGPT 这样的对话聊天机器人任务,该模型随后在大量对话文本数据集上进行训练,其中输入输出对代表常见的对话轮次。该模型经过微调,可根据其对训练数据中的模式和关系的理解来预测对给定输入提示的最可能响应。
OpenAI 于 2022 年 11 月启动的 ChatGPT 引发了关于人工智能对高等教育影响的重要讨论。当学生使用它来撰写论文时,它打破了现状。与谷歌的 Gemini 和微软的 Copilot 一样,OpenAI 的 ChatGPT 是能够模仿人类对话的强大大型语言模型 (LLM) 的典型示例。大型语言模型在识别语言模式和预测上下文单词方面表现出色,并且擅长以最少的用户输入生成连贯且相关的文本响应。通过利用其广泛的训练语言模式数据库,大型语言模型可以提供准确反映用户输入上下文的生成文本响应。凭借对语言的掌握,他们可以创作创意诗歌,撰写全面连贯的文章,深入分析主题,并有说服力地提出论点。
这是一份动态文档;与生成式 AI 或 LLM 的使用相关的新问题会定期被发现和改进。当组织内即将或已经开始使用生成式 AI 工具时,时间可能至关重要,而全面的培训计划可能不可行。在这种情况下,关键部门和个人必须与所有员工合作,了解不同团队可能希望如何以及为何使用这些工具,并至少组建一个跨职能团队(例如隐私和合规、人力资源、法律等)汇编并清楚地传达可接受和禁止用途的调查、未具体说明的任何用途的指定联系点以及可能提供更多细节或清晰度的任何未来行动的时间表。
保护机密数据:根据大学的数据分类政策和适当使用政策,没有任何生成式 AI 工具符合大学的安全、隐私和合规标准,无法处理除公开信息之外的任何内容。根据大学的学生记录政策,您绝不应将任何受家庭教育权利和隐私法案 (FERPA) 保护的机构数据或信息输入生成式 AI 工具或服务中。
考虑可能的选择,制定并向客户建议适当的行动方案(守则 3.3-1(a)); 根据每个事项的需要,通过应用适当的技能,包括法律研究、分析和解决问题,实施所选的行动方案(守则 3.3-1(c)(i)、(ii) 和 (viii)); 在事项的所有相关阶段及时有效地沟通(守则 3.3-1(d)); 认真、勤勉、及时且具有成本效益地履行所有职能(守则 3.3-1(e)); 将智力、判断和审议运用到所有职能中(守则 3.3-1(f)); 追求适当的专业发展,以保持和提高法律知识和技能(守则 3.3-1(j));以及 以其他方式适应不断变化的专业要求、标准、技术和实践(守则 3.3-1(k))。