● 引用您的来源。截至本文撰写时,生成式人工智能因未提供适当的引用来说明其在构建问题答案时从何处借用信息而臭名昭著。如果您使用生成式人工智能,则应尽可能引用原始来源,或者仅引用您在给定日期使用了给定的生成式人工智能引擎。同样,如果您使用人工智能生成图像,则应在图像标签中引用这一点。这是学术界的传统做法,既不应该令人惊讶也不应该造成不便,而且不将他人的工作归功于自己(即剽窃)也是合乎道德的。● 灵感和总结。使用生成式人工智能起草文档或将文档从 3 页缩短到 1 页可以节省大量时间。鉴于该技术目前容易出现错误和偏见,您应该仔细检查由 AI“危险……”(见下文)生成的任何此类材料,并考虑引用您对该技术的使用,如果它对最终产品有重大贡献。● 研究。尝试使用这项技术作为分析或研究工具,同时注意“危险……”(见下文),这对大学和整个社会都非常重要,因为我们正在努力应对一种与我们大多数人习惯的截然不同的技术。请与社区其他成员分享您学到的知识,即使是非正式的。
● 与学生进行清晰且频繁的沟通至关重要。在教师的期望和课堂上人工智能的使用方面,学生需要保持透明。对人工智能使用的期望因班级而异。经常讨论教师的期望、课程学习目标以及它们与相关学习活动和学生作业之间的关系(包括使用生成式人工智能),可以增强学生的学习体验,并最大限度地减少误解或误用的机会。 ● 生成式人工智能系统是技术工具。与 Blackboard、Zoom 甚至谷歌搜索等其他技术工具一样,生成式人工智能可用于积极支持严谨的学习并增强引人入胜的学习体验。 ● 生成式人工智能的使用将不断发展。教师和学生应负责任、有目的地、合乎道德地使用生成式人工智能。 ● 如果课程学习目标支持,教师应设计评估和学习活动,让学生可以利用生成式人工智能作为学习的机会。学生可以更好地实现他们的课程学习目标,并更多地了解使用生成式人工智能的好处和挑战。
凯捷是全球领先的企业合作伙伴,通过利用技术的力量帮助企业转型和管理业务。集团每天都在以“通过技术释放人类能量,实现包容和可持续的未来”为目标。凯捷是一家负责任的多元化组织,拥有来自 50 多个国家的近 35 万名团队成员。凭借 55 年的悠久历史和深厚的行业专业知识,凯捷深受客户信赖,能够满足客户从战略、设计到运营的全方位业务需求,而云、数据、人工智能、连接、软件、数字工程和平台等快速发展和创新的世界正是其推动力。集团 2022 年的全球营收为 220 亿欧元。
考虑可能的选择,制定并向客户建议适当的行动方案(守则 3.3-1(a)); 根据每个事项的需要,通过应用适当的技能,包括法律研究、分析和解决问题,实施所选的行动方案(守则 3.3-1(c)(i)、(ii) 和 (viii)); 在事项的所有相关阶段及时有效地沟通(守则 3.3-1(d)); 认真、勤勉、及时且具有成本效益地履行所有职能(守则 3.3-1(e)); 将智力、判断和审议运用到所有职能中(守则 3.3-1(f)); 追求适当的专业发展,以保持和提高法律知识和技能(守则 3.3-1(j));以及 以其他方式适应不断变化的专业要求、标准、技术和实践(守则 3.3-1(k))。
本论文研究了不同的用户界面 (UI) 设计如何影响用户对生成式人工智能 (AI) 工具的信任。我们进行了一项实验,采用绿野仙踪方法测试了三种具有不同 ChatGPT UI 变体的工具的信任级别。来自不同学科的九名志愿大学生参加了实验。我们使用问卷来评估参与者在与每种工具交互后以及与所有工具交互后的信任感知。结果表明,参与者之间的信任水平受到生成式 AI 的 UI 设计的影响,尤其是头像设计和文本字体。尽管共享相同的文本源,但大多数参与者认为 ChatGPT 与其他工具相比最值得信赖。结果还强调了对话界面在与生成式 AI 系统建立信任方面的重要性,参与者表示更喜欢促进自然和引人入胜的交互的界面。该研究强调了 UI 对信任的重大影响,旨在鼓励对生成式 AI 更加谨慎的信任。
可访问性、公平性、风险和道德:特定学生可能更熟悉生成式 AI 工具。根据 2023 年 5 月的皮尤研究中心的一项研究,家庭收入较高且受过正规教育的美国人更有可能了解 ChatGPT,而听说过 ChatGPT 的白人成年人使用聊天机器人进行娱乐、工作或教育的可能性始终低于亚裔、西班牙裔或黑人同龄人。有些人将这项技术视为弥补不平等的一种方式。目前,许多生成式 AI 工具都是免费的,但这些工具的更强大版本开始收取订阅费。有一些风险和实际预防措施需要牢记并与学生讨论:拥有这些工具的公司会收集信息,因此您和您的学生不应输入机密信息。查看您使用或建议作为课堂材料的任何工具的隐私政策。大型语言模型是根据来自互联网的信息进行训练的,因此它们的输出包含存在于这些数据中的误解、偏见、暴力、种族主义、性别歧视等。大型语言模型对知识产权的使用存在争议;有关侵犯知识产权的诉讼正在审理中。生成式人工智能会编造(产生)不存在但听起来合理的信息。生成式人工智能也会受到人类书写提示的偏见的影响。生成式人工智能工具不是搜索引擎;输出需要检查。并非所有生成式人工智能工具都符合《美国残疾人法案》定义的无障碍要求。人工智能公司因不公平的劳工行为而受到批评。
这些材料旨在介绍演讲中涉及的主题。演讲和此处包含的材料并非试图为任何特定情况提供法律建议。必须根据所有相关事实和情况对每种情况进行单独分析。由于与此处主题相关的法律问题的复杂性,律师的参与至关重要。这些材料仅用于教育和讨论目的,未经演讲者明确书面同意,不得在本研讨会之外复制、使用或分发。此处的观点(如果有)不属于演讲者的任何客户或公司。
2024 年 12 月 2 日 — 使用 optimum-intel 软件包转换和优化模型 pip install optimum-intel[openvino]。下载并将模型转换为 OpenVINO IR 格式...
■ 如果您提供最少努力的提示,您将获得低质量的结果。您需要改进提示以获得良好的结果。这需要努力。■ 不要相信它说的任何话。如果它给您一个数字或事实,除非您知道答案或可以向其他来源核实,否则假设它是错误的。您将对该工具提供的任何错误或遗漏负责。它最适合您理解的主题。■ AI 是一种工具,但您需要承认使用它。请在任何使用 AI 的作业末尾附上一段,解释您使用 AI 的用途以及您使用什么提示来获得结果。不这样做违反了学术诚信政策。■ 请仔细考虑此工具何时有用。如果它不适合案例或情况,请不要使用它。