参议院关于使用人工智能工具和学术诚信的决议鉴于第 5 条第 41301 款和加州社区学院校长办公室法律意见 07-12 和 95-31 号通过概述学术和职业道德及纪律处分来促进学术诚信并旨在阻止学术不诚实行为;鉴于教育法典 76224(a) 规定,在没有错误、欺诈、恶意或不称职的情况下,教师对成绩确定拥有最终决定权;鉴于人工智能 (AI) 进步神速,OpenAI 的 ChatGPT、人工智能驱动的 Bing 和谷歌的 Bard 等生成技术已经创造出强大的工具,学生可以借此对非个人努力的查询生成强有力的答案,并可能导致与学术诚信有关的潜在问题和道德困境;鉴于,众多学术部门和项目已经认识到生成式 AI 工具的变革潜力,并积极引导学生负责任且合乎道德地使用这些工具;鉴于,与此相反,有些学术部门和项目主张彻底禁止生成式 AI 工具,并对其对学术诚信和教育过程的潜在影响表示担忧;鉴于,塞里托斯学院缺乏专门针对和规范生成式 AI 工具使用的全面政策;鉴于,学生未经授权和不当使用生成式 AI 工具的现象日益普遍。塞里托斯学院教务委员会确认,接受或拒绝集成生成式 AI 工具的决定仍由个别教师自行决定。进一步决议:参议院要求将以下不诚实行为的例子纳入学区的官方学术诚信/不诚实政策中:
许多教职员工看到了人工智能工具对课程的积极用途,例如,鼓励学生使用人工智能工具解决更高级的问题,并让他们更好地为将这些工具整合到工作流程中的专业环境做好准备。如果对课程的评估做出此类改变,那么教学法和课程学习成果可能也需要更新,以反映这些重点的变化。此外,人工智能工具可以提高教师(例如,将笔记转换成幻灯片,或根据指定内容提出问题)和学生(例如,通过满足每个学生的特定需求提供个性化帮助)的生产力。然而,人工智能生成的内容远不如教师创建的内容权威。同样,虽然学生可能会寻求人工智能工具的一些技术帮助,但助教必须继续在为学生提供个性化关注方面发挥关键作用。
由于设计不便,一些残障人士无法访问某些资源。图书馆工作人员可以观察到顾客的困难,并愿意阅读屏幕内容。获取信息是印度残疾人面临的主要问题。印度的视障人士至今仍依赖两个主要信息来源,即 I) 盲文书;和 ii) 有声读物服务。然而,通过将信息传递到他们的桌面,ICT 现已有助于缩小视力正常者和盲人之间的数字鸿沟。由于 ICT 及其工具具有高度的灵活性,各种残疾人都可以广泛使用 ICT 及其工具。普通用户现在可以访问的相同信息现在也可以供各种残疾人使用。很明显,那些懂电脑的人可以提高他们的教育水平,并且比不懂电脑的人更有权力。然而,即使有了所有这些技术,特别有能力的用户在获取信息方面仍面临问题,因为图书馆没有配备这样的技术,图书馆工作人员要么不知道这些技术,要么没有接受过使用这些技术的培训。本模块涉及此类辅助服务和技术及其使用。
摘要 — 人工智能 (AI),尤其是机器学习 (ML),在考古学中的应用正在蓬勃发展,开辟了文物分类、遗址位置预测和遗迹分析等新的可能性。这方面的主要挑战之一是缺乏精通机器学习的合格考古学家。在本研究中,我们介绍了 IArch,这是一种无需特定编程技能即可让考古学家进行可解释人工智能 (XAI) 数据分析的工具。它特别允许执行数据分析以验证现有的数据支持假设或生成新假设。该工具涵盖了应用 ML 的整个工作流程,从数据处理到解释最终结果。该工具允许使用监督和无监督 ML 算法,以及 SHapley Additive exPlanations (SHAP) 技术为考古学家提供对预测的整体和个体解释。我们通过蒙古草原上的匈奴墓地(公元前 100 年 / 公元 100 年)的数据证明了它的应用。
人工智能是一种快速发展的技术,已广泛应用于教育的各个领域,包括教学、学习、评估和管理 (Chiu et al., 2023)。最近,生成式人工智能工具发展迅速。这些工具建立在大型语言模型 (LLM) 之上,这些模型允许它们识别和预测大型数据集中的模式;然后这些工具可以生成新内容或输出,例如文本和图像 (ISTE, 2023)。这些生成式人工智能工具的一个例子是 ChatGPT。到 2023 年 3 月,ChatGPT 已经作为大型基于语言的人工智能聊天机器人公开发布几个月,并在教育领域引起了广泛关注。一些关注是负面的:由于担心学生可能存在学术不诚实行为,美国一些最大的学区禁止使用 ChatGPT (例如,参见 Jimenez, 2023)。其他反应是积极的:例如,一项调查报告称,88% 的教师和 79% 的使用过 ChatGPT 的学生认为它对教学和学习产生了积极影响 (Impact Research, 2023a)。此外,ChatGPT 在撰写大学入学论文方面的潜力在该工具出现后不久就引起了人们的注意,一位 K-12 和高等教育作者表示,“ChatGPT 不仅可以写出清晰的论文,还可以编造自己的个人细节和修饰,这可能会增加学生被录取的机会,而且很难核实”(Whitford, 2022)。
现在,像 ChatGPT 这样的生成式 AI 工具已经风靡全球,这已经不是什么秘密了。似乎每隔一篇 LinkedIn 帖子,就会有税务专业人士试图将 ChatGPT 产生的见解与我们这些凡人进行比较,以证明 ChatGPT 要么不如我们,要么就是一个威胁我们生存的敌人。同样,每一篇关于 ChatGPT 的媒体文章似乎都是为了激发受众的恐惧:有感知的自动化脱轨、我们的教育体系崩溃、对白领知识工作者进一步被淘汰的担忧等等。对于一些个人和组织来说,他们的反应在某种程度上是可以预测的:贬低、否认、拒绝和禁止。在本文中,我们将研究在最初的狂热或炒作消退后,如何使用 ChatGPT 等生成式 AI 工具协助税务专业人士,并预测它可能在中长期产生的影响。
人工智能在教育领域的潜在应用已成为吸引年轻一代的领域。在高等教育学生中,人工智能工具通过为学生提供个性化的学习体验来支持学术活动,这些体验将每个学生的需求和能力数字化。本研究旨在确定人工智能工具在学术领域的采用情况,特别是在三宝麟大学。本研究有助于社会化使用人工智能工具以良好和正确的方式支持学术活动。本研究结合了定量和定性调查作为主要数据。结果表明,使用人工智能工具在三宝麟大学学生中已经很普遍,并且在支持他们的学术需求方面变得越来越重要。50% 的受访者在不到六个月的时间内使用了人工智能工具,使用最多的人工智能工具是语法检查。学生使用平板电脑设备使用人工智能工具的次数最少,只有 6.09%。关键词:人工智能、高等教育、工具、使用分析。
哪些心理因素推动了人们对人工智能 (AI) 工具的态度?当人工智能系统有益时,如何克服对它们的抵制?在这里,我们首先将主要的抵制来源分为五大类:不透明、冷漠、僵化、自主和群体成员。我们将这些障碍与认知的基本方面联系起来,然后介绍实证研究,提供相关或因果证据,说明障碍如何影响对人工智能工具的态度。其次,我们将五个障碍分为与人工智能相关的因素和与用户相关的因素,这对于制定采用有益人工智能工具的干预措施具有实际意义。第三,我们强调了这些善意干预措施可能带来的风险。第四,我们解释当前的观点如何适用于各种利益相关者,包括如何处理已知风险的干预措施,并指出未来工作的未决问题。
在发表了许多赞美诗[3]之后,我们希望:1)测试卫生经济学家如何在 MS-Excel / Visual Basic for Applications (VBA) 中利用 Copilot 开发成本效益模型;2)提请大家关注在卫生经济学编程中使用 AI 的一些非编程问题。