2022 年 11 月 30 日,美国研究实验室 OpenAI 推出了“ChatGPT”,这是一种能够处理和生成自然语言文本的生成式人工智能 (Gen AI) 模型,免费向公众提供服务。观察人士很快注意到,此类工具对高等教育评估提出了挑战,因为它们完全能够生成难以与学生作品区分开来的输出。受影响的形式包括论文、数学问题的解决方案、计算机代码,甚至多项选择题(AI 工具还可以生成每个选项正确或不正确的原因的解释)。给人的印象是,当前的生成式 AI 工具可以生成过得去的作品,尤其是在入门课程中,即使它的质量并不完全接近我们优秀学生所能达到的水平或更高级课程对他们的要求。
摘要,本研究调查了学生对在高等教育开放考试问题评分过程中使用基于人工智能的工具的看法。为了弥补文献中的空白,本研究考虑了以前没有深入研究过的学生的意见。进行了一项定性调查,以确定学生在评分过程中的哪些方面/步骤感到舒适,以及教师应该占据哪些部分。结果表明,大多数学生可以想象人工智能在教师的监督下独立评分多项选择题和开放题,而少数学生根本不接受人工智能在高等教育中评分考试。这些结果表明,未来需要扩大和改进关于基于人工智能的高等教育开放考试问题评分工具的教育和交流,以便在学生中达成共识。毕业委员会成员:Daniel Braun 博士 Patrizia Rogetzer 博士 关键词 人工智能、机器学习、高等教育、开放考试问题
近期问答研究的蓬勃发展产生了大量的事实阅读理解 (RC) 和常识推理数据集。将它们结合起来提出了一种不同类型的任务:不仅要确定文本中是否存在信息,还要确定是否可以对缺失信息做出有把握的猜测。我们提出了 QuAIL,这是第一个结合基于文本、世界知识和无法回答的问题的 RC 数据集,并提供问题类型注释,使给定的 QA 系统能够诊断推理策略。QuAIL 包含 4 个领域中 800 篇文本的 15K 多项选择题。至关重要的是,它提供了一般问题和特定于文本的问题,这些问题不太可能在预训练数据中找到。我们表明,QuAIL 对当前最先进的系统提出了巨大的挑战,与最相似的现有数据集相比,其准确率下降了 30%。
近期问答研究的爆炸式增长产生了大量事实阅读理解 (RC) 和常识推理数据集。将它们结合起来代表着一项不同的任务:不仅要确定文本中是否存在信息,还要确定是否可以对缺失信息做出有把握的猜测。我们提出了 QuAIL,这是第一个结合基于文本、世界知识和无法回答的问题的 RC 数据集,并提供问题类型注释,使给定 QA 系统能够诊断推理策略。QuAIL 包含 4 个领域 800 篇文本的 15000 个多项选择题。至关重要的是,它提供一般问题和特定于文本的问题,这些在预训练数据中不太可能找到。我们表明,QuAIL 对当前最先进的系统提出了巨大的挑战,与最相似的现有数据集相比,其准确率下降了 30%。
● 编程作业 (25 %) 将会有几项编程作业,涉及 OO 编程、OO 设计和 UML 图。所有作业都是个人作业。逾期的作业将不被接受。 ● 测验 (10 %) 每章之后都会有简短的测验。这些测验的目的是鼓励学生阅读课程材料并理解概念。这些测验的目的是帮助学生更好地理解概念并将其应用于作业以及为期中和期末考试做准备。 ● 项目 (20 %) 每学期最后一个月,每个小组由 3 名成员组成一个小组项目,涉及 OO 设计和 GUI 编程。 ● 期中和期末(各占 20 %) 将会有一次期中考试和一次期末考试,包括选择题和书面答案。问题可以来自测验、课堂笔记、幻灯片、作业和课堂讨论。 ● 课堂参与 (5 %) 为鼓励参与,您的期末成绩的 5% 将来自您的参与。请注意,参与并不等于出席。
VIT 集团机构的博士/直接博士/深度技术博士课程。VITREE-2025 年 7 月会议将于 2025 年 4 月 20 日在印度 53 个城市举行,并于 2025 年 4 月 24 日在印度 69 个城市举行。考试时间为 2 小时。所有问题均为多项选择题,答对得一分,答错得“0”分。博士和深度技术博士 (仅适用于符合条件的相关硕士学位) 的试卷将有 100 个 MCQ (技术 - 70 个问题;英语沟通技巧 - 15 个;统计和概率 - 15 个问题),直接博士和深度技术 (仅适用于 BE 或 B.Tech. 学位毕业生) 的试卷将有 100 个 MCQ (技术 - 80 个问题;英语沟通技巧 - 20 个问题)。除语言外,试卷仅以英文形式提供。
摘要 本演讲探讨了一种智能辅助 (IA) 方法,通过解决与未经检查的人工智能 (AI) 应用相关的风险,在法律领域利用大型语言模型 (LLM)。我们强调理解人工智能和 IA 之间的区别的重要性,后者涉及人在环的决策过程,这有助于降低风险并确保负责任地使用这种快速发展的技术。以 ChatGPT 和 GPT-4 为主要示例,我们展示了它作为人工智能和 IA 应用程序的双重角色,展示了它在各种法律任务中的多功能性。我们特别关注最近报道的探索,特别是在使用 LLM 解决多项选择题回答、法律推理、案件结果预测和总结等任务方面。我们认为,要完全实现“增强智能”,需要一个推理和知识库组件,使 IA 系统能够有效地支持人类用户的决策过程。
摘要 脑机接口应用可用于克服学习问题,尤其是学生焦虑、注意力不集中和注意力不集中。本文介绍了一种基于脑机接口(BCI)的系统,该系统用于教育,以衡量预期学习成果并测量噪声对系统准确度的影响。该系统在线工作,基于记录的脑信号数据集。该系统可被视为 P300 拼写器的一个特例,仅接受从 A 到 D 的字母。这些是多项选择题 MCQ 的可能答案。老师出题,将其存储在考试数据库中并交给学生。学生进入系统并记录他们的脑信号。脑信号经过预处理阶段,在此阶段信号经过低通和高通滤波器。然后对信号进行子采样和分割。获得的特征用作线性判别分析(LDA)的输入。获得的准确率为 91%。
传统的评估策略,如考试、论文和多项选择题,传统上一直是评估学生学业成绩的基本手段 (Mislevy 等人,2012)。然而,随着 ChatGPT 等文本生成人工智能 (AI) 工具的普及,高等教育机构必须重新考虑这些方法的有效性。虽然技术可以显着增强学习过程,但它也带来了破坏学术诚信的风险。大学必须通过制定策略来应对这一挑战,以防止此类滥用。最近的一些研究表明,人们正朝着更连续、更真实和更具适应性的评估方向发展 (Swiecki 等人,2022)。在本文中,我们介绍了十大策略以及一些实践示例,以重新设计评估任务,以减少对 AI 工具的滥用。为了优化这些策略的教学效果,必须确保它们与查尔斯特大学的相关政策和指导方针保持一致,例如评估政策和程序、评估设计原则、学生工作量指导方针等。
• 每个内容模块都提供了讨论问题,以促进对话并评估每个学生的初始知识水平。推荐资源中提供了针对这些讨论的推荐评估策略。 • 在推荐资源的直接指导部分,为学生提供自我发现和研究活动。这些活动中的学生作业可用作形成性评估数据,以评估学生在模块结果方面的进步。课程中提供了针对这些活动和作业的推荐评估策略。 • 为学生提供实验室活动以完成基于应用的练习。这些活动评估学生将他们对结果的理解应用于基于场景的练习的能力。推荐资源中提供了这些实验室的推荐评估策略。 • 在每个模块结束时,都会为教师提供总结性评估,以跟踪学生在实现预期结果方面的进度。模块评估是多项选择题、多项回答题和论述题的组合。
