摘要 人工智能 (AI) 和机器学习 (ML) 正在彻底改变人类各个领域的活动,医学和传染病也未能幸免于其快速而指数级的增长。此外,可解释的 AI 和 ML 领域已变得尤为重要,并吸引了越来越多的关注。传染病已经开始受益于可解释的 AI/ML 模型。例如,它们已被用于或提议用于更好地理解旨在改善 2019 年冠状病毒病诊断和管理的复杂模型、抗菌素耐药性预测领域和量子疫苗算法中。尽管一些有关可解释性和可解释性二分法的问题仍需认真关注,但深入了解复杂的 AI/ML 模型如何得出预测或建议,对于正确应对本世纪传染病日益严峻的挑战变得越来越重要。
“是否可以从其他行业的风险管理类似或具有指导意义的模式中汲取灵感,例如通过注册、激励、认证或许可促进监督的法律和政策?” 基础模式是否应区别对待? 或者新法规将以结果为导向? ▪ 法规将对技术保持中立吗? 基于原则的法规(如 UDAAP 法律)不需要关注特定技术
● 文章/视频:人工智能如何推荐视频 [ 链接 ] ● 视频:人工智能、社交媒体和选举 [ 链接 ] ● 视频:人工智能和社交媒体营销 [ 链接 ] ● 文章:人工智能在社交媒体中的利弊 [ 链接 ] ● 文章:视频游戏人工智能的社会和哲学影响 [ 链接 ]
● 与学生进行清晰且频繁的沟通至关重要。在教师的期望和课堂上人工智能的使用方面,学生需要保持透明。对人工智能使用的期望因班级而异。经常讨论教师的期望、课程学习目标以及它们与相关学习活动和学生作业之间的关系(包括使用生成式人工智能),可以增强学生的学习体验,并最大限度地减少误解或误用的机会。 ● 生成式人工智能系统是技术工具。与 Blackboard、Zoom 甚至谷歌搜索等其他技术工具一样,生成式人工智能可用于积极支持严谨的学习并增强引人入胜的学习体验。 ● 生成式人工智能的使用将不断发展。教师和学生应负责任、有目的地、合乎道德地使用生成式人工智能。 ● 如果课程学习目标支持,教师应设计评估和学习活动,让学生可以利用生成式人工智能作为学习的机会。学生可以更好地实现他们的课程学习目标,并更多地了解使用生成式人工智能的好处和挑战。
诱饵:在钓鱼游戏中,不同类型的诱饵用于捕捉不同类型的鱼。同样,网络犯罪分子使用各种类型的诱饵(如钓鱼电子邮件或虚假网站)来诱骗用户点击链接或输入敏感信息。 上钩:一旦鱼上钩,鱼钩就被设置好了。同样,一旦用户陷入钓鱼骗局或下载恶意附件,攻击者就会在系统中立足并开始攻击。 收线:一旦鱼上钩,目标就是快速安全地将其收线。在网络安全中,一旦检测到攻击,目标就是遏制攻击并防止进一步损害。 引诱:在钓鱼游戏中,垂钓者可能会使用诱饵来模仿特定类型鱼的运动并将其吸引到诱饵上。同样,攻击者可能会使用社会工程技术来操纵用户泄露敏感信息或下载恶意软件。 广撒网:在钓鱼游戏中,钓鱼者可能会广撒网以增加捕鱼的机会。同样,攻击者可能会使用群发垃圾邮件活动或其他自动化工具来瞄准大量潜在受害者。
● 世界各地的数据保护法 ● 人道技术基础课程 ● 道德操作系统 - 风险缓解清单 ● 道德探索者 - 帮助应对当今技术未来影响的工具 ● 后果扫描 - 创新者的敏捷实践 ● 新西兰 2020 年隐私法案和隐私原则 ● 欧盟的 GDPR 数据保护法 ● Consentfultech.io ● 书籍:道德算法:社会意识算法设计的科学 ● 书籍:数学毁灭武器 ● 书籍:呼喊零和一:新西兰的数字技术、道德和政策 ● 书籍:你好世界:算法时代的人类 ● 书籍:对齐问题:机器学习和人类价值观 ● 书籍:隐形女性:为男性设计的世界中的数据偏见 ● 书籍:酷儿数据:使用性别、性和性行为数据采取行动 ● 书籍:压迫算法:搜索引擎如何强化种族主义 ● 书籍:数据女权主义
乔治奥斯·扬纳卡基斯 马耳他大学数字游戏研究所,马耳他姆西达 摘要 数字游戏作为教育的新范式已具有重要意义。数字游戏人人都可以访问且价格合理,并为大规模教学和学习提供了机会。近年来,人们对数字游戏的兴趣日益浓厚,以支持大学预科(K-12)学校的计算思维和编程。人工智能(AI)和机器学习(ML)是一个快速发展的领域,在过去几年中吸引了越来越多的学习者。虽然数字游戏和AI/ML的融合对于教学和学习研究人员来说是一个重要且具有挑战性的领域,但该领域尚未进行过文献综述。这项工作的目的是回顾最近对支持AI和ML教育的游戏的研究。经过彻底的搜索,我们选择了相关的论文和游戏并将其纳入我们的定性内容分析。在此综述的基础上,我们概述了相关的研究论文和游戏,并展示了不同的游戏如何提供独特的机会来教授人工智能和机器学习中的许多不同概念和主题。 关键词:教育游戏、人工智能教育、机器学习教育、文献综述 1.简介 在过去的几年里,数字游戏在计算机科学(CS)和信息技术(IT)教育中越来越受欢迎(Harteveld 等人,2014 年;Kordaki 和 Gousiou,2016 年)。数字游戏一直是加强 CS 教育的几种流行方法。在 K-12 学校,有一些课程让学生参与玩游戏,其中包括必须解决的任务和问题才能进步(Vahldick 等人,2014 年),或鼓励学生使用可视化和基于块的编程环境开发游戏
两种常见的顺序决策方法是人工智能规划 (AIP) 和强化学习 (RL)。每种方法都有优点和缺点。AIP 具有可解释性,易于与符号知识集成,并且通常很高效,但需要预先指定逻辑域,并且对噪声敏感;RL 只需要指定奖励,并且对噪声具有鲁棒性,但样本效率低下,不易获得外部知识。我们提出了一种将高级规划与 RL 相结合的综合方法,保留了可解释性、迁移和效率,同时允许对低级规划操作进行鲁棒学习。我们的方法通过在 AI 规划问题的状态转换模型和马尔可夫决策过程 (MDP) 的抽象状态转换系统之间建立对应关系,从 AIP 运算符定义分层强化学习 (HRL) 中的选项。通过添加内在奖励来学习选项,以鼓励 MDP 和 AIP 转换模型之间的一致性。我们通过比较 MiniGrid 和 N 室环境中 RL 和 HRL 算法的性能来展示我们的集成方法的优势,展示了我们的方法相对于现有方法的优势。
