以下等级将帮助学生和教师更好地与生成性人工智能 (AI) 工具合作,在 VES 进行教学和学习。所有评分作业都属于这些等级之一。在每个作业中,我们的学习管理系统 OnCampus 中的作业标题中都会用括号标记一个等级。例如,《了不起的盖茨比》的论文作业可能看起来像:盖茨比论文最终稿(第一级作业)。老师可以在课堂上或在作业描述中以书面形式强调对 AI 工具的进一步期望。作为对生成性人工智能 (AI) 使用的基本期望,学生必须知道,无论等级如何,“剪切和粘贴”人工智能工具生成的作品并称其为自己的作品都是不允许的。这样做违反了 VES 荣誉准则。
摘要 公共部门采用人工智能 (AI) 有可能改善服务交付。然而,与人工智能相关的风险很大,公民的担忧已经停止了多项人工智能计划。在本文中,我们报告了一项关于挪威公民对公共服务中使用人工智能的态度的实证研究的结果。我们发现公民普遍持积极态度,并确定了三个促成这一结果的因素:a) 对政府的高度信任;b) 人类参与所带来的保证;c) 对流程、用于人工智能模型的数据以及模型内部运作的透明度。我们通过社会契约理论的视角来解释这些发现,并展示了人工智能在公共服务中的引入如何受社会契约权力动态的影响。我们的研究通过突出政府与公民的关系为研究做出了贡献,并对公共部门的人工智能实践产生了影响。
如何引用这篇文章 - 美国心理学会 (APA) Santos, GC, Barboza, F., Veiga, ACP, & Gomes, K 。 (2024 年 7 月/9 月)。利用人工智能进行投资组合优化
随着各国政府越来越多地探索和投资人工智能和自动决策系统,我们需要采取措施确保这些快速发展的技术在公共服务的特殊环境中得到适当使用。在许多国家,COVID 创造了一个信任度提高的泡沫,这个泡沫可以说已经破灭了,在一个对公共机构前所未有的不信任的时代(但即使在信任度很高的时代),服务速度更快或更具成本效益是不够的。本文为政府系统(技术平台、运营、文化、治理、参与等)提出了建议,这些建议将有助于提高公众对公共机构、政策和服务的信心和信任,同时履行公共部门的特殊义务和责任。
越来越多的自动化和人工智能 (AI) 系统会提出医疗建议,包括个性化建议,这些建议可能会偏离标准护理。法律学者认为,遵循这种非标准治疗建议会增加医疗事故的责任,从而破坏潜在有益的医疗 AI 的使用。然而,这种责任在一定程度上取决于陪审员的判断:当医生使用 AI 系统时,陪审员会在哪些情况下追究医生的责任?方法:为了确定潜在陪审员的责任判断,我们对 2,000 名美国成年人的全国代表性样本进行了在线实验研究。每位参与者阅读了 AI 系统向医生提供治疗建议的 4 个场景中的 1 个。场景改变了 AI 建议(标准或非标准护理)和医生的决定(接受或拒绝该建议)。随后,医生的决定造成了伤害。参与者随后评估了医生的责任。结果:我们的结果表明,在其他条件相同的情况下,从人工智能系统获得提供标准护理建议的医生可以通过接受而不是拒绝该建议来降低责任风险。但是,当人工智能系统推荐非标准护理时,拒绝该建议并提供标准护理并没有类似的屏蔽效果。结论:侵权法制度不太可能破坏人工智能精准医疗工具的使用,甚至可能鼓励使用这些工具。
随着人工智能在我们的生活中发挥越来越大的作用,让孩子与科技建立健康的关系非常重要。这意味着不仅要了解如何安全负责地使用人工智能,还要知道如何以批判性和创造性的思维方式对待技术。鼓励孩子培养批判性思维技能在数字时代至关重要,因为它可以让他们评估他们在网上遇到的信息的准确性和有效性。这包括能够识别虚假新闻或错误信息,并了解人工智能算法中可能存在的潜在偏见。与技术建立健康的关系还意味着在其使用方面设定健康的界限。父母可以帮助孩子在屏幕时间和其他活动之间建立健康的平衡,例如户外游戏、与朋友和家人交往以及从事创造性活动。
