Genai技术正在迅速重塑我们的世界,包括教育世界。关于AI和教育的许多论述的主要重点是窃,或者教育工作者如何使用这些工具来提高其实践效率。相比之下,我们围绕了一组更广泛的主题来构图,以争辩教育者必须对AI的广泛社会影响进行批判性思考,而不仅仅是在教室中的直接应用。我们基于尼尔·邮递员提出的有关技术变革的5个关键思想。是:(1)我们总是为技术付出代价; (2)在技术方面,总会有赢家和输家; (3)嵌入每种技术中,都有一个或更多强大的想法和偏见; (4)技术变革不是加性的,它是生态的; (5)技术是小说。然后,我们将这些想法应用于AI世代的新兴世界,质疑这项新技术会做什么并撤消,以及谁将从中受益以及将受到伤害的人。此外,我们考虑了这项新技术固有的偏见以及这种技术转变将如何改变社会。最后,我们认为AI Gen Technologies是人类的创造,并且我们有代理可以质疑并将其重新设计为人文目标。我们相信这些想法提供了有关教育者和学生如何发展对AI影响的批判性认识的见解,从而支持他们在教育中的道德和负责任的使用。教学模型和生成性AI流利度:三层经验框架方法(Rebecca Blankenship)
外国信息操纵和干扰(FIMI)是误解,虚假信息,失败和其他扭曲的伞。fimi在过去的几十年中已经成长为全球威胁,渗透到许多公众的话语和通讯中,尤其是在社交媒体上[57,14]。FIMI是对民主,健康和隐私的威胁[60,64,82]。最近的发展已经看到了使用生成人工智能(AI)来增加针对FIMI的操作的影响。例如,大型语言模型(LLMS)能够创建与人类文本几乎没有区别的文本[35,42]。llms开始用于控制僵尸网络,用于全球快速自动化恶意含量和虚假信息[104]。过去几年彻底改变了生成AI的图像,视频和音频的进展,促进了多模型信息攻击,并且只会不断增加对抗AI驱动的FIMI的困难。对使用生成AI进行FIMI的兴趣源于低成本宣传的大规模分布的承诺[40]。,如Goldstein等。争辩,建立此类“巨魔农场”的低成本使人们可以快速改变竞选重点以适应当前的新闻事件[36]。Jachim等人。认为,将生成的AI用于FIMI特别适合国家和国家赞助的巨魔,以通过传播和创建例如谣言,阴谋论和恶意叙事来进一步地缘政治议程[40]。安全对齐模型几乎不得不指示产生不安全的输出[69,106]。也有一项持续的努力来减轻基于AI的FIMI,并采取了基于技术和政策的措施。尽管培训数据的策展(例如,为了避免已知偏见)和安全对准等技术措施,一种用于使模型行为与人类偏好和伦理相结合的方法,[76]在许多方面可能是成功的,但它们在其他方面也可能不足。在大型语言模型(LLM)的背景下,这是本报告的重点,不安全的输出是一个字符串1,可以在fimi中使用,即传播仇恨,不道德的观点,歧视,暴力等。需要持续和持续努力来对抗基于AI的FIMI的努力部分取决于对其进行建模的困难[14],部分是基于生成AI领域的快速技术发展。此外,威胁行为者与捍卫者之间存在不对称性,威胁行为者可以将其资源集中在一种恶意类型的内容或一种特定的攻击向量上,而后卫则需要始终防御所有可能的威胁。基于策略的努力(例如,参见[95])减轻FIMI与其他类型的并发症有关。这种方法通常建议基于社区的解决方案,包括教育努力和有商业利益的各方与有民事责任的当事方合作。Goldstein等。[36]给出这样的建议。在本报告中,我们将尝试在FIMI中使用生成AI的主题增加价值 - 在当前每周在现场发表的报告和文章的雪崩中。我们的贡献是,我们从LLM的角度来处理该主题以及在FIMI中使用此类模型所需的功能,而无需进入技术细节并需要AI领域知识。我们以技术为重点的报告应