这被称为采取“积极行动”。积极的行动规定是歧视法的常规要求的例外,该法律阻止那些具有特定受保护特征的人的对待,无论是与没有相同特征的人一样,好坏。没有积极行动的例外,采取行动故意和公开优势,那些具有特定保护特征的人比没有该特征的人通常是非法的。还有其他一些有限的例外,在法定代码中进行了解释。
目的随着人工智能 (AI) 和 ChatGPT 等生成式大型语言模型工具变得越来越流行,教师和学生了解其在各个学科中的应用至关重要。无论好坏,人工智能工具都将融入社会的各个领域,包括学术界、政治界、商业界、工作界、医疗保健界、娱乐界和艺术界。人工智能将影响我们的教学、创造、思考和学习方式。教师必须了解人工智能的潜力、陷阱和道德考量。他们应该准备好为学生提供实践经验和对该领域发展的批判性观点。
过去 12 个月,NMC 经历了重要的监管行动和重大的组织挑战,情况好坏参半。我们与利益相关者进行了全面接触,探讨是否进一步监管先进实践,最终决定制定额外监管方法,发布了我们更新的注册前教育计划标准和我们的第一份 Spotlight 报告,以分享见解,帮助改善医疗和社会护理的安全。我们还迅速而有力地回应了人们对计算机化考试中心欺诈行为的担忧;并做出了前所未有的决定,撤回了对助产士培训计划的批准,以保障妇女、婴儿和家庭的安全。
政府使用生成式人工智能面临的一个结构性挑战是,它的“推理”本质上是不透明的,人工智能无法展示其工作。此外,生成式人工智能系统也会犯错误,有时会完全捏造事实(称为幻觉)。此外,人工智能系统的好坏取决于其数据,并会表现出各种形式的偏见。重要的是,政府不要盲目依赖人工智能的产出,并制定计划应对人工智能系统不可避免的故障。美国国家标准与技术研究所 (NIST) 有一个人工智能风险管理框架,该框架有助于指导立法者,最近的一份简介专门关注生成式人工智能。
顾问兼前硅谷首席执行官 Alan Mutter 观察到,“人工智能的一代又一代和应用程序的迭代将改善未来的结果,但是,机器——以及运行它们的人——将控制这些结果。人工智能的好坏取决于算法背后的人和系统背后的数据集。从定义上讲,人工智能赋予机器使用大型且不完善的数据库进行判断的能力。由于人工智能系统被设计为或多或少自主运行,因此很难想象这种系统如何受到公众的控制,因为公众大多不太可能知道是谁建立了这些系统,系统如何运行,它们依赖哪些输入,系统是如何训练的,以及它可能如何被操纵以产生某些期望的和可能未知的结果。”
区域发展 根据 2019 年 9 月美国政府问责局 (GAO) 的一份报告,“关于美国援助如何改善北方三角地区的繁荣、治理和安全,我们掌握的信息有限”。GAO 指出,美国机构缺乏全面的监测和评估计划,项目级评估结果好坏参半。2019 年 9 月,国务院官员在国会作证时声称,美国的对外援助项目在该地区的安全、治理和经济发展方面“已经产生了预期的结果”。尽管如此,官员们为政府的援助暂停辩护,称在美墨边境逮捕的中美洲移民人数才是“唯一重要的指标”。
老挝经济正面临一系列挑战,包括货币大幅贬值和高通胀。这是由于国内经济改革不力和全球经济整体下滑造成的。服务业对经济活动的贡献很大,这得益于运输和物流业,尤其是老挝-中国铁路和塔纳楞陆港。采矿业和电力行业也取得了长足进步,而制造业和农业则好坏参半。在制造业中,木材和纸制品的产量表现出韧性,而电子产品的产量则出现下降。至于农业,木薯和橡胶表现良好,而同期畜牧业则出现下滑(世界银行,2022 年)。