《欧洲AI法案》(2024/1689)自2024年8月1日起就一直有效,并规范了欧盟(EU)的人工智能(AI)的使用。AI法案具有基于风险的方法。因此,从2025年2月2日起,禁止某些带来不可接受风险的AI系统。由《 AI法案》的主管来解释如何以监督目的解释禁令。为了在荷兰为此做准备,Autoriteit Persoonsgevens(AP)询问感兴趣的各方(公民,政府,企业和其他组织)及其代表寻求需求,信息和见解。我们可以使用所有输入来考虑对禁止的AI系统的进一步澄清。2024年9月27日,AP发布了第一个关于AI法案前两项禁令的意见。在第二次呼吁输入中,我们解决了第六次禁止:在工作场所或教育机构领域的情感识别系统(禁令F)。稍后,我们将要求对其他禁令进行输入。本文档在通过一组问题要求(附加)输入时概述了这些禁止的AI系统的特定标准。可以提交捐款,直到2024年12月17日。AP根据其作为算法和AI的协调主管的角色来呼吁输入。为了完成这项新任务,在AP内建立了算法监督协调部(DCA)。荷兰政府目前正在为《 AI法案》的国家监督当局进行正式指定。此呼吁的投入还与为支持《 AI法案》禁止的AI系统的未来监督进行的准备工作保持一致。
这项规定的基础是《欧盟宪章》第21条和第24条的基础,该条款可以防止歧视并维护弱势群体的权利。Redital 17强调,AI不应操纵由于个人条件而特别容易受到不当影响的人。该法案对提供者施加了严格的合规义务,要求他们进行影响评估,以识别和减轻对弱势群体的潜在风险。提供商还必须证明其系统的设计在最前沿的道德考虑,以确保它们不会不成比例地针对或损害特定的群体。例如,AI驱动的发薪日贷款算法通过建议没有充分风险披露的高息贷款而利用经济困扰的个人是不合规的。同样,利用AI的儿童申请鼓励过多的应用程序购买可能属于此限制。
(SHRI JITIN PRASADA)(a)至 d):印度政府强调“全民人工智能”的概念,这与总理在全国范围内培育和推动尖端技术应用的愿景相一致。这一举措旨在确保人工智能惠及社会各界,推动创新和增长。政府致力于利用人工智能 (AI) 的力量,在医疗、农业、教育、政府治理、新闻部和其他领域造福人民。与此同时,政府也意识到人工智能带来的风险。幻觉、偏见、错误信息和深度伪造是人工智能带来的一些挑战。为了应对人工智能的挑战和风险,政府认识到需要建立护栏以确保人工智能的安全和可信。因此,中央政府在与相关利益相关方进行广泛的公众协商后,于 2021 年 2 月 25 日公布了《信息技术(中介机构指南和数字媒体道德规范)规则》2021 年(“2021 年 IT 规则”),该规则随后于 2022 年 10 月 28 日和 2023 年 4 月 6 日进行了修订。2021 年 IT 规则对中介机构(包括社交媒体中介机构和平台)规定了具体的法律义务,以确保他们对安全可信的互联网负责,包括迅速采取行动消除被禁止的虚假信息、明显虚假的信息和深度伪造。如果中介机构未能遵守 2021 年 IT 规则规定的法律义务,他们将失去《2000 年信息技术法》(“IT 法”)第 79 条规定的避风港保护,并应根据任何现行法律承担相应的诉讼或起诉。 《2023 年数字个人数据保护法》于 2023 年 8 月 11 日颁布,该法案规定数据受托人有义务保护数字个人数据,追究其责任,同时确保数据主体的权利和义务。政府已成立人工智能咨询小组,针对印度特定的监管人工智能框架,由印度总理首席科学顾问 (PSA) 担任主席,来自学术界、工业界和政府的不同利益相关者参与,目标是解决与制定负责任的人工智能框架有关的所有问题,以实现人工智能的安全和可信开发和部署。
2024年9月23日,星期一,美国工商部工业和安全局发布了提议的规则制定通知(“ NPRM”),该通知似乎抵消了以前仅在诸如《抛弃世界》等媒体作品中看到的威胁。该NPRM的目的是通过禁止在实体上设计,开发,开发,制造或提供对PRC或俄罗斯的实体设计,开发,制造或提供某些连接的车辆系统,从而确保来自中华人民共和国(“ PRC”)和俄罗斯的连接车辆的供应链。1禁令不包括在农业和采矿车等公共道路上使用的车辆。连接的车辆利用特定的硬件和软件,可以允许车辆连接系统(“ VCS”)和自动驾驶系统(“ ADS”)。通过允许外部连通性,据称这些车辆更容易受到恶意操作员的影响,他们可以访问和收集敏感的数据并在美国道路上远程操纵汽车。2因此,商务部已发行了这一NPRM,以在国内安全中纠正此漏洞。
如果您怀疑存在人工智能,可考虑采取的策略课程中的滥用 本期 Vitality 旨在考虑采取一种全面的方法来解决学生在课程作业中涉嫌滥用人工智能的问题,包括收集证据、参与对话、了解学生的观点、探索涉嫌滥用人工智能的根本原因,并采取适当的教育和/或纠正措施。《检测人工智能的 Vitality》 11 月刊指出,制定明确的书面课程政策,规定学生在课程作业中可以和不能使用人工智能的重要性,这是维护学术诚信的第一步。即便如此,我们在帮助学生学习如何记录和提供创作过程证据方面仍面临重大挑战。因此,除了详细说明我们的课程中允许或禁止的人工智能工具类型及其用途之外,我们可能还希望为学生提供他们可以收集或需要随作业一起提交的文件类型的指南/示例。帮助学生理解和遵守学术诚信准则需要我们不断努力和承诺,并在作业、项目和考试中提醒学生 (Lang, 2013)。如果您怀疑课程中存在人工智能滥用,请考虑以下可能与您已经使用的流程类似的流程:
2023 年 5 月 19 日 — a. 惩罚性。此政策具有惩罚性。不遵守规定可能会导致不利的行政处罚或根据《统一军事司法法典》受到处罚...