征文:教育和教育研究中的人工智能国际研讨会 (AIEER) AIEER 2024 教育和教育研究中的人工智能国际研讨会是第 27 届欧洲人工智能会议 ECAI 2024 [https://www.ecai2024.eu/] 的一部分。本次研讨会定于 2024 年 10 月 19 日至 20 日星期六和星期日举行。 研讨会范围 本次研讨会有两个不同的重点,旨在更广泛地面向教育人工智能领域。 第 1 部分。由社会科学主导的讨论,讨论人工智能应用可能有助于解决的教育中的实际问题。这包括教育和教学人工智能的研究,也包括社会科学、经济学和人文学科,包括所有学科,如教育和教学实际行动、以教育需求为重点的劳动力市场研究、教育史和相关教育文化遗产,以及决策和行为科学观点的信息预测。一方面,我们关注人工智能、教育和社会之间的联系。这包括定量和定性研究、分析教育和劳动力市场数据的数据科学方法、推荐系统的人工智能方法以及数字化学习。另一方面,我们关注如何使用人工智能来突破该领域的界限。这包括开发新方法(包括使用人工智能的方法)、寻找和提供可访问的新数据源、丰富数据等等。在这两种情况下,不同观点之间的沟通和相互理解至关重要,这也是本次研讨会的目标之一。更广泛地说,我们感兴趣的是人工智能方法如何影响教育的所有领域以及企业和劳动力市场。这包括从小学到高等教育的所有教育部门如何受到人工智能方法的影响和对其作出反应的方法。用人工智能方法设计数字化未来为教育提出了几个问题:在最广泛的层面上,立法和规范问题;在公司层面,关于投资决策以及如何保持生产力和劳动力的问题;在个人层面,关于资格以及哪些技能需要应用和可能重新学习的问题。因此,技能和资格是教育和教育研究中人工智能的核心。第 2 部分。关于可以开发哪些人工智能应用程序(以及如何开发)来解决第 1 部分提出的问题的(计算机科学主导)讨论。使用基于人工智能的系统来支持教学或学习已经发展了 40 多年,但近年来,由于 COVID-19 大流行期间电子学习工具的使用增加以及最近生成人工智能的爆炸式增长,其增长显着增加。我们正处于这一领域发展的关键时刻,人工智能专家和教育专家必须携手合作,以在教学过程中最佳地利用这项技术。本次研讨会旨在为展示新提案和反思这一具有如此社会意义的领域的最新技术创造空间。在第一部分中,我们特别关注人工智能的技术方面,重点关注用于内容创建(生成式人工智能)、学生分析(机器学习)、学习分析或教师可解释的人工智能方法的具体技术
● 受监管实体的潜在范围更广:与通常适用于满足特定门槛的受监管实体的州数据隐私法不同,CAIA 适用于任何开发或部署高风险 AI 系统的个人或实体。此外,该法律的一部分适用于提供或部署面向消费者的 AI 系统的任何实体。 ● 特定角色的义务:CAIA 为部署者和开发者分配了特定角色的义务,类似于数据隐私制度下的控制者和处理者。部署者直接与个人互动并最终控制系统的使用方式,需要维护风险管理计划、进行影响评估并提供相关的消费者权利。另一方面,开发者必须提供部署者履行其职责所需的信息和文档。 ● 减轻算法歧视的注意义务:开发者和部署者有注意义务保护消费者免受算法歧视,这在实践中可能意味着 CAIA 的执行者将使用比例测试来评估开发者和部署者的行为。 “算法歧视”的定义似乎涵盖了故意歧视和差别影响。● 新型消费者权利:除了类似立法中常见的消费者权利(例如使用前通知权)外,如果高风险人工智能系统做出不利决定,CAIA 还为消费者提供了特殊权利。在这种情况下,部署者必须向消费者提供理由陈述、纠正权,并在可行的情况下上诉人工审查。● 总检察长权力:尽管 CAIA 没有创建私人诉讼权,但它赋予科罗拉多州总检察长执行法律和实施必要法规的重要权力。
RE:HF9,2025年2月9日,Swedzinski主席和众议院能源,金融和政策委员会成员,DFL环境核心小组自2015年以来一直是DFL的社区核心小组。我们的使命是教育和动员明尼苏达州的公民解决气候危机,并保护,保存和恢复自然环境。我们写了反对HF 9的文章,我们认为这将不利于我们国家成功过渡到碳自由能的努力。HF 9急剧削弱了明尼苏达州的2040年100%无碳法律。第2节中的规定使电力公司无法通过提高费率反复遵守标准再遵守该标准的需求变得太容易了。公共公用事业委员会已经能够根据Minn Stat下延迟实施。216b.1691 subd。2b。简单地说,我们没有另外3,6年或更长时间来减少排放以防止最严重的气候影响。我们有达到2040年100%无碳目标的技术。缺少的只是政治意愿。HR9提高了长期以来对新的核电的暂停。明尼苏达州不需要我们也不可能负担新的核电站。我们具有丰富的风能和太阳能电位,当与智能电网,高效率传输线和存储空间合作时,可提供较低的成本能量。其他州的核项目已被证明花费的时间太长,无法以太阳能和风能高得多的成本允许和建造。HR9防止未使用的退休发电厂被拆除。我们没有生产核反应堆所需的燃料,也没有在数十万年前安全地存储废物的地方。这阻碍了利用土地清洁可再生能源的巨大机会。考虑明尼苏达州贝克尔的退休舍科工厂的现场发生了什么。该地点正在建设的大型太阳能项目预计将为他们的经济贡献约2.4亿美元。此外,这些基于化石燃料的发电厂经常被放置在不成比例地应对这些行动附近生活的影响的地区。居民应该看到这些地点是净化和重新利用的,以实现有益用途。HR9有利于昂贵的,效率低下的碳捕获和固存。不需要将这种做法作为优先方法,实际上可能与其他将为明尼苏达州带来好处的解决方案使用。减少昂贵的化石燃料的使用是我们环境和健康的双赢。真诚的,DFLEC执行委员会dflenvironmentalcaucus@gmail.com dflenvironment.org
2024 年的《培育原创、促进艺术和保障娱乐安全(禁止假冒)法案》将要求个人或公司对制作、托管或共享个人在视听作品、图像或录音中表演的数字复制品承担损害赔偿责任,而该个人从未真正出现或以其他方式获得批准——包括由生成人工智能 (AI) 创建的数字复制品。托管未经授权复制品的在线服务必须在收到权利人的通知后删除该复制品。为公认的《第一修正案》保护提供了例外,例如纪录片和传记作品,或出于评论、批评或模仿等目的。该法案还将在很大程度上取代处理数字复制品的州法律,以创建可行的全国标准。发起人:参议员 Coons (D-DE);Blackburn (R-TN);Klobuchar (D-MN);蒂利斯 (R-NC) 最新行动:7/31/24 - 提交并提交给参议院 JUD。
您好,我叫 Kenneth Bastian。我是 AI Web Tools LLC(也称为 AiWebTools.Ai)的所有者。我们是现存最大的 AI 工具网站,或者说是最大的 AI 工具网站之一。我们为自己的企业和其他企业创建和设计 AI 工具。我们创建的 AI 工具几乎可以完成任何事情。随着我们走向未来,我必须向可能根本不了解 AI 的立法者说明。AI 已经存在,并且将继续存在。任何法律都无法阻止或减缓其发展。我敦促您不要在任何情况下限制 AI 的使用,包括州内决策。未来将会发生许多变化。在未来,我在这里只是为了告诉您这些变化。我创建了多个人工智能工具,它们将从根本上取代大约 80% 的工作。我这样做并不是为了直接取代工作;相反,我这样做是为了赋予我们州内公民前所未有的权力。AI 赋予的权力是无限的,赋予每个人权力。它让那些在学校表现不佳的人能够知道该如何回答问题,如果他们没有口袋里的人工智能助手,他们可能永远不知道这些问题。我已经为不同的用例创建了 500 多个自定义人工智能,它们都有不同的目的和重点。我制作了各种各样的人工智能,从医生人工智能到兽医人工智能,再到教育导师,再到大学学位 GPT,这是一个 GPT,它基本上可以教你每一门大学课程,不管你想学什么学位,它都会教你所有这些。这只是表面。未来将会发生无数的事情,我真的无法在这篇证词中全部列出,但我觉得我必须向你们解释了解未来的重要性。将有大量的工作岗位流失,这是肯定的,无论你通过什么法律,即使人工智能明天成为非法,一切仍将保持不变。人工智能完全在基于网络的情况下运行,而你无法控制网络。此外,人工智能已经发展到可以在硬件本地运行,你甚至可以在本地计算机上下载。有几种人工智能是计算机原生的,人们对此一无所知,例如刚刚插入 Windows 开始菜单的 co-pilot,你可以毫不费力地将你的想法与 GPT 集成;然而,co-pilot 有必须遵守的条款和条件,因此它无法帮助释放人工智能所能做到的每一个方面。我打算设计尽可能多的人工智能,看看哪些行业领域会受到影响、会受到影响,并为此做好准备。在未来的不到一年的时间里,我和其他每个普通人所做的事将会是共同的。地球上的每个人都会为自己的个人任务制造自己的人工智能机器人,这些机器人将慢慢融入我们的智能设备中,它们将装在我们的口袋里。我们将比以往任何时候都更聪明,更有能力,我们所有人都将像其他人一样被赋予权力。这是不可阻挡的,它正在到来,你几乎无法阻止它。你可以在你的控制范围内通过法律,阻止州立法者使用人工智能阅读证词或类似的东西;然而,你永远无法控制人工智能。人工智能是它自己的东西,因为它在这个世界上以多种方式运行,所以它无法改变;它将进化成它注定要参与的任何东西,没有任何法律可以影响它的行动方向
危机响应或透明度要求。为什么我们需要这些新政策?社交媒体平台具有故意设计的功能,以最大限度地利用用户的时间和在线参与度,而牺牲了他们的福祉,例如无限的滚动,自动播放和算法供稿。所有纽约人都应想起这些风险,并具有针对其有害影响的工具。此外,孩子和青少年使用的一些最受欢迎的应用程序和游戏正在使他们处于危险情况下的风险 - 陌生人可以在线与他们互动,有时可以访问财务和孩子的位置。父母不希望陌生人在街上追踪孩子,他们也不希望他们在线跟踪他们。同时,AI越来越多地纳入儿童使用的产品和服务中;不幸的是,没有必要的行业安全标准。AI驱动的互动会误导,操纵或暴露于纽约人中的伪造和有害内容。AI通过加剧心理健康危机并利用儿童的肖像来创造CSAM,从而促成了孩子的身心伤害。设计具有类似人类的特征,个性或情感的AI同伴,并通过未经请求的通知设计旨在最大程度地提高参与度。AI令人兴奋,为我们所有人带来了巨大的机会,但是没有更强大的保障措施,并且对如何使用AI产品的认识和教育更高,纽约人面临不受监管的AI设计功能的伤害和成瘾风险。,最后但并非最不重要的一点是,我们的孩子需要从手机上休息一下。在纽约制定无电话的学校政策是明智而健康的事情。
他过去的一年纽约看到了由于大流行而导致的一项重大环境倡议的崩溃,但制定了几项重要的新环境法。2020年,《恢复2020年恢复的自然环境债券法》(这是纽约近25年来的第一项环境债券法案),这是大流行经济后果的伤亡。如果获得选民的批准,《债券法》(2020年的法律,第58章,QQ和RR部分)可能会为资本项目筹集高达30亿美元的资金,以实现保护,增强和恢复纽约自然资源并减少气候变化影响的环境改进。” (对《债券法》的更完整审查出现在我们的2020年3月专栏中。)然而,《债券法案》在2020年11月在选票上的出现是由
HB 2094对AI开发人员和部署者履行义务,以减轻与算法歧视相关的风险并确保透明度。它为高危AI系统开发人员建立了护理,披露和风险管理要求,以及消费者披露义务和对部署的影响评估。开发人员必须记录AI系统中已知或合理已知的限制。必须使用行业标准的工具可识别和可检测到来自生成AI高风险系统的生成或经过实质修改的合成内容,并符合可行的适用可访问性要求,并确保在发电时识别合成内容,并在发电时识别出异常,并且具有低风险或创造性的应用程序,以使其“不阻碍显示或享受此类工作或程序或程序的享受”。”该法案参考建立了AI风险框架,例如NIST AI RMF和ISO/IEC 42001。
