代理人人工智能(AI)系统可以自主追求长期目标,做出决策并执行复杂的多转弯工作流程。与传统的生成AI不同,该AI反应提示,代理AI主动协调过程,例如自主管理复杂的任务或做出实时决策。从咨询角色转变为积极执行的挑战,确定了法律,经济和创造性的框架。在本文中,我们探讨了三个相互关联的领域的挑战:创造力和知识产权,法律和道德考虑以及竞争影响。我们分析的核心是AI生成的创意产出中的新颖性和有用性之间的张力,以及AI自治引起的知识产权和作者挑战。我们重点介绍了责任归因和责任的差距,这些差距和责任造成了“道德脆弱区”,即在多个参与者之间扩散问责制的条件,使最终用户和开发商处于不稳定的法律和道德立场。我们研究了两面算法市场的竞争动力,在该市场中,卖方和买家都部署了AI代理,可能会减轻或放大默认合谋风险。我们探索了在代理AI网络(“算法社会”的发展)内发生紧急自我调节的潜力 - 提出了关键问题:这些规范在多大程度上与社会价值观保持一致?可能会产生什么意外后果?如何确保透明度和问责制?应对这些挑战将需要跨学科的合作来重新定义法律责任制,将AI驱动的选择与利益相关者价值观保持一致,并保持道德保障。我们主张平衡自治与问责制的框架,确保各方都能在保留信任,公平和社会福利的同时利用代理AI的潜力。
3个算法状态量子力学的假设6 3.1假设1。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。6 3.2假设2。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。6 3.3假设3。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。6 3.4假设4 ..。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。7 3.5假设5。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。7 3.6假设6 ..。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。7 3.7假设7 ..。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。8 3.8假设8 ..。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。8 3.9假设9 ..。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。8 3.10假设10 ..。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。8
我们研究了贝叶斯说服游戏,发件人想说服接收者采取二进制操作,例如购买产品。发件人被告知(实际上)世界状态,例如产品的质量,但只有有关接收者信念和公用事业的信息有限。以客户调查,用户研究和AI的最新进展激发,我们允许发件人通过查询模拟接收者行为的Oracle来了解有关接收器的更多信息。在固定数量的查询后,发件人对消息策略进行了提交,并且接收者采取了根据她收到的消息最大化她的预期实用程序的措施。,我们表征了发件人的最佳消息传递策略,但给定对接收器类型的任何分布。然后,我们设计了一种多项式查询算法,该算法优化了该游戏中发件人的预期实用程序。我们还考虑了近似甲骨文,更通用的查询结构和昂贵的查询。
1几个因素被认为对于促进勾结,包括相似的规模和成本,需求的可预测性,所有竞争对手价格的可观察力以及频繁直接通信的可能性很重要。参见,例如Scherer(1980),Tirole(1988)或Porter(2005)。2请参阅https://www.informedrepricer.com/(2025年2月访问)。 3 Brown and Mackay(2023)表明,大型在线零售商的定价技术从每周一次更新到每小时多次发生的更新。 在其他环境中也观察到了高速定价算法的采用(例如,Assad等,2024; Aparicio等,2021)。 4美国联邦贸易委员会指出:“亚马逊估计,对于亚马逊上数千种最受欢迎的产品,它可以在数小时内几乎在互联网上的任何地方检测到任何价格变化,”并断言亚马逊会自动对其他在线零售商的价格变化以及其市场上的卖家自动反应。 参见FTC诉Amazon(2023年9月)。2请参阅https://www.informedrepricer.com/(2025年2月访问)。3 Brown and Mackay(2023)表明,大型在线零售商的定价技术从每周一次更新到每小时多次发生的更新。在其他环境中也观察到了高速定价算法的采用(例如,Assad等,2024; Aparicio等,2021)。4美国联邦贸易委员会指出:“亚马逊估计,对于亚马逊上数千种最受欢迎的产品,它可以在数小时内几乎在互联网上的任何地方检测到任何价格变化,”并断言亚马逊会自动对其他在线零售商的价格变化以及其市场上的卖家自动反应。参见FTC诉Amazon(2023年9月)。
算法管理 - 近年来,人工智能(AI)的使用(包括人工智能(AI))是由人类经理传统上全面或部分自动化的任务 - 近年来受到了越来越多的关注。一方面,它有可能实现企业内管理决策的生产力和效率提高以及更大的一致性和客观性。另一方面,其他研究的证据越来越多,表明其潜在的有害影响对工人。作为决策者努力应对算法管理提出的挑战的方式,需要其他证据。为了实现这一目标,这项研究借鉴了对六个国家 /地区的6000多家公司的独特调查:法国,德国,意大利,日本,西班牙和美国。该调查提供了对算法管理的普遍性,其感知的影响和公司级别措施的前所未有的见解。调查结果表明,算法管理工具已经在大多数研究的国家 /地区使用。经理认为算法管理通常会提高他们的决策质量以及自己的工作满意度,但他们也认为使用此类工具会引起某些可信赖性的关注。他们引用了不清楚的问责制,无法轻松遵循工具的逻辑以及对工人健康的保护不足的担忧。迫切需要检查政策差距,以确保对算法管理工具的信任使用。
摘要:近似计算技术(ACT)是实现减少能量,时间延迟和硬件大小的有希望的解决方案,用于嵌入式机器学习算法的实现。在本文中,我们介绍了使用高级合成(HLS)的算法级别的近似张力支持向量机(SVM)分类的第一个FPGA实现。采用了触摸模式分类框架来验证拟议实施的有效性。与最先进的实施相比,拟议的实施将功耗的速度降低了49%,加速度为3.2倍。此外,硬件资源减少了40%,同时消耗的能量减少了82%的能量,而精度损失小于5%。
已经开发了各种指标和干预措施,以识别和减轻机器学习系统的不公平输出。虽然个人和组织有义务避免歧视,但使用公平感知的机器学习干预措施也被描述为欧洲联盟(EU)非歧视法的“算法正面”。作为欧盟法院在评估积极行动的合法性方面一直是严格的,这将对希望实施公平ML干预措施的人施加重大的法律负担。在本文中,我们建议算法公平干预措施通常应被解释为防止歧视的一种手段,而不是衡量积极行动的方法。具体来说,我们建议此类别错误通常归因于中立性谬误:关于(公平意识)算法决策的中立性的错误假设。我们的发现提出了一个问题,即在算法决策的背景下,是否有歧视歧视的负义务是否足够。因此,我们建议从义务转向“不损害”的积极义务,以积极地“不伤害”作为算法决策和公平的ML间隔的更为适当的框架。
迈向整合人工智能(AI),尤其是深度学习和基于AI的技术,进入了医疗保健和公共卫生领域,最近已经增强了越来越多的文献来应对对此的伦理性政治意义。本文考虑了医疗保健纠缠的交织认知,社会政治和技术后果,研究了AI重要性如何影响医疗保健组织,治理和角色的特定模式的出现,并重新反映了如何在这些纠缠中嵌入参与性参与性。我们讨论了人工智能和循证医学(EBM)之间社会技术纠缠对健康AI的公平发展和治理的影响。AI应用程序总是以计算工作适合的医学知识和实践领域中心。这反过来促进了这些医疗领域的优先级,并进一步推动了支持AI发展的假设,这一举动使医疗保健的定性细微差别和复杂性去上下文,同时促进基础架构支持这些医疗领域。我们绘制了医疗保健的材料和意识形态重新构造,这是由于在现实世界中嵌入健康AI组合的转变所塑造的。然后,我们考虑了这一点的含义,如何最好地在医疗保健中使用AI,以及如何应对在健康AI组合中复制的算法不公正现象。
摘要 - 本文报告了紧凑的神经网络拓扑设计的主要最新算法促进器,同时依靠基本的数值实验。嵌入传感器智能执行推理任务通常需要适当定义硬件限制下专门针对特定目的的神经网络体系结构。硬件设计约束称为功耗,硅表面,延迟和最大时钟频率上限可用资源,即记忆容量和算法复杂性。我们建议将算法启用器分类为4种类型,这些算法促进器会迫使硬件约束,同时保持精确度尽可能高。首先,降低尺寸(DR)用于减少预定的硬件编码模式,以减少内存需求。其次,使用归一化(QN)的低精度量化既可以简化硬件组件,又可以限制整体数据存储。第三,连通性修剪(CP)涉及对过度拟合的改进,同时限制了不必要的计算。最后,在提前通过的推论期间,可以执行拓扑零件的动态选择性执行(DSE)以限制整个拓扑的激活,从而减少整体功耗。索引术语 - 神经网络,压缩感应,随机修剪,量化神经网络,动态神经网络,硬件 - 算法共同设计。