为大数据健康研究设计一个道德框架,为中风医学的数据驱动预测模型制定道德指南,这些指南以规范考虑为基础,以现有的道德框架为基础,并考虑潜在用户、受益者和开发者的生活经验、态度、价值观和期望。
afc =年度指定的年度固定成本nataf = nataf =规范年度传输可用性因子,ndm的百分比=每月的天数ndy =年度=年度tafm = tafm =该月的传输系统可用性因子
摘要Danaher(2016)认为,增加的机器人化可能会导致报应差距:情况,在这种情况下,没有人可以公正地承担任何有害结果负责的规范事实与我们的腐败主义主义道德倾向冲突。在本文中,我们报告了一项基于Sparrow(2007)的著名武器系统的著名示例,该研究犯有战争犯罪,该命中罪是由美国,日本和德国的参与者进行的。我们发现(1)人们表现出具有道德上负责的自治系统的相当大的意愿,(2)在与这种系统互动时部分剥夺了人类代理人,更普遍地(3)(3)规范责任差距的可能性确实与人们明显的申诉主义倾向相反。我们讨论了这些结果对于责任差距文献中报应差距和其他立场的潜在影响意味着什么。
政府在19日大流行期间面临的主要挑战之一是平衡经济影响力与保护人们的健康(即经济与人道主义动机)。在本研究(n = 296)中,我们调查了人类价值观,政治取向以及对Covid-19的恐惧是否预测了经济和人道主义动机。我们发现,持有自我增强和规范价值观的人们具有较低的恐惧水平,并且在政治取向方面更加正确,倾向于优先考虑经济。相比之下,人们对规范价值的评价较少,交互式价值更少,报告了较高的covid-19相关恐惧,并且左倾的恐惧较大,倾向于优先考虑人们的健康。重要的是,价值观解释了差异超出政治取向和对Covid-19的恐惧。一起,我们的发现突出了价值观在决策中的重要性。
计算技术的最新进展引发了人们对权力从人类转移到机器决策者的担忧。从监禁到贷款审批再到大学申请,企业和国家行为者越来越依赖机器学习工具(人工智能的一个子集)来分配商品和执行强制措施。人们认为机器学习工具正在以牺牲重要个人利益的方式取代甚至消灭人类机构。对这种担忧的一种新兴法律回应是人类决策权。欧洲法律已经在《通用数据保护条例》中采纳了这一想法。美国法律,特别是在刑事司法领域,已经朝着同一方向发展。但没有一个司法管辖区准确定义这项权利的含义,也没有为其创建提供明确的理由。本文探讨了人类决策权的法律可能性。我首先定义了该权利应用于国家行动的技术可行性条件。为了理解其技术谓词,我指定了机器决策与人类决策不同的边界。这种技术背景化使我们能够细致入微地探索人类和机器决策之间的差距是否具有规范意义。基于这种技术核算,我随后分析了人类决策权的规范性利害关系。我考虑了三个潜在的规范性理由:(a)呼吁个人利益参与和给出理由;(b)担心国家行动的推理不足或个性化;(c)基于负面外部性的论点。仔细分析这三个理由表明,国家采用人类决策权没有普遍的理由。对于缺乏充分理由或不准确的决定的规范性担忧,对法律想象力有着特别强大的影响力,最好通过其他方式来解决。同样,对于算法工具造成社会权力不对称的担忧,也不能通过人类决策权来抵消。事实上,现有证据并没有坚定地支持人类决策权,而是暂时指向一种与之相反的“经过良好校准的机器决策权”,认为它最终在规范上更有依据。
3个能量提供给了来自Sr.号消费者的一般机构2净(i)委员会批准的(i)规范性T&D损失的年度损失与Sr. No.上面的1和2,以及(ii)最新的T&D损失了四个州的整个Discom。
本工具包包含来自不同地区实施 AHD 项目的合作伙伴的材料,仅供参考。它不旨在作为规范性指导。各国应审查这些工具,并在适当的情况下根据其认为合适的情况进行调整,同时考虑到当地的指导方针、背景和国家优先事项。
摘要。人工智能 (AI) 和机器学习 (ML) 的最新进展有望改善政府。鉴于人工智能应用的先进功能,至关重要的是,这些应用必须使用标准的操作程序、明确的认知标准嵌入其中,并按照社会的规范期望行事。随后,多个领域的学者开始概念化人工智能系统可能采取的不同形式,强调其潜在的好处和缺陷。然而,文献仍然支离破碎,公共管理和政治学等社会科学学科的研究人员以及人工智能、机器学习和机器人技术等快速发展的领域的研究人员都在相对孤立地开发概念。尽管有人呼吁将新兴的政府人工智能研究正式化,但缺乏一个平衡的描述,以涵盖理解将人工智能嵌入公共部门环境的后果所需的全部理论观点。在这里,我们使用概念图来识别人工智能多学科研究中使用的 107 个不同术语,从而统一社会和技术学科的努力。我们归纳地将它们分为三个不同的语义组,分别标记为 (a) 操作、(b) 认知和 (c) 规范领域。然后,我们在此映射练习的结果基础上,提出三个新的多方面概念,以综合、前瞻性的方式研究基于人工智能的政府系统 (AI-GOV),我们称之为 (1) 操作适应性、(2) 认知完备性和 (3) 规范显著性。最后,我们将这些概念用作 AI-GOV 概念类型学的维度,并将每个概念与新兴的人工智能技术测量标准相连接,以鼓励操作化,促进跨学科对话,并激发那些旨在用人工智能重塑公共管理的人之间的辩论。
应对这些挑战,我们提出了驾驶概念,以此作为实现良好驾驶行为的框架。驾驶理由评估驾驶行为在道路使用者之间存在的相互期望之间的一致性中。利用现有文献,我们首先要区分(i)经验期望(即,反映了“遵循某种行为的信念”,借鉴了过去的经验)(Bicchieri,2006年); (ii)规范性期望(即,基于社会同意的原则,反映了“应该遵循某种行为的信念”)(Bicchieri,2006年)。,由于社会期望自然会随着时间的流逝而自然变化,因此我们引入了第三种期望,促进期望,表示可以展示的行为,以促进运输生态系统的持续改进。我们将驾驶员置于社会规范期望的空间内,并指出现有的与一些经验和促进期望的重叠,这受到技术和物理上可行性的限制。
摘要 这是一篇关于人工智能 (AI) 及其潜在规范含义的概述文章。技术始终具有固有的规范后果,这不仅仅是由于人工智能和算法的使用。从技术意义上和社会科学角度来看,算法之间存在着至关重要的区别。这是一个不同顺序的规范性问题——第一个与作为技术指令的算法有关,第二个与由第一个顺序产生的后果有关。我把最后提到的这些规范称为算法规范。这些嵌入在技术中并由人工智能的设计决定。结果是一个经验问题。人工智能和算法规范是移动目标,需要一种与先进实践相关的新颖的科学方法。法律主要是为了预防新技术的负面影响而实施的。目前还没有针对人工智能的主要监管计划。在文章中,我指出了一些需要法律监管的领域。最后,我评论了与人工智能相关的数字发展面临的三个主要挑战:(1) 能源成本;(2) 奇点; (3)治理问题。