WCA 新闻第 3 至 5 页最近获奖作品第 6 至 7 页最近销售作品第 8 至 10 页小说 Gail Anderson-Dargatz,《几乎寡妇》 Gina Buonaguro,《威尼斯处女》 Charles Demers,《正午的黑暗》 JD Derbyshire,《仁慈的基因》 Sean Dixon,《七个伪造者的绑架》 Elyse Friedman,《机会主义者》 Kim Fu,《21 世纪鲜为人知的怪物》 Jonathan Garfinkel,《没有狗的国度,猫学会了吠叫》 Bruce Geddes,《追逐黑鹰》 Don Gillmor,《破门而入》 Quinlan Grim,《丹尼·麦吉的幽灵》 Erum Shazia Hasan,《我们本意是好的》 Elizabeth Hay,《雪路车站》 Thomas King,《可怕的水之谜系列》 Lydia Kwa,《梦需要唤醒》 Benjamin Lefebvre,《戴尔的钥匙》 Kelly Ohlert,《到达另一边》 Anna波特,《海鸥岛》 戴维·A·罗伯逊,《乌鸦理论》 伊丽莎白·鲁思,《半独立式住宅》 艾米丽·萨索,《九段线》 克雷格·什里夫,《非洲武士》 莉安·敏子·辛普森,《从未如此美好》 凯莉·斯奈德,《弗朗西斯拿着枪》 托马斯·特罗菲穆克,《卡尔·大桥上的大象》 萨姆·维贝,《日落与杰里科》
2022年2月8日,意大利议会批准了保护环境的宪法修正案。一名议员表示,环境是意大利的元素,保护环境就是保护人类。保护环境的需要似乎已成为公众良知的重要组成部分。同样,如果社会认为人工智能对人类至关重要,宪法是否允许为人工智能创造宪法权利?将宪法权利扩展到人工智能可能与权利的法理历史相一致。宪法权利随着时间的推移发生了蜕变,以保护新的主体并创造新的权利。例如,1994年,美国最高法院将第一修正案下的言论自由权扩展到有线电视运营商,因为他们是随着有线电视技术的发展而出现的新行为者。人工智能也是随着数字技术的出现而出现的新行为者。宪法保护人工智能的理由是什么?法国宪法法院 2020 年 6 月 18 日的裁决和美国最高法院在 Packingham v. North Carolina 案中的意见均表明了基于必要性的推理。当某些人工智能对于防止侵犯现有宪法权利是必不可少的时,这种需要可能为通过宪法权利保护此类人工智能的存在提供正当理由。在杰里米·边沁的哲学下获得仁慈的快乐可能是赋予人工智能宪法权利的另一个正当理由。然而,这种正当理由引发了人们对人工智能的幸福可能意味着什么的问题,促使人们重新考虑效用计算的标准。同时,赋予人工智能宪法言论自由权的正当理由包括追求真理和促进技术特有的、对人类有贡献的活动。
人工智能 (AI) 系统的快速发展表明,通用人工智能 (AGI) 系统可能很快就会到来。许多研究人员担心 AI 和 AGI 会通过故意滥用 (AI-misuse) 或意外事故 (AI-accidents) 伤害人类。关于 AI-accidents,人们越来越致力于开发算法和范例,以确保 AI 系统与人类的意图保持一致,例如,AI 系统产生的行动或建议可能被人类判断为与他们的意图和目标一致。在这里,我们认为,与人类意图保持一致不足以保证 AI 系统的安全,而长期保护人类的能动性可能是一个更强大的标准,需要在优化过程中明确和先验地将其分开。我们认为 AI 系统可以重塑人类的意图,并讨论了保护人类免于失去能动性的生物和心理机制的缺乏。我们提供了第一个保护能动性的 AI-人类互动的正式定义,该定义侧重于前瞻性的能动性评估,并认为 AI 系统(而不是人类)必须越来越多地承担这些评估的任务。我们展示了在包含嵌入式代理的简单环境中如何发生代理丧失,这些代理使用时间差分学习来提出行动建议。最后,我们提出了一个名为“代理基础”的新研究领域,并提出了四个旨在提高我们对人工智能与人类互动中代理的理解的初始主题:仁慈博弈论、人权的算法基础、神经网络中代理表示的机械可解释性和从内部状态进行强化学习。
在后院的番茄园里,我把事情安排得简单而不政治化:口袋里装着番茄胶带,干净的剪刀用来修剪根茎,一把锄头,几根旧竹竿用来帮助黄瓜藤回到它们应该在的棚架上。棚架是黄瓜生长的最佳方式。你可以看到黄瓜,它们很容易采摘。而且它们不会藏在地上的叶子下面,在那里被遗忘的种子会结籽并压死藤蔓。西红柿?把它们关在笼子里或用木桩固定。洋葱排成一排。还有罗勒。我只需要找到一棵凤尾鱼树——谁不喜欢番茄洋葱沙拉里的凤尾鱼呢?早上我去的院子里,鸟儿在歌唱,但有一件事我听不到:政治。西红柿不擅长表现美德。洋葱不会抱怨仇恨邮件。它们不会抱怨罗勒说的话。黄瓜呢?它们按照指令行事。它们不会聚众闹事,要求最高法院无视法律——这样他们就能得到想要的东西——然后把花园变成一片混乱的杂草丛。我不会容忍这种行为。我是这里的首席大法官。它们得到的只是水、肥料、几句鼓励和关爱。但法律就是法律。在法律的最后,有一个神圣的条款允许我吃掉它们。所以它们等着我,早上戴着软帽的男人。几周前,我发现了一株野番茄,让它活了下来,难道我不够仁慈吗?它一定是从一颗掉落的种子中发芽的。一位同事的父亲是农民,去年他给了我一株他的传家宝番茄植株。我把它种在前排。野番茄可能就是其中之一。与此同时,神犬宙斯把兔子赶走了。今年的兔子大军规模庞大,肉多,而且特别愚蠢。有一只特别愚蠢的兔子开始在里面挖窝
《柳叶刀》杂志最近发表的一项研究发现,四个行业(烟草、不健康食品、化石燃料和酒精)每年造成全球至少三分之一的死亡。该论文呼吁各国政府采取行动,投资于一个始终将人类和地球健康置于利润之上的世界。在爱尔兰,解决酒精危害问题目前分散在多个政府机构中。这种资源分散以及一个办公室/单位内缺乏专门的人员配备,削弱了爱尔兰现在和将来在减少酒精危害负担方面取得的强有力的战略应对措施。这也为既得利益者提供了利用和阻碍连贯应对的空间。酒精带来的社会问题规模如此之大,现在需要专门的资源来推动变革。爱尔兰对酒精危害的主要立法回应是《2018 年公共卫生(酒精)法案》,其中包括最低单位定价等措施以及对酒精促销和供应的一些适度限制。然而,该法案的实施仍面临持续的挑战,而且自该法案通过以来,酒精政策也出现了多项其他发展,例如即将出台的《酒精销售法案》提出通过延长许可时间和场所来增加酒精供应,以及缺乏对酒精在线营销和销售的控制。这表明需要持续进行酒精政策研究和制定。必须设立一个专门的酒精危害减少办公室,配备工作人员和预算,领导整个政府的酒精政策制定。这一点越来越重要,因为公共卫生与全球行业对立,而该行业“歪曲酒精对健康不利的证据,长期以来一直寻求发展公私合作伙伴关系,将行业描绘成仁慈的合作伙伴,同时构建论据说不负责任的个人应该受到指责。”
数百年(即使不是数千人)慷慨的人赋予了他们改善他人生活的资源。基于仁慈的基础是代表事业和有需要的人(筹款人)寻求支持的人。作为一个小组,他们通常鲜为人知,鲜为人知,但它们是使他人表达慈善事业并体验奉献乐趣的动力。在上个世纪左右,筹款人的工作变得越来越专业。筹款人的作用是通过建立特许筹款研究所(CIOF),筹款教育的发展以及对编纂职业道德的增长兴趣来实现专业认可。正确地,筹款人越来越被认为具有一组特定的技能,他们的知识库在规模和范围上正在增长。本系列旨在帮助筹款人建立他们的技能并促进专业人士。每个卷都解决了筹款技术范围中的关键部分。随着筹款活动的发展和发展,该系列中的新标题并进行了修订。每个标题探讨了特定的筹款活动:查看当前的最佳实践;帮助建立未来的战略;并且,在相关的情况下,考虑了该活动的历史,道德和理论背景。该系列为任何渴望成为专业筹款活动的人提供了一些东西,无论组织的规模或类型是什么或职业生涯的阶段。肯特大学慈善中心很荣幸能与社会变革目录和该系列发展中的CIOF合作,这是我们共同使命的一部分,即从学术界开放见解到实践筹款人。我们还想向筹款学者阿德里安·萨吉(Adrian Sargeant)致敬,以获得该系列的早期拥护和管理。没有许多人的辛勤工作,从作者到塑造文本的出版团队的贡献者的辛勤工作,这个系列将是不可能的。我们感谢为其发展做出贡献的每个人。
儿童仁慈医院 457(b) 延期补偿计划 (“计划”) 已被采用,为您提供以税收优惠方式为退休储蓄的机会,并为退休提供额外收入。该计划是一种退休计划,通常称为符合免税组织的 457 计划。457 计划条款摘要包含有关您何时有资格参与计划、您的计划福利、您的分配选项以及计划的许多其他功能的宝贵信息。您应该花时间阅读本摘要,以更好地了解您在计划下的权利和义务。我们已尝试回答您可能对计划中的福利提出的大多数问题。如果本摘要不能回答您的所有问题,请联系管理员。管理员的姓名和地址可在本摘要的标题为“计划的一般信息”的文章中找到。本摘要描述了计划的法律文件中所载的计划福利和义务,该文件管理计划的运作。计划文件采用更加技术性和精确的语言编写。如果本摘要中的非技术性语言与计划文件的技术性、法律性语言相冲突,则以计划文件为准。如果您希望收到一份法律计划文件的副本,请联系管理员。本摘要描述了计划的当前规定。该计划受联邦法律(例如《国内税收法典》)和其他可能影响您权利的联邦和州法律的约束。由于法律变更或美国国税局 (IRS) 的公告,计划的规定可能会进行修订。雇主也可以修改或终止本计划。如果本摘要中描述的计划规定发生变化,管理员将通知您。本摘要不涉及特定投资产品的条款。该计划没有资金,这意味着根据该计划的供款仍是雇主资产,并受雇主的一般债权人的约束。
为了与机器人无缝互动,用户必须推断机器人行为的原因 - 并对该推断(及其预测)保持一致。因此,信任是人类机器人协作(HRC)的必要条件。然而,尽管它具有至关重要的作用,但它仍然在很大程度上未知信任如何出现,发展和支持人类与技术系统的关系。在以下论文中,我们回顾了有关信任,人类机器人相互作用,HRC和人类互动的文献。早期的信任模型表明,这是仁慈与能力之间的权衡;尽管对人类互动的研究强调了共同行为和相互知识在逐步建立信任中的作用。我们继续引入一种信任模型,作为代理商的最佳解释,以与扩展的汽车厂或合作伙伴进行可靠的感觉交流。该模型基于主动推论的认知神经科学,并建议在HRC的背景下,可以根据对人工药物的虚拟控制来施放信任。交互式反馈是扩展受托人感知行动周期的必要条件。该模型对理解人类机器人的互动和协作具有重要意义,因为它允许人类信任的传统决定因素,例如归因于受托人的仁慈和能力,可以根据层次的主动推断来定义,而可以用信息交换和授权来描述脆弱性。此外,该模型强调了用户反馈在HRC期间的作用,并建议在个性化互动中使用无聊和惊喜作为对系统过度依赖的标志。将信任作为虚拟控制感的描述为扎根人为因素而在认知神经科学领域迈出了至关重要的一步,并改善了以人为中心的技术的设计。此外,我们研究了共同行为在信任起源中的作用,尤其是在二元协作的背景下,这对人类机器人协作系统的可接受性和设计产生了重要的后果。
为了与机器人无缝互动,用户必须推断机器人行为的原因 - 并对该推断(及其预测)保持一致。因此,信任是人类机器人协作(HRC)的必要条件。然而,尽管它具有至关重要的作用,但它仍然在很大程度上未知信任如何出现,发展和支持人类与技术系统的关系。在以下论文中,我们回顾了有关信任,人类机器人相互作用,HRC和人类互动的文献。早期的信任模型表明,这是仁慈与能力之间的权衡;尽管对人类互动的研究强调了共同行为和相互知识在逐步建立信任中的作用。我们继续引入一种信任模型,作为代理商的最佳解释,以与扩展的汽车厂或合作伙伴进行可靠的感觉交流。该模型基于主动推论的认知神经科学,并建议在HRC的背景下,可以根据对人工药物的虚拟控制来施放信任。交互式反馈是扩展受托人感知行动周期的必要条件。该模型对理解人类机器人的互动和协作具有重要意义,因为它允许人类信任的传统决定因素,例如归因于受托人的仁慈和能力,可以根据层次的主动推断来定义,而可以用信息交换和授权来描述脆弱性。此外,该模型强调了用户反馈在HRC期间的作用,并建议在个性化互动中使用无聊和惊喜作为对系统过度依赖的标志。将信任作为虚拟控制感的描述为扎根人为因素而在认知神经科学领域迈出了至关重要的一步,并改善了以人为中心的技术的设计。此外,我们研究了共同行为在信任起源中的作用,尤其是在二元协作的背景下,这对人类机器人协作系统的可接受性和设计产生了重要的后果。
摘要背景:在人工智能 (AI) 应用于医疗保健领域时,可解释性是最受争议的话题之一。尽管人工智能驱动的系统已被证明在某些分析任务中表现优于人类,但缺乏可解释性仍然引发批评。然而,可解释性不是一个纯粹的技术问题,相反,它引发了一系列需要彻底探索的医学、法律、伦理和社会问题。本文对可解释性在医学人工智能中的作用进行了全面评估,并对可解释性对于将人工智能驱动的工具应用于临床实践的意义进行了伦理评估。方法:以基于人工智能的临床决策支持系统为例,我们采用多学科方法从技术、法律、医学和患者的角度分析了可解释性对医学人工智能的相关性。基于这一概念分析的结果,我们随后进行了伦理评估,使用 Beauchamp 和 Childress 的“生物医学伦理原则”(自主、仁慈、不伤害和正义)作为分析框架,以确定医疗 AI 中可解释性的必要性。结果:每个领域都强调了一组不同的核心考虑因素和价值观,这些因素与理解可解释性在临床实践中的作用有关。从技术角度来看,可解释性必须从如何实现和从发展角度来看有什么好处两个方面来考虑。从法律角度来看,我们将知情同意、医疗器械认证和批准以及责任确定为可解释性的核心接触点。医学和患者的观点都强调了考虑人类行为者和医疗 AI 之间相互作用的重要性。我们得出的结论是,在临床决策支持系统中忽略可解释性会对医学的核心伦理价值观构成威胁,并可能对个人和公共健康产生不利影响。结论:为了确保医疗 AI 兑现其承诺,需要让开发人员、医疗保健专业人员和立法者意识到医疗 AI 中不透明算法的挑战和局限性,并促进多学科合作。关键词:人工智能、机器学习、可解释性、可解释性、临床决策支持