在科幻电视剧《星际迷航:原初系列》的“末日决战”一集中,企业号的船员们访问了一对行星,这两颗行星已经进行了 500 多年的计算机模拟战争。为了防止他们的社会被毁灭,这两个星球签署了一项条约,战争将以计算机生成的虚拟结果进行,但伤亡人数将是真实的,名单上的受害者自愿报告被杀。柯克船长摧毁了战争模拟计算机,并受到谴责,因为如果没有计算机来打仗,真正的战争将不可避免。然而,战争持续这么久的原因正是因为模拟使两个社会免受战争的恐怖,因此,他们几乎没有理由结束战争。虽然基于科幻小说,但未来人工智能战场的威胁引发了人们对战争恐怖的道德和实际担忧。驱使各国采用致命自主武器系统 (LAWS) 的逻辑确实很诱人。人类是会犯错的、情绪化的、非理性的;我们可以通过 LAWS 保护我们的士兵和平民。因此,这种推理将 LAWS 构建为本质上理性的、可预测的,甚至是合乎道德的。杀手机器人,尽管名为杀手机器人,实际上会拯救生命。然而,这种逻辑是愚蠢的。如果人工智能战争专注于完善战争手段,而忽视战争的目的,那么它就会存在许多潜在的陷阱。就像在《星际迷航》中一样,无风险战争的诱惑力很强,但它会给那些最终不可避免地被杀死、致残和流离失所的人带来真正的后果。接下来,我认为 LAWS 的前景存在严重的道德问题,而这些问题是先进技术无法解决的。道德不能预先编程以适用于各种情况或冲突,而有意义的人为控制忽视了自动化偏见如何影响决策中的人机交互。军事实体和非政府组织都提出了有意义的人类控制的概念,特别是在致命决策中
直接对人类胚胎进行基因改造是否会影响未来人的福祉?斯帕罗回答这个问题的方法违背了生物伦理学的一个核心目标:产生能够在研究、临床环境或公共政策中产生实际影响的观点。斯帕罗没有参与提供以经验为基础的人类身份描述的研究,而是不加批判地采用了帕菲特众所周知的两种基因干预类型的区分:“影响个人”和“影响身份”。这种区别对斯帕罗 (2022) 来说至关重要。鉴于对未来人的预期福利的合理关注,它允许他决定干预者是否对结果负有道德责任。影响个人的干预就是这种情况,因为只有在这种情况下,未来的人才会从干预中受益或遭受伤害。相比之下,目前通过 CRISPR 实现的体细胞或生殖细胞编辑通常涉及某种形式的选择——通过体外受精、体外胚胎核移植或植入前遗传学诊断——在植入妊娠母亲子宫之前选择“最佳孩子”。选择会影响身份,因为它会改变受孕时间,从而
此外,并非所有对AI透明度的担忧都是如此之高。有些担忧也更加脚踏实地。认为AI威胁要加剧当前歧视的人。担心,不透明的AI产生了促进种族主义,性别歧视和其他形式歧视的新方法,以及隐藏这种歧视的新方法。人类将继续以可预测的方式成为种族主义。这将部分归因于不透明的过程,这些过程指导了人类如何做出决定。,但是AI将创造新的种族主义方式。,它将创造新的方式来掩盖种族主义。这将是由于指导AI做出决定的不透明过程。AI可能与人类一样透明,理由是作出决定的原因。,但它的不透明性隐藏了支持和维持人类不透明度不存在的偏见的新方法。解决不透明人工智能中种族偏见的担忧,ZKMG(2019年,第673页)说:
1。过渡团队成员将避免实际和明显的利益冲突。更具体地说,过渡团队成员不得参与他们知道的任何特定过渡事项,可能与成员的财务利益直接冲突,直接家庭成员,合作伙伴,客户或其他个人或其他个人或组织在过去12个月内与之建立了业务关系或有业务关系。即使没有直接冲突,团队成员也会引起总法律顾问的注意,任何可能出现冲突的潜力。在情况下,存在冲突的出现,以至于一个合理的人会质疑过渡小组成员的公正性或得出结论,该成员在特定问题上的工作将破坏公众对过渡团队的信心。
人工智力现在存在于我们日常生活的许多领域中。它有望领导新的和有效的业务模型,以在私营和公共部门中有效和以用户为中心的服务。在深度学习,(深度)增强学习和神经进化技术方面的AI进步可以为人工通用智能(AGI)铺平道路。但是,AI的开发和使用也带来了挑战。数据语料库中普遍存在用于训练AI和机器学习系统的固有偏见归因于大多数这些挑战。此外,多个实例强调了在基于动力的决策中需要隐私,公平性和透明度的必要性。本书系列将为研究人员,领导者,决策者和决策者提供一条途径,以分享AI最前沿的研究和见解,包括其在道德,可解释的,可解释的,隐私的,可信赖的,可信赖的和可持续的方式中的使用。
A.总体项目背景1。地热部门发展项目(GSDP)的融资于2014年5月29日获得世界银行董事会的批准,最初的截止日期为2020年6月30日。它于2014年8月5日生效,并于2015年4月开始支付。该项目由国际发展协会(IDA - Credit No.54680)并由战略气候基金的扩大可再生能源计划(SREP - 信托基金编号TF 17206)。它也是由冰岛政府(用于技术援助)的平行资助。埃塞俄比亚政府(GOE)也提供了同行资金。最初的信用额为SDR SDR 1.155亿(相当于1.785亿美元),来自SREP的2450万美元。它与日本政府(GOJ)密切实施,该政府在Aluto Geotermal站点共同完成了GOE的初步钻井操作。
2025年1月15日撰写:纳粹·安迪比(Nazanin Andalibi)(密歇根大学),大卫·丹克斯(加利福尼亚大学,圣地亚哥分校),海莉·格里芬(Haley Griffin),海莉·格里芬(计算机研究协会),玛丽·卢·马赫(Mary Lou Maher)(计算机研究协会),杰西卡·麦克莱恩(JESSICA MCCLEARN(GOOGLE),Google)健康),凯蒂·西克(Katie Siek)(印第安纳大学),塔米·托斯科斯(Tammy Toscos)(Parkview Health),Helen V. Wright(计算研究协会)和Pamela Wisniewski(Vanderbilt University)此反应来自计算机研究协会(CRA)的计算社区联合会(CCC)(CCC)和CRA-Industry(CRA-Industry)。CRA是近250个北美计算机研究组织的协会,包括学术和工业,以及来自六个专业计算社会的合作伙伴。CCC的任务是CRA的小组委员会,是为了追求创新的,高影响力的计算研究,与紧迫的国家和全球挑战保持一致。CRA的另一个小组委员会CRA-I的使命是召集行业合作伙伴计算共同利益的研究主题,并将其与CRA的学术和政府选民联系起来,以促进共同利益和改善社会成果。请注意,本材料中表达的任何意见,发现,结论或建议是作者的意见,不一定反映了作者隶属关系的观点。下面我们回答了提出评论请求的问题1-9、11和13-14。
人工智能 (AI) 的影响和发展使我们的生活方式发生了惊人的变化。从艺术和工作到人际关系,AI 重塑了我们的世界,加剧了隐私风险,并提供了前所未有的预测和分析能力。在本课程中,我们将调查当代和历史伦理理论,并解决 AI 背景下提出的新伦理问题。我们关注 AI 不仅与人类身份有关,还关注我们在与 AI 不断变化的互动中对性别、种族和政治身份的概念。我们探索的其他关键问题包括我们对 AI 的信任、其决策过程的透明度、统计推理的风险和前景、AI 产生的原创内容的归属、对安全和隐私提出的挑战以及 AI 复杂的法律和道德地位。通过参与对话、调查案例研究以及亲身参与设计和编码体验,学生将掌握解决人工智能引发的重要问题的实践和理论策略。
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
马里兰州克朗斯维尔:今天,马里兰州信息技术部 (DoIT) 和马里兰州人工智能分部宣布,他们已向马里兰州议会提交了人工智能支持战略和人工智能研究路线图(AI 路线图)。该路线图列出了该州将实施的 5 部分战略,以加快在全州安全实施人工智能和机器学习技术。它还概述了该州将在 12 个关键领域开展的具体研究,包括促进经济发展、提高州劳动力的生产率以及为当地学校系统制定政策。“生成人工智能正以前所未有的速度发展,可能影响马里兰州人民生活的几乎每个方面,”DoIT 部长兼人工智能分部主席 Katie Savage 表示。“人工智能路线图为马里兰州在 2025 年的发展规划了路线图,帮助其加快人工智能采用的步伐,同时考虑到马里兰州独特的资产、机遇和风险。我们准备以切实可行的方式采用这项技术,使我们的国家更加安全、更具竞争力、更高效。”