1 澳大利亚道德框架 2019 https://www.industry.gov.au/publications/australias-artificial-intelligence-ethics-framework/australias-ai-ethics-principles
2024 年 4 月由 FSMB 众议院通过 执行摘要 人工智能 (AI) 具有巨大潜力,可帮助医疗保健提供者进行诊断、治疗选择、临床记录和其他任务,以提高质量、可及性和效率。但是,如果没有适当的“护栏”和理解,这些技术就会带来风险,这可能会影响临床实践中的考虑因素以及州医疗委员会的监管流程。通过采取以道德原则为基础的主动和标准化治理方法,州医疗委员会可以促进各种形式的人工智能的安全有效整合,同时优先考虑患者的健康。本报告总结了专家意见和程序,以制定 FSMB 道德和专业委员会的指导方针,以帮助医生和州医疗委员会引导负责任和合乎道德的人工智能融入,重点是 (1) 教育、(2) 强调人类责任、(3) 确保知情同意和数据隐私、(4) 主动解决责任和义务问题、(5) 与专家合作以及 (6) 将人工智能治理锚定在道德原则上。必须持续监控和改进使用人工智能的临床系统和流程。这不应在真空中进行,而应成为医生、卫生系统、数据科学家和监管机构(包括州医疗委员会)之间协作的重点。通过深思熟虑地应对人工智能在医疗保健领域带来的机遇和挑战,州医疗委员会可以促进人工智能的安全、有效和合乎道德的使用,将其作为一种工具来增强(但通常不会取代)医疗实践中人类的判断力和责任感。在履行其使命以确保患者从人工智能的应用中受益而不是受到伤害的过程中,州医疗委员会必须避免过度监管和监管过度,避免试图监管不属于其职权范围的领域。通过集中精力关注持照人使用人工智能的现状和未来,州医疗委员会可以保持监管效率,实现跨辖区在临床实践中对人工智能监管的一致性,帮助确保人工智能的益处,并在维护专业标准的同时积极保护患者。
7月 *的Irina *,‡,,赫尔曼(Herman),丹尼尔·卡森伯(DanielKasenber§ Wei-Jen KO 3,Andrera Huber 1,Bretht Wastshire 1,Gall Elidan,Rabin 2,Roni Robinin 2,Robiviit Engelberg 2,Lydan Hackmon 2,Ravil 2,Rachel棕色1,绿色Chiir§,1,Grand Studina Grand We-Xin Dog 3,Marchal 1,Racsite Van Deman 4,儿童区,Abbhipolo 3,Striopolous 3,Annihe Hale 5,Wais Matatas 2,Ben Gomes 3特征1
1)通过最大限度地发挥人工智能的经济潜力来释放机遇。拥抱人工智能的经济体将实现显著增长,超越那些接受速度较慢的竞争对手。在现有行业中采用人工智能代表着提升价值链、生产更复杂、更有价值的产品和服务的机会。尽管人口挑战日益严峻,但人工智能也有望帮助提高生产力。政府、私营部门、教育机构和其他利益相关者需要制定联合和单独的战略,使企业、工人和社区能够利用人工智能的优势。政府应增加对基础人工智能研究的投资,研究未来工作的发展以帮助劳动力转型,并制定计划以确保强大的 STEM 人才渠道。政府和行业需要加大力度提高工人的技能,并支持企业满足不断变化的需求和生产商品和服务的新方式。
过去几年,美国联邦政府对人工智能技术的采购急剧增加。1 基于对各机构在采购尖端人工智能方面面临的挑战的研究,NAIAC 2023 年秋季的建议重点关注各机构在现有采购权限内可以做些什么。即,NAIAC 建议各机构优先考虑人工智能采购,包括在其总统过渡计划中;解决人工智能专业知识差距并培训采购人员;利用新兴人工智能采购实践的非详尽清单——例如质量保证监测计划 (QASP) 和领域内评估;并确保创新人工智能采购方面的专业知识和最佳实践成为机构知识并在整个机构间共享。2 持续的研究和与利益相关者的接触揭示了联邦采购条例 (FAR) 在实践中的实施存在很大局限性。因此,这项建议侧重于机构采购一流、值得信赖的人工智能所必需的变革。
在过去十年中,人工智能 (AI) 已成为全球范围内的一股颠覆性力量,它为创新提供了巨大的潜力,但也为个人及其所生活的社会带来了危害和风险。本书探讨了人工智能带来的最紧迫的哲学、伦理、法律和社会挑战。来自不同学科和领域的贡献者探索了负责任的人工智能的基础和规范方面,并为负责任的人工智能的跨学科方法提供了基础。这项工作旨在促进未来的讨论,以制定人工智能治理的比例方法,将使学者、科学家和其他参与者能够确定人工智能的规范框架,使社会、国家和国际社会能够释放这一关键领域负责任创新的潜力。本书也可在 Cambridge Core 上以开放获取的形式获取。
摘要 — 为了在这个日益脆弱的世界中保护共同的文化遗产、个人自由和法治,民主国家必须能够在必要时“以机器速度”保卫自己。因此,人工智能在国防中的使用包括负责任的武器交战以及后勤、预测性维护、情报、监视或侦察等军事用例。这就提出了一个永恒的问题:如何根据公认的事实做出正确的决定?为了找到答案,负责任的可控性需要转化为系统工程的三个任务:(1)以人类在心理和情感上能够掌握每种情况的方式设计人工智能自动化。(2)确定技术设计原则,以促进人工智能在国防中的负责任使用。(3) 保证人类决策者始终拥有充分的信息、决策和行动选择优势。这里为防空提出的道德人工智能演示器 (E-AID) 正在铺平道路,让士兵尽可能真实地体验人工智能在瞄准周期中的使用以及相关的压力方面。
● 世界各地的数据保护法 ● 人道技术基础课程 ● 道德操作系统 - 风险缓解清单 ● 道德探索者 - 帮助应对当今技术未来影响的工具 ● 后果扫描 - 创新者的敏捷实践 ● 新西兰 2020 年隐私法案和隐私原则 ● 欧盟的 GDPR 数据保护法 ● Consentfultech.io ● 书籍:道德算法:社会意识算法设计的科学 ● 书籍:数学毁灭武器 ● 书籍:呼喊零和一:新西兰的数字技术、道德和政策 ● 书籍:你好世界:算法时代的人类 ● 书籍:对齐问题:机器学习和人类价值观 ● 书籍:隐形女性:为男性设计的世界中的数据偏见 ● 书籍:酷儿数据:使用性别、性和性行为数据采取行动 ● 书籍:压迫算法:搜索引擎如何强化种族主义 ● 书籍:数据女权主义
