传统的自由模型通常会隔离自主权,从而导致概念上的显着差距。自由主义者的自由意志强调完全独立于外部决定因素,这是一种理想化和不受约束的代理形式。这种观点忽略了自主权固有地受到系统性和关系影响的方式。另一方面,兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。 坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。 虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。 关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。 共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。
罗氏认识到 AI 在生命科学研究和医疗保健领域的潜力,并专注于开发一系列与 AI 相关的解决方案,以部署在医疗环境中(例如支持 AI 的诊断应用程序),用于开发药品(即优化和加速研发),用于不同的科学决策领域,以及合规地实现患者和客户体验的商业应用。目前,AI 没有统一的定义。经合组织将 AI 系统定义为“一种基于机器的系统,出于明确或隐含的目标,从收到的输入中推断如何生成输出,例如预测、内容、建议或决策,这些输出 [可以] 影响物理或虚拟环境。不同的 AI 系统在部署后的自主性和适应性水平上有所不同。”(更多)
密码学长期以来一直是确保通信和保护隐私的工具。但是,其作用超出了技术实施,以涵盖重要的政治和道德方面。由埃里克·休斯(Eric Hughes)于1993年撰写的Cypherpunk宣言[7],强调了加密和拥护者的继承性政治本质,以此作为确保隐私和个人自由的一种手段。同样,菲利普·罗加威(Phillip Rogaway)的[10]工作强调了密码学家的道德责任,尤其是在大规模监视和社会影响的背景下。从根本上讲,密码学可以看作是“武装”群众保护自己的群众的一种手段。1993年的宣言和罗加威的作品强调了两个要点:不信任政府和保护集体数据。这种观点在戴维·乔姆(David Chaum)的思想中得到了回应,他提出了一个依靠强大加密来保护隐私的交易模型。尽管这些想法首次阐明了40多年,但保护社会免受信息滥用的梦想仍然很遥远。Chaum警告:
马里兰州克朗斯维尔:今天,马里兰州信息技术部 (DoIT) 和马里兰州人工智能分部宣布,他们已向马里兰州议会提交了人工智能支持战略和人工智能研究路线图(AI 路线图)。该路线图列出了该州将实施的 5 部分战略,以加快在全州安全实施人工智能和机器学习技术。它还概述了该州将在 12 个关键领域开展的具体研究,包括促进经济发展、提高州劳动力的生产率以及为当地学校系统制定政策。“生成人工智能正以前所未有的速度发展,可能影响马里兰州人民生活的几乎每个方面,”DoIT 部长兼人工智能分部主席 Katie Savage 表示。“人工智能路线图为马里兰州在 2025 年的发展规划了路线图,帮助其加快人工智能采用的步伐,同时考虑到马里兰州独特的资产、机遇和风险。我们准备以切实可行的方式采用这项技术,使我们的国家更加安全、更具竞争力、更高效。”
摘要教育中的人工智能(AI)技术的整合引入了许多可能性和好处。但是,这也引发了道德问题,需要仔细考虑。这项研究工作探讨了与AI在教育中的实施相关的道德意义。这项工作研究了关键的道德维度,包括隐私和数据保护,公平和偏见以及对教师关系关系的影响。发现突出了AI设计和部署中透明度,问责制和公平性的重要性。这项工作提出了一个全面的框架,以指导教育中的道德人工智能实施,强调对强大的政策,算法透明度和解决偏见的需求。通过主动解决这些道德考虑,教育利益相关者可以确保一个负责任且包容的教育环境,以利用AI的潜力,同时维护道德原则。人工智能(AI)已彻底改变了包括教育在内的各个部门。其整合到教育体系中,提出了关于隐私,自治,偏见和问责制的道德问题。本文通过哲学观点深入研究了人工智能在教育中的道德意义。利用著名哲学家的作品,研究了在教育环境中使用人工智能技术固有的道德考虑。
2024 年 4 月由 FSMB 众议院通过 执行摘要 人工智能 (AI) 具有巨大潜力,可帮助医疗保健提供者进行诊断、治疗选择、临床记录和其他任务,以提高质量、可及性和效率。但是,如果没有适当的“护栏”和理解,这些技术就会带来风险,这可能会影响临床实践中的考虑因素以及州医疗委员会的监管流程。通过采取以道德原则为基础的主动和标准化治理方法,州医疗委员会可以促进各种形式的人工智能的安全有效整合,同时优先考虑患者的健康。本报告总结了专家意见和程序,以制定 FSMB 道德和专业委员会的指导方针,以帮助医生和州医疗委员会引导负责任和合乎道德的人工智能融入,重点是 (1) 教育、(2) 强调人类责任、(3) 确保知情同意和数据隐私、(4) 主动解决责任和义务问题、(5) 与专家合作以及 (6) 将人工智能治理锚定在道德原则上。必须持续监控和改进使用人工智能的临床系统和流程。这不应在真空中进行,而应成为医生、卫生系统、数据科学家和监管机构(包括州医疗委员会)之间协作的重点。通过深思熟虑地应对人工智能在医疗保健领域带来的机遇和挑战,州医疗委员会可以促进人工智能的安全、有效和合乎道德的使用,将其作为一种工具来增强(但通常不会取代)医疗实践中人类的判断力和责任感。在履行其使命以确保患者从人工智能的应用中受益而不是受到伤害的过程中,州医疗委员会必须避免过度监管和监管过度,避免试图监管不属于其职权范围的领域。通过集中精力关注持照人使用人工智能的现状和未来,州医疗委员会可以保持监管效率,实现跨辖区在临床实践中对人工智能监管的一致性,帮助确保人工智能的益处,并在维护专业标准的同时积极保护患者。
人工智能 (AI) 正在改变企业处理招聘和聘用流程的方式。随着组织越来越多地转向使用 AI 来简化招聘流程,围绕其使用的道德考虑变得越来越重要。虽然 AI 可以提供减少偏见和提高效率等好处,但它也引发了对隐私、公平和问责制的担忧。本研究论文的目的是探讨在招聘过程中使用 AI 的道德考虑,并确定确保合乎道德的 AI 招聘实践的最佳实践。AI 是指开发可以执行通常需要人类智能的任务(例如决策和解决问题)的计算机系统。在招聘方面,AI 算法可用于扫描简历、进行就业前评估和分析视频面试以识别潜在候选人。AI 有可能通过识别高质量候选人并减少招聘所需的时间和资源来改善招聘结果。然而,在招聘中使用人工智能也引发了与隐私、公平和问责相关的道德问题。
对 Timnit Gebru 和 Google 道德 AI 团队的支持 过去三年来,加州大学伯克利分校的 AFOG 受益于 Google 道德 AI 团队的几位成员参加我们的工作组会议和研讨会。最近,该团队的联合负责人 Timnit Gebru 博士因要求在她和她的团队成员进行的研究的内部审查过程中提高透明度和程序公平性而被解雇。AFOG 小组的成员研究数字技术在社会中的作用,并寻求建立更好、更公平的系统的方法。数十年来的技术史研究表明,技术不可避免地具有政治性。它们以独特的方式构建和调解人与人之间的关系。虽然数字技术具有巨大的潜在效益,但总有缺点、风险和危害需要考虑。这些风险并非均匀分布,而是经常遵循现有权力等级制度。根据我们在此领域的研究,我们了解到: