数字指南针的目标是提高企业的数字化程度和人工智能 (AI) 的采用率。各个国家和各个行业都在越来越多地使用基于人工智能的技术,例如算法管理、基于人工智能的机器人和使用算法进行数据处理的可穿戴设备。基于文献综述和公司层面探索性案例研究的见解,本文介绍了基于人工智能的技术在工作场所的主要应用及其对工作组织、工作条件和道德的影响。证据表明,人工智能的使用对工作组织和工作条件产生了一系列积极和消极的影响,并引发了一些道德问题。为了解决其中一些问题,近年来,欧盟、国际和国家公共当局及社会伙伴出台了一系列道德准则和建议。本文介绍和比较了不同的举措,强调了当前存在的差距,以确保保护工人和工作条件,同时为实现数字指南针的数字化目标做出贡献。
摘要:随着人工智能 (AI) 在现代生活中蓬勃发展和传播,一个关键问题是,如何将人类纳入未来的人工智能?尽管人类参与了从构思、设计到实施的每个生产过程阶段,但现代人工智能仍因其“黑箱”特性而经常受到批评。有时,我们不知道内部到底发生了什么,也不知道某些结论是如何以及为什么得出的。未来的人工智能将面临许多其创造者无法预见的困境和道德问题,而不仅仅是那些常见的问题(例如,电车难题及其变体),而这些问题的解决方案无法硬编码,而且往往仍有待商榷。鉴于此类社会和道德困境的敏感性及其对整个人类社会的影响,当我们的人工智能做出“错误”选择时,我们需要了解它们是如何导致的,以便进行纠正并防止再次发生。在涉及人类生计(例如,健康、福祉、财务、法律)或做出重大个人或家庭决定的情况下尤其如此。要做到这一点,就需要打开人工智能的“黑匣子”;尤其是它们在人类世界中的行为、互动和适应,以及它们如何与这个世界上的其他人工智能互动。在本文中,我们主张将认知架构应用于道德人工智能。特别是,它们可能对人工智能的透明度、可解释性和可问责性做出贡献。我们需要了解我们的人工智能如何得到它们所做的解决方案,我们应该在更深层次上寻求这一点,从动机、态度、价值观等机器等价物的角度来理解。未来人工智能的道路漫长而曲折,但它可能比我们想象的更快到来。为了利用人工智能对人类和社会的积极潜在结果(并避免负面影响),我们首先需要更全面地了解人工智能,我们希望这同时也有助于更好地了解人类同行。
在越来越多的情况下,人工智能算法必须模拟人类的(社会)偏好,并越来越多地代表人类做出决策。它们可以通过反复观察社交活动中的人类行为来学习这些偏好。在这样的背景下,当人们都知道他们的行为会通过算法的训练产生各种外部性时,个人会调整其行为的自私性还是亲社会性?在一个在线实验中,我们让参与者在独裁者游戏中的选择来训练算法。因此,它们对智能系统未来的决策产生了外部性,从而影响了未来的参与者。我们表明,那些意识到他们的训练对未来一代的回报的影响的人会表现得更加亲社会,但前提是他们承担着未来算法选择伤害自己的风险。在这种情况下,人工智能训练的外部性会导致当前平等决策的比例显著提高。
人工智能 (AI) 和其他机器学习 (ML) 应用正日益渗透到我们生活的各个方面,医疗保健也不例外。除了新兴应用之外,AI 已经以多种方式得到应用,包括医学成像、解析和整理电子病历、优化护理轨迹、诊断、提高临床试验的入组率,甚至减少医疗错误 (1-4)。这不是一份详尽的清单;可以说,这些应用与医学领域本身一样多种多样且复杂。2018 年,纳菲尔德生物伦理委员会指出,由于 AI 在用于训练 ML 算法的数据集中重现偏见的方式,以及偏见可以“嵌入算法本身,反映 AI 开发人员的信念和偏见”的方式,AI 在医疗保健领域的使用可能存在问题 (2)。在本文中,我认为偏见是指对边缘群体有意识和无意识的负面情绪或看法,这种情绪或看法根源于历史歧视,会影响一个人的行为和思维方式。这些偏见及其对健康的负面影响已经在最近的 ImpactPro 研究等案例中得到体现,该研究发现纽约联合健康服务中心的一种算法未能以与白人患者相同的比例向黑人患者推荐复杂的健康需求计划 (5-6)。因此,医疗保健领域必须应对此类技术的普及,以纠正医疗保健系统中先前的不平等现象,这些不平等现象产生了人工智能技术目前正在重现的偏见数据 (4,7)。为此,医疗从业人员必须采取各种反偏见措施,例如隐性偏见培训、医学偏见教育和“换位思考”,并承担起 AI 技术监督者和合作者的责任。目前用于减少日常医疗互动中偏见的许多措施可以转移到 AI 中,尤其是当医疗从业人员对 ML 算法推荐的决策拥有最终决定权时。很难确定 AI 在医疗保健领域应用的通用规则,因为应用、用途和环境非常多样化,并且一直在发展。鉴于此,我将使用 ImpactPro 案例来说明 AI 对医疗保健的影响如何重申在提供医疗服务以更好地满足边缘化患者的健康需求时打击偏见的现有职责。我认为 ImpactPro 案例表明,医疗从业者有机会通过减少医院和医学研究中的偏见实践以及与边缘化社区建立信任来抵制 AI 算法中的偏见,最终目标是改善用于训练 AI 的数据,并更快地发现 AI 结果存在偏见的案例。这些途径也符合 AI 最佳实践的原则,例如《蒙特利尔人工智能负责任发展宣言》和人工智能高级专家组 (HLEG) 提出的原则。
•生物伦理学教育:强调生物伦理学在教育领域的重要性。•临终关怀:解决姑息治疗,临终关怀或生命终结决定中的道德考虑。•遗传学和基因组学:探索围绕遗传研究,基因编辑和个性化医学的道德问题。•AI和新兴技术:反思人工智能和/或医疗保健中其他新技术提出的道德挑战。•其他生物伦理主题:任何与生物伦理相关的主题都引起您的兴趣。欢迎所有艺术格式的提交格式数字或物理艺术品。用于数字提交,格式,包括但不限于JPG,PNG,PDF,MP3,WAV,WMA,MP4。艺术品必须是原始的,并且不得以前出版或展出。提交要求每个参与者只能提交一个条目。每个提交的内容应包括一个标题和简要说明,对艺术品背后的概念及其与所选主题的联系说明不超过100个单词。所有参与者,无论格式如何(数字或物理艺术品)都必须填写并提交签名的在线提交表(可在CUHK Bioethics网站上获得[此处])。
摘要:虽然人工智能可以作为研究的催化剂,利用数据分析和综合,但矛盾的是,它降低了那些缺乏科学诚信的人的界限,从而增加了抄袭事件。这强调了修补旨在评估文本相似性和引用完整性的强大软件工具的必要性,这些工具旨在保护科学伦理的核心原则。这些原则在学术旅程中得到了深刻的体现,最终为经验丰富的研究人员带来了全面的理解。作为回应,本研究提倡采取多样化的方法来提高学术界的研究伦理,通过提高认识、培养道德文化和坚持严格的科学标准。应该通过研讨会和论坛来解决这一问题,并结合对侵犯知识产权的严厉法律行动。关键词科学研究、科学伦理、人工智能、数字技术、科学诚信。
Hellgate 小学学区的人工智能 (AI) 政策 Hellgate 小学学区致力于负责任地利用人工智能 (AI),以支持我们的学生、员工和家庭。通过优先考虑道德、隐私和教育价值,我们旨在让学生为负责任地使用人工智能的未来做好准备,同时保障他们的权利和福祉。
最后,很容易构建有效推理导致结论与我们的道德直觉冲突的情况。例如,考虑在一家大型城市医院中的移植中心。在任何给定时间,都可能有一个需要肾脏,心脏,肺以及其他器官和组织的人的等待名单。假设一名年轻的事故受害者因股骨严重的骨折带入急诊室。常规手术和一段时间的牵引力应导致完全恢复。事实证明,腿骨折的男人对于几位移植患者来说是一个很好的匹配,他们的生命只能通过替换器官挽救。是否应该“恢复”男人的器官,以便其他三个或四个可以生存?似乎是功利主义的决定
新冠疫情已经过去,世界大多数国家都继续前进,不愿重温那三年的黑暗时期,那段时期造成近 700 万人死亡。尽管新冠疫情不是死亡人数最多的一次,但它在许多方面都是史无前例的 (1)。全球化的旅行和通讯迅速将一个局部突变变成了一场世界性瘟疫。与此同时,全球迅速找到了限制传染和减轻病毒破坏性影响的方法,通过检测、隔离、疫苗接种和药物治疗。全球通讯的进步使世界在数年内能够在最低限度的人际接触下运转,但与此同时,信息疫情现象也愈演愈烈,病毒性质的真假被政治化和权衡 (2)。关于病毒的起源、严重程度、死亡率、传播方式、口罩和其他防护措施的有效性、行动限制、封锁、保持社交距离、接触者追踪和隔离措施,仍然存在许多不确定性和持续的争论。此外,关于各种检测的准确性以及治疗、接种和替代医学的最佳医学指导仍然存在疑问。虽然世界已经向前发展,COVID-19 不再占据全球头条新闻,但反思这一悲剧仍然很有价值
传统上,工程伦理被视为仅属于贫血领域。在本章中,有人认为工程伦理可以从社会学方法中学到很多东西。这一点尤其重要,因为所有工程师都是隐性的社会学家。他们对自己居住,社交和工作的社会世界形成了一种看法 - 他们认为他们的工程文物将被部署。对形式社会学的更多了解使工程师能够以更跨学科和多维的方式将其实践背景,理解问题并产生工程思想。社会学还可以帮助我们了解技术伦理(以及工程师的作用)如何以及为什么(文化)和时间(历史上)以及社会系统的结构变化以及思想历史的变化。社会学为我们提供了与学生合作时解构简单观点的工具,例如技术决定论和信念技术设计是价值中立的。本章介绍了我们认为的三种最关键的社会学方法及其对工程伦理教育的潜在贡献:批判理论,后殖民理论以及科学,技术和社会(STS)研究。