一位肾移植外科医生告诉我们,他凌晨 3 点被叫醒,被告知一场车祸夺走了一位肾捐赠者的生命,所以他必须决定哪位患者应该接受这颗肾。他只有几分钟的时间来做出这个改变人生的决定,因为肾脏无法长期存活,而且移植成功的几率每分钟都在下降。工作人员需要为选定的患者做手术准备,医生需要尽快离开医院进行手术。他仍然昏昏沉沉,没有时间查看患者病历,而且他可能更喜欢他的一些患者。这种情况远非形成关于谁应该接受肾脏的道德判断的理想情况。其他道德判断是在更好的环境中形成的。当医院伦理委员会有时间交换意见,其成员有时间审查有关相关患者的信息时,人们可能会认为道德判断更值得信赖。这就是医院设有伦理委员会的原因。然而,医院伦理委员会的成员很少有时间仔细审查所有相关信息,而且他们开会的时间往往太短,以至于委员会的每个人都无法充分表达自己的观点。此外,一些小组成员可能更愿意听取某些成员的意见,而不是其他持有同样有效观点的成员的意见。群体思维也是一种危险。当然,医院伦理委员会试图避免这些扭曲,但它们经常会失败,就像其他委员会一样。此外,专家委员会的价值观往往与当地社区不同。有时专家的判断优于公众的判断,但公众并不总是像许多精英所认为的那样被误导。专家有时会向公众学习。无论如何,公众的想法仍然很重要,这既因为公众的道德关注可能不同但仍然有效,也因为公众为公立医院付费,这让他们有权表达自己的价值观。此外,忽视公众的价值观会导致沟通不畅和误解,并可能使公众不太愿意支持医院。让医疗服务用户参与规划和研究,可以帮助临床医生和管理人员在问题出现之前发现潜在问题。通过这种方式,将医疗服务与利益相关者的价值观结合起来不仅公平,而且有用。
管理是一种普遍现象。它是一个非常流行和广泛使用的术语。所有组织——商业、政治、文化或社会组织都参与管理,因为管理可以帮助和指导各种努力实现明确的目标。根据 Harold Koontz 的说法,“管理是一种通过正式组织的团体中的人来完成工作的艺术。它是一种创造环境的艺术,在这个环境中,人们可以发挥个人才能,并可以合作实现集体目标”。根据 FW Taylor 的说法,“管理是一种知道做什么、何时做并确保以最佳和最便宜的方式完成的艺术”。
ood是每个人日常经历的司空见惯,以至于生产,加工,分发和食用食物的道德维度似乎很简单,从而显而易见。允许人口或个人饥饿被普遍认为是道德上的邪恶。一系列国际认可的宣言支持了自有权利的适当食品,始于联合国宪章和《普遍的人权宣言》。国际合作确保了维持寄托的合作,并通过国际经济,社会和文化权利的国际盟约以及关于消除饥饿和营养不良的普遍宣言以及罗马关于粮食安全的宣言。目标是千年发展目标中的第一名,要求消除饥饿。然而,在整个历史上,被指控根除饥饿的机构都涉及为实现这一目标所采取的措施所带来的复杂性,讽刺和意外的后果。即使是在减轻或结束全球饥饿的努力中遇到的涉及的杂物的简要摘要也需要比目前的概述更多的讨论。早期的努力强调从出口国到饥饿的人的口中获取食物。将技术从相对较高工业化的农业经济(尤其是美国)转移到从殖民主义阴影中出现的国家的农业部门的计划。
在本章中,我们认为,关于人工智能的讨论必须超越“伦理”的语言,并与权力和政治经济相结合,才能构成“好数据”。特别是,鉴于伦理作为看待人工智能问题的框架的局限性,我们必须超越目前部署的非政治化的“伦理”语言(Wagner 2018),以确定人工智能是否“好”。为了规避这些限制,我们使用“好数据”的语言和概念(Daly、Devitt 和 Mann 2019),作为一个更广泛的术语来阐明人工智能以及其他数字技术的开发和部署所涉及的价值观、权利和利益。对好数据的考虑超越了数据保护/隐私和 FAT(公平、透明和问责制)运动的反复出现的主题,包括对权力的明确政治经济批判。我们不提供更多的道德原则(它们往往说的是相同或相似的事情),而是提供构建良好数据人工智能的四个“支柱”:社区、权利、可用性和政治。总的来说,我们认为人工智能的“善”是一个明确的政治(经济)权力问题(Winner 1980),并且始终与人工智能的创造和使用程度有关,以增进社会福祉,特别是增加最边缘化和最被剥夺权利的人的权力。我们为实施“更好”的人工智能方法提供建议和补救措施。我们的策略使对人工智能进行一种不同的(但互补的)评估成为人工智能构建和部署的更广泛的社会技术系统的一部分。
1可无形的资本可能会提高衡量的生产率,因为它在资本库存中的水平不足,并且由于对生产率的直接贡献,例如通过研发。2我们的分析遵循国家产出和收入的传统定义。健康的改善将导致更多的国民收入量度增加(Nordhaus,2003年),但生产率增长不会增加。3在此期间,美国药品公司在所有公开列出的公司中的研发支出份额增加(7%至25%)。尽管我们的样本仅限于经济中最大的企业,但这些公司是经济中大部分的研发支出,约占三分之二。
机器学习 (ML) / 人工智能 (AI) 技术(包括神经网络 (NN) 变体)正在快速发展,从而扩展了其功能,导致高级模型在决策过程中得到更频繁的使用 [1]。随着这些模型融入组织和日常工作中,学者和从业者需要更加关注模型的开发过程和结果的解释 [2]–[4]。这一点很重要,因为重要决策越来越多地由人们无法完全理解的不同形式的算法支持或完全自动化,这被称为 AI 黑箱解释问题 [5]。如果我们不能解释算法,我们就无法反驳它们、验证它们、改进它们或从中学习 [6], [7]。从业者和学者都呼吁通过实施透明且易于理解的 ML 模型来更好地理解复杂且不透明的模型。解释 ML 模型的工作原理和结果的产生方式,可以提高人们对机器学习模型的信任度 [5]、[8]– [10]。
1. 随着人工智能应用变得越来越普遍,大学的教育工作者、管理者和领导者有责任对这项技术是什么以及它如何工作有一个基本的了解,这样我们才能就其设计、实施以及对教育系统中人类的影响提出批判性问题。正如开篇所说,我们不想在这样的机构工作和学习,在那里,涉及人工智能的流程和与人工智能的互动的决策感觉像变魔术一样。2. 有了基本的了解,应该能促进关于高等教育中人工智能的伦理设计、实施和治理的知情对话和民主决策。这包括利用现有的法律和监管机制,制定新的强有力的治理框架,以确保公平、透明和问责。3. 重要的是提高对人工智能对教育公平和普遍持有的歧视观点提出的独特挑战的认识。
12 对于除主席以外的董事会成员的提名和任命,PIOB 将与制定标准的董事会主席协商。PIOB 将建立并任命一个提名委员会(考虑利益相关者群体的多样性),负责促进提名过程并推荐董事会成员的任命,并遵循明确阐述的指导方针。请参阅有关利益冲突的建议 8。如本文“过渡”部分所述,可根据与 IFAC 的服务水平协议提供行政支持。