研究诚信 我们的使命是通过研究和分析帮助改善政策和决策,这一使命通过我们的核心价值观(质量和客观性)以及我们对最高诚信和道德行为的坚定承诺得以实现。为了确保我们的研究和分析严谨、客观和不偏不倚,我们对研究出版物进行了严格而严格的质量保证流程;通过员工培训、项目筛选和强制披露政策避免出现财务和其他利益冲突的表象和现实;并通过我们致力于公开发表研究结果和建议、披露已发表研究的资金来源以及确保知识独立的政策,追求研究工作的透明度。有关更多信息,请访问 www.rand.org/about/principles。
我们的工作组由具有丰富太空政策经验的人员组成,包括前国会议员、前空军部长、现任国防科学委员会主席、前国家安全太空计划领导人、前美国宇航局喷气推进实验室主任、现任和前任行业高管以及其他太空政策专家。由于我们可用于执行任务的时间有限以及您的职责性质,我们的工作组严重依赖其自身的专业知识,并辅以空间政策咨询委员会最近的两份报告,即《美国太空工业基地的未来》和《美国太空发射能力的未来》;1990 年美国太空计划未来咨询委员会报告;以及来自直接和间接与美国太空计划打交道的部门的高级政府官员的一系列简报。我们尽一切努力,包括工作组的组成,以确保其结果是不偏不倚的。
尊重 - 真诚地尊重他人,并考虑到他人的多样性,以营造团队合作和追求卓越的环境。 责任/个人 - 承担个人行为的责任,并对自己的行为、分配的任务、职责和职能负责。 责任/机构 - 通过提供方便、负担得起和多样化的教育机会来促进个人成功,从而对机构卓越负责。 诚实 - 诚实守信,无可指责地表现出正直;保持开放、诚实、清晰和有效的内部和外部沟通。 同情 - 理解和考虑他人的感受,认识到自己的行为对他人的影响,以便给各方带来希望,同时对他人的需求保持敏感。 公平 - 采取公正和不偏不倚的行动,以公平和一致的方式对待他人,承认他人的不同需求。
鉴于潜在的利益冲突,某些访问是禁止的。这些包括 WPA 或其他管理人员是顾问-评估员的前顾问或受训者的校园访问。除了潜在的利益冲突之外,这里还需要考虑先前关系的强度以及随之而来的固有权力行使。 成员考虑使他们能够不偏不倚和公平的条件。可以与 WPA 讨论这些问题的答案,以通过对话解决:(a) 我是否在该机构工作过或被拒绝在那里工作?(b) WPA 是否与我公开意见不合或与我合作或合著过?(c) 我目前正在审查或最近是否审查过由部门或计划中的任何人撰写的奖学金或助学金?(d) 我是否可以承认自己的立场,以便它们不会干扰公正的访问? 2. 访问前和访问期间的举止
围绕数字技术(其中最主要的是人工智能)的讨论可能会创造现代神话,通常提到乌托邦式的可能性(Brevini,2021 年)。然而,这种理想主义的描述往往掩盖了对人工智能误解的固有危险。De Saint Laurent(2018 年)指出了人工智能可以保持中立和不偏不倚的假设所带来的危险后果。这些误解可能导致避免批判性辩论、偏见正常化以及免除创造者和用户的责任。Falk(2020 年)通过强调人工智能超人潜力的神话贡献了一个重要的观点,这往往会掩盖更迫在眉睫的人工智能愚蠢挑战。这种形式的人工智能可能会取代、征服或欺骗人类用户,构成需要关注和讨论的重大威胁(Giray 等人,2024 年)。
ICC 准则涵盖所有形式的商业营销传播,并且对媒体和技术均不偏不倚。它适用于所有媒体和平台,包括社交媒体、移动、虚拟和使用人工智能 (AI) 的营销传播,以及未来可用的新技术。因此,它为开发和提供营销传播的从业者提供了实用资源,包括借助人工智能、算法和其他自动化技术。营销人员应确保遵守 ICC 准则,无论营销传播是由人类独自创建、修改或提供,还是借助人工智能,无论是全部还是部分。在使用此类技术时,营销人员必须保持掌控,并继续保持应有的谨慎和监督,以确保营销传播合法、得体、诚实、真实,并遵守数据隐私政策。应进行仔细监督,以确保营销传播不会煽动或纵容任何形式的歧视。营销人员还应注意广告中的多样性和包容性,并努力避免刻板印象和物化。
我的员工说,在过去几期新闻通讯的开场白中,我提到棒球,但结果却大错特错。因此,我不想再三振出局,所以我决定辞职,直接进入第三季度的新闻。今年春天,布莱恩·李少校被交易到卫生局长办公室,担任 MEDCOM 参谋长兼副指挥官的执行助理。此外,埃里克·罗宾逊先生被交易到国防卫生局,帮助建立他们的 IG 检查团队。两人都是我们的关键击球手,我们会想念他们的。不过,我们将 MSG 理查德·斯托克斯添加到我们的团队名单中,他将代替 MSG 约翰·马科夫斯基上场。约翰为我们的国家服务了 24 年,功勋卓著,他将于 8 月 1 日退役,我们感谢他的奉献精神。最后,我们请来了 Brian Pehrson 先生来完善我们的击球顺序,并在今年夏天完成我们的 IG 团队。虽然我们对一些球员进行了调整,但我们仍致力于通过四个 IG 职能提供公正、客观和不偏不倚的建议,以提高陆军的整体战备能力。在本期中,您将阅读一些关于我们新员工的信息,了解我们将要检查的人,并请注意我们的新网页。尽情享受吧!
我很高兴向大家介绍布兰普顿市内部审计部门的 2024-2026 年战略计划。该计划涵盖了我们的愿景、使命和战略目标,并概述了支持性举措,为未来指明了明确的道路。它代表了我们对卓越的承诺,并与布兰普顿对充满活力、包容和可持续城市的长期愿景相一致。该计划的一个关键驱动因素是内部审计师协会 (IIA) 于 2024 年 1 月 9 日发布的全球内部审计标准。我们致力于持续改进,这导致我们加强了与高级管理层的合作、改进了审计方法、整合了数据分析,并更加重视审计职能内的学习和发展。这些进步建立在 2022 年以来的战略举措和成就之上,使我们能够提供及时、可操作的见解,支持明智的决策并推动整个城市的运营改进。我们的核心价值观与布兰普顿市的核心价值观高度一致,具体如下:正直和勇气:我们所做的每一件事的核心,都是以诚实、客观和坚定的态度进行审计。我们提供公正、不偏不倚的调查结果和建议,坚持最高的道德标准。我们对诚信的承诺培养了信任,并引导我们以开放的心态面对新的挑战。可靠性:作为内部审计师,我们的利益相关者依靠我们提供一致、准确和可靠的信息。我们致力于提供值得信赖的见解,以支持明智的决策并确保问责制。专业性:我们致力于持续改进和提供卓越的服务。通过持续的培训和发展,我们保持必要的能力和质量,以提供富有洞察力、可操作的审计结果,为纳税人提供价值,同时与城市的战略目标保持一致。我们为在每次审计中实现价值而感到自豪。透明度:成功取决于开放的沟通和协作。通过与审计委员会、高级管理层和主要合作伙伴密切合作,我们提高了审计的质量和相关性。我们管理利益相关者的期望并提供增值建议,以推动改进和提高效率。公平:我们致力于公平、包容和透明。通过对我们的审计结果和建议应用公平的视角,我们确保考虑到所有居民的需求。将公平融入我们的工作有助于城市提供公平和包容的服务,无论背景或情况如何,每个人都可以享受这些服务。
对公平公正的人工智能的需求通常与理解人工智能本身的可能性有关,换句话说,将不透明的盒子变成尽可能可检查的玻璃盒子。然而,透明度和可解释性属于技术领域和科学哲学,因此与人工智能的伦理和认识论基本上脱节。为了解决这个问题,我们提出了一种综合方法,其前提是玻璃盒子认识论应该明确考虑如何在从设计和实施到使用和评估的整个过程的关键阶段纳入价值观和其他规范性考虑因素,例如跨部门脆弱性。为了将人工智能的伦理和认识论联系起来,我们进行了双重关注点转移。首先,我们从信任人工智能系统的输出转向信任导致结果的过程。其次,我们从专家评估转向更具包容性的评估策略,旨在促进专家和非专家的评估。这两个举措共同产生了一个可供专家和非专家在探究人工智能系统的相关认识论和伦理方面时使用的框架。我们将我们的框架称为认识论兼伦理学,以表明这两个方面同等重要。我们从设计者的角度来开发它:如何创造条件将价值观内化到人工智能系统的整个设计、实施、使用和评估过程中,在这个过程中,价值观(认识论和非认识论)在每个阶段都得到明确考虑,并可供每个参与其中的重要参与者随时检查。1.认识论还是伦理学?当前人工智能(AI)认识论和伦理学的争论集中在两个基本上不相干的问题上:[1.] 人工智能的透明度和不透明性问题,即人工智能是一个玻璃或不透明的盒子[人工智能认识论];[2.] 关于让人工智能符合伦理道德的问题,确保算法尽可能公平和不偏不倚[人工智能伦理学]。我们说“基本上”不相干,因为存在将这两个问题联系起来的尝试,但与我们进入辩论的切入点有很大不同。例如,Colaner (2022) 讨论了可解释人工智能(以下简称“XAI”)是否具有内在(伦理)价值的问题,并提供了各种论据来给出肯定的答案。该领域的默认立场仍然是将伦理学与认识论分开。在本文中,我们建立了这两个问题的直接联系。在建立伦理学与认识论之间的联系时,我们展示了讨论的两个维度是如何相交的。我们称其中一个轴为“认识论—伦理学”
以人为本的人工智能:新时代精神 Yvonne Rogers,伦敦大学学院 UCLIC Hancock 的文章读起来就像一篇文学作品,充满了深奥的措辞和一些奇怪的拉丁语。这是一篇巧妙的散文,用尖锐的隐喻警告我们,未来会出现故障、功能失调和失效的自主机器,如果我们不采取有力的措施,它们可能会给社会带来严重破坏,甚至摧毁我们。最戏剧性的类比之一是将自主系统比作从海洋中升起的一圈火山岛的演变;是突然和爆炸性的,而不是缓慢渐进的演变。相比之下,我们人类被视为扮演着“海滩和河岸线的沿海角色”,随着火山喷发而消退。海洋形象确实描绘了一个世界末日的未来。我读这本书的时候想象自己听到了《世界大战》的配乐。那么,在为时已晚之前,我们能够、应该做些什么来应对预测中的自动机器的突然爆发呢?汉考克建议投入数十亿美元来培训一批新的机器法医心理学家,他们将能够比我们现在更清楚地了解机器的大脑,更好地理解它们为什么会选择特定的行动。这一切都很好,也是一种必要的战斗号召。但这已经开始在更广泛的人工智能领域发生——尽管规模并不宏大。越来越多的人机交互 (HCI) 研究人员、计算机科学家、哲学家和心理学家正在解决和面对人工智能的自主性——研究如何用替代的透明算法来取代它,这些算法将允许人类(和其他机器)检查、理解和纠正机器学习和机器决策,这些算法被编程来执行。让人工智能更加公平、负责、可解释和不偏不倚已成为普遍接受的目标。关于如何实现这一目标,已经发布了许多框架、白皮书和政策。例如,今年早些时候,欧盟发布了一项法规,其中除了详细的指导、规则和限制外,还建议禁止对人类造成或可能造成“身体或心理”伤害的人工智能系统。这些系统包括在人们不知情的情况下识别他们的面部和面部表情的自主系统;自动决定是否允许他们获得贷款、信贷、工作等。斯坦福大学开创性 HAI 中心的 Katharine Miller (2021) 刚刚发表了一篇关于未来工作的文章,她主张用鼓励以人为本的工作场所的替代价值观取代人工智能驱动的自动化理念。汉考克最近发表的反对自动驾驶技术的文章最让我吃惊的是——考虑到它已提交给《人机交互杂志》——它没有提到如果我们假设我们不希望技术完全自动化,我们应该考虑和设计什么样的控制、交互和界面。文章中间有一句话声称我们“正在见证人机交互和协作的关键分水岭”。但没有进一步说明这些是什么。