摘要:这篇概念文章的目的是证明提出措施,行动和决定以改善人工智能的伦理(AI)取决于所选择的伦理理论立场。为了实现这一目标,我们在两个阶段进行。首先,我们对AI提出的三个不同的道德问题进行了表征和综合。其次,我们选择了哲学文献提出的两个主要道德立场。最后,我们证明了每种AI道德问题的道德理论立场的选择会导致不同的决定。我们证明,对于每个道德问题的每个类别,道德决策及其后果都取决于所选择的道德理论。本文的价值是要强调,关于AI伦理的文献经常忽略选择伦理立场的含义。为了尝试解决道德问题,有必要达成协议并进行讨论,以考虑不同的道德理论立场及其在决策方面的后果。
• 生态锦标赛:第二届锦标赛的参赛者(加上随机)用作由 1000“代”组成的“进化”锦标赛的初始条件。第 G 代开始时种群池中 T 类策略的数量设置为等于上一代 G-1 中 T 类策略赢得的总分数。
重复互动中的合作对于许多社会经济活动很重要。在本文中,我们将受试者置于最简单的动态环境中,该设置可以使合作行为合理化,同时消除了混杂因素,例如多重均衡,战略不确定性以及其他问题 - 我们让他们与他们扮演严峻策略的计算机上的比赛,并且受试者已知。我们发现,在所有超级游戏中,只有1-2%的受试者与理性选择预测完全一致,而在标准主题库中和更具代表性的在线主题库中,只有3-5%的人与理论至少有95%的时间持续一致。我们记录,尽管大多数受试者做出了主导的选择,导致桌子上留下的钱,但大量的少数人能够通过“终结”或最终的超级游戏来赚取超过理性选择预测的回报。
人工智能(“AI”)革命有可能改变法律文章的写作方式。以前必须筛选大量学术资料的作者现在只需单击按钮即可从算法中获得快速答案。虽然这可能会加快法律写作速度,但也可能对透明度带来重大挑战:编辑还能信任作者提交的内容吗?AI 是否也会影响编辑审查提交内容的方式?当前的提交指南是否足以应对 AI?我们的文章通过三个步骤解决了这些问题。首先,我们在 ChatGPT(历史上增长最快的消费者应用程序)发布仅几天后就与其进行了接触。通过向 ChatGPT 提出有关使用 AI 的道德问题并要求其将答案转换成文章,我们对 AI 提供相关答案的优势以及其“幻觉”来源和有限准确性的弱点有了新的认识。其次,我们使用类似的练习将 ChatGPT 与 Microsoft Bing Chat 的互联网连接版本进行了比较。通过这种比较,我们能够确定在哪些情况下使用 AI 是有用的。最后,我们将我们的见解应用于主要出版商的不同指南,这些指南在对 AI 编写的文本的方法上存在分歧。本文的贡献有两方面:(1) 它对生成式 AI 如何用于法律写作以及此类实践的道德界限进行了新颖的考察,(2) 它比较了现有的出版指南并确定了这些指南如何影响作者和编辑的行为。我们发现
人工智能 (AI) 中的伦理意义不容小觑,因为它涵盖了指导负责任地创建、部署和管理 AI 技术的基本原则。随着 AI 系统日益渗透到我们生活的方方面面(从医疗保健和教育到安全和娱乐),它们的决策和行动不仅对个人权利和隐私,而且对社会规范和价值观也具有深远影响。AI 中的伦理考量至关重要,以确保这些技术能够增进人类福祉、维护公平和保护自由,而不是延续偏见、加剧不平等或破坏民主制度。AI 伦理的重要性在于它能够提供一个框架来应对 AI 带来的复杂道德困境,例如创新与监管之间的平衡、保护个人隐私与大数据的好处以及防止滥用 AI。通过突出伦理原则,利益相关者(包括开发人员、政策制定者和用户)可以努力开发不仅技术先进而且对社会负责并符合人类价值观的 AI 技术。这种对道德的重视确保了当人工智能系统变得更加自主和成为我们日常生活不可或缺的一部分时,它们会以透明、负责和包容的方式实现这一目标,从而增强人们对其广泛采用和使用的信任和信心。
摘要简介:生物技术和跨学科研究的快速进步正在增强对生物学进行全面工程的能力,为创建生物工程植物,药品和商品的努力做出贡献,这些植物,药品和商品承诺可持续性和创新性。目标:这种快速发展的生物技术景观正在促使人们专注于对生物安全框架的审查,以减轻州和非国家参与者对生物技术的有害剥削。关于生物安全和工程生物学研究的生物安全性,已经存在数十年了,因为人们对这种和相关领域的进步如何为恶意参与者提供了新的能力。本文使用工程生物学的研究进展示例考虑了生物安全性问题。方法:作者探索了跨学科生物技术研究与发展的风险评估和缓解,使用了国家合成生物学时代的国家生物探索研究中开发的框架。结果:合成生物学评估框架的重点是使用先进方法和技术增强或创建新型病原体和毒素的风险。工程生物学领域继续以挑战当前风险评估框架的速度继续前进。结论:这个框架可能很有能力评估影响传统生物学剂的新科学技术进步。但是,风险评估框架可能对不适合常规生物学代理的技术的适用性有限,并且导致经济或更广泛的国家安全问题。最后,绝大多数话语主要集中在风险上,而不是利益上,而在将来的评估中进行分析对于平衡科学进步与降低风险是至关重要的。
敌人故意利用其部队来抑制敌方编队的机动,这一概念始终是规划考虑因素。然而,敌人通过实施“战术性”大规模投降来实现这一目标的想法是一种非常规但明显的可能性。无论对手决定执行这一行动方案 (COA) 是因为他们的敌方组织训练不足和补给不足,还是仅仅因为他们认为这一 COA 是拖延友军的最佳选择,与这一 COA 相关的选项和影响都应该在各个编队中得到理解。旅战斗队 (BCT) 经历敌方营战术组 (BTG) 的“战术性投降”,其所有相关人员、武器、车辆和设备都处于其 FLOT,这可能会对行动产生重大影响。如果受影响的 BCT 正在前往上级指挥部任务中的关键要素、时间敏感的目标,这种影响可能会成倍增加。
摘要:对医疗实践中人工智能等技术表示担忧的医生和伦理学家通常似乎认为这些技术有可能侵占目前尚未技术化的医疗领域。然而,在本文中,我将论证,如果按照海德格尔等人对技术的批判来理解“技术”,现代医学已经将自身构成了本质上的技术。我将通过描述当代医学中已经广泛传播的几种做法来说明这一点。许多医生已经感觉自己就像机器中的齿轮,他们的临床判断受到经济和政策措施的限制,这些措施将他们的注意力从个体患者的利益上转移开。医疗保健系统还经常将患者视为原材料,将他们的身体置于各种形式的权力之下并从他们身上榨取资源,正如最近扩大常温区域灌注 (NRP) 以获取心脏死亡后移植的器官所证明的那样。有了这种范式,任何即将出现的技术都不是传统实践的革命性威胁,而是医学已经在很大程度上成为的逻辑延伸。因此,抵制医疗从业者所担心的这些技术带来的不良后果将会十分困难。
在 2024 年春季学术委员会调查中,东北大学的教职员工被问及:“您是否鼓励学生使用生成式人工智能发展他们的即时工程技能?” 在 690 名回复的教职员工中,34% 的人表示他们从不提倡即时工程技能。与此同时,27% 的人表示他们有时会这样做,25% 的人表示他们很少这样做,只有 14% 的人表示他们经常或总是提倡这一点。有趣的是,虽然大多数东北大学的教职员工并不积极提倡即时工程技能,但对于培养学生的数字素养的重要性,人们有着强烈的共识。当被问及“您认为培养数字素养,包括使用生成式人工智能,对学生未来的成功有多重要?”时,27.10%(187 个回复)的人认为这非常重要,31.59%(218 个回复)的人认为这非常重要,28.70%(198 个回复)的人认为这中等重要。只有少数人(8.99% (62 份回复))认为这有点重要,只有 3.62%(25 份回复)认为这根本不重要。这些回复共同表明,人们普遍认同培养数字素养(包括生成式人工智能技能)对学生未来成功的重要性。