克拉伦斯·E·萨瑟(时为一等兵),美国陆军专业军士,因卓越的英勇和无畏精神于 1968 年 1 月 10 日被指派到越南共和国第 9 步兵师第 60 步兵团第 3 营总部和总部连。当天,他正在 Ding Tuong 省执行侦察任务,担任 A 连第 3 营的医疗助理。他的连队正在进行空袭,突然遭到来自着陆区三面戒备森严的敌军阵地的重型轻武器、无后坐力枪、机枪和火箭弹的袭击。在最初几分钟内,伤亡人数超过 30 人......专业军士萨瑟毫不犹豫地冒着枪林弹雨跑过一片开阔的稻田去救助伤员。在帮助一名士兵逃到安全地带后,他的左肩被爆炸的火箭弹碎片炸伤,疼痛难忍。他拒绝接受医疗救治,冒着火箭弹和自动武器的猛烈射击去救助最初袭击的伤员,并在给予他们急需的治疗后,继续搜寻其他伤员。尽管他的双腿还有两处伤口无法动弹,他还是拖着身子穿过泥泞,向一百米外的另一名士兵走去。尽管疼痛难忍,失血过多,萨瑟专家还是来到了那名士兵身边,对他进行了治疗,然后继续鼓励另一组士兵爬出 200 米,到达相对安全的地方。在那里,他花了 5 个小时治疗他们的伤口,直到他们撤离。萨瑟专家的英勇无畏、非凡的英雄主义和冒着生命危险的无畏精神,超越了职责的召唤,符合军队的最高传统,并为自己、他的部队和美国陆军赢得了巨大的荣誉。 (该奖章取代了 1968 年 1 月 10 日授予五号专家克拉伦斯·E·萨瑟的杰出服务十字勋章,该勋章因其非凡的英雄行为而获得,该勋章根据 1968 年 6 月 21 日美国驻越南陆军总部第 2953 号总命令宣布。)* * *
军用物品清单 2004年5月1日生效 ML1 口径小于20毫米的滑膛武器、口径为12.7毫米(口径0.50英寸)或更小的其他武器和自动武器及其配件,以及为其专门设计的部件: a.步枪、卡宾枪、左轮手枪、手枪、冲锋枪和机关枪:注ML1.a.不管制以下物品: 1.1938年以前制造的火枪、步枪和卡宾枪; 2.1890年以前制造的火枪、步枪和卡宾枪的复制品; 3.1890 年以前制造的左轮手枪、手枪和机关枪及其复制品; b. 以下滑膛武器: 1.专门设计用于军事用途的滑膛武器; 2.以下其他滑膛武器: a.全自动型; b.半自动或泵动型; c. 使用无壳弹药的武器; d. ML1.a.、ML1.b. 或 ML1.c. 所控武器的消音器、特殊枪架、弹夹、武器瞄准器和消焰器。注 1:ML1 不管制用于狩猎或体育目的的滑膛武器。这些武器不得专门设计用于军事用途或全自动射击类型。注 2 ML1 不管制专门设计用于假弹药且不能发射任何管制弹药的枪支。注 3 ML1 不管制使用非中心发火弹壳弹药且非全自动射击类型的武器。EST1。ML1 和 EST2 中规定的商品的望远镜瞄准器,但 ML5 条目中规定的商品除外。EST2。滑膛武器,但 ML1b 或 ML2 条目中规定的商品除外,以及专门为其设计的部件。注。EST2 不涵盖以下物品: 1. 口径不超过 4.5 毫米的气动武器; 2. 信号手枪。EST3。弹药筒和其他弹药,以及专为 EST2 条目中指定的武器设计的部件。注意。EST3 不涵盖以下物品: 1. 专为气枪设计的铅或铅合金弹丸弹药; 2. 假弹药。ML2 口径为 20 毫米或以上的滑膛武器,口径大于 12.7 毫米(口径 0.50 英寸)的其他武器或装备,投影仪和配件,如下,以及为其专门设计的部件: a.枪支、榴弹炮、加农炮、迫击炮、反坦克武器、射弹发射器、军用火焰喷射器、无后坐力炮及其信号减弱装置;
颁发荣誉勋章 * * *根据总统指示,根据 1862 年 7 月 12 日批准的国会联合决议(经 1863 年 3 月 3 日法案、1918 年 7 月 9 日法案和 1963 年 7 月 25 日法案修订),陆军部以国会的名义向以下人员颁发荣誉勋章,以表彰其在超越职责范围、冒着生命危险表现出的英勇和无畏行为:杰克·H·雅各布斯上尉(时任中尉),美国陆军步兵,他在 1968 年 3 月 9 日担任越南共和国陆军第 9 步兵师第 16 步兵团第 2 营助理营顾问期间在越南共和国建风省的一次行动中表现出色。第 2 营正在推进接战,这时它遭到驻扎在坚固掩体中的越共营的猛烈重机枪和迫击炮火力。当第 2 营部署成攻击队形时,它的前进被毁灭性的火力阻止了。J aoobs 上尉和先头连的指挥部队呼叫并指挥对敌方阵地进行空袭,以发动新一轮攻击。由于敌方火力猛烈,以及包括连长在内的指挥小组伤亡惨重,攻击停止了,友军陷入混乱。尽管被迫击炮弹片击伤,J aoobs 上尉仍然接管了盟军连队的指挥,命令撤出暴露的阵地并建立防御圈。尽管头部受伤,血流不止,视力受损,雅各布斯上尉还是不顾自己的安危,冒着猛烈的火力,将一名受重伤的顾问疏散到安全的树林中,在那里实施了挽救生命的急救。然后,他冒着重型自动武器的火力,将受伤的连长疏散。雅各布斯上尉多次穿越被大火吞没的稻田,疏散伤员和他们的武器。雅各布斯上尉三次与搜寻盟军伤员和武器的越共小队取得联系,并将其赶走,独自杀死三人,致伤数人。他的英勇行为和非凡的英雄主义挽救了一名美国顾问和十三名盟军士兵的生命。在他的努力下,盟军连队恢复了有效的战斗力,并阻止了友军被强大而坚定的敌人击败。雅各布斯上尉在执行军事任务时表现出的英勇无畏精神,为他本人、他的部队和美国陆军赢得了巨大的荣誉。 * * *
摘要人工智能(AI)纳入国防技术已经彻底改变了现代战争,引入了能够在无直接人干预的情况下运行的自主武器系统(AWS)。尽管这些系统有望提高精度和运营效率,但它们也带来了深刻的道德和政治困境。本文探讨了AWS的演变,对其自治水平进行分类并分析了基础技术,例如机器学习和传感器集成。它深入研究了将生命和死亡决定委托给机器,问责制差距和滥用风险的道德挑战,同时仔细检查遵守国际人道主义法。政治方面包括AI军备竞赛,AWS的扩散以及国际治理中的挑战。案例研究说明了现实世界的含义,强调了强大调节的紧迫性。通过提出道德框架,监督机制以及人类决策的包含,这项研究强调了全球合作的必要性,以减轻风险,并确保AWS的发展与人道主义价值观和国际安全保持一致。关键词:人工智能,自主武器系统,道德困境,政治挑战,国际人道主义法,机器学习,AI军备竞赛,全球安全,问责制,监管。I.引言人工智能(AI)已迅速从科幻小说转变为现代技术中的有形和变革力量。在医疗保健中,AI有助于诊断和药物发现。在医疗保健中,AI有助于诊断和药物发现。在其核心上,AI是指计算机系统执行通常需要人类智能的任务,例如学习,解决问题和决策。这是通过各种技术来实现的,包括机器学习,深度学习和自然语言处理,允许AI系统分析大量数据集,识别模式并做出预测或以越来越多的自主权采取行动。AI的普遍影响都显而易见。在金融中,AI算法管理投资组合并检测欺诈。在运输中,它驱动了自动驾驶车辆的开发。AI的整合正在重塑我们的日常生活,有希望的效率提高和创新的解决方案。然而,这种快速的进步也带来了需要审查的复杂道德,社会和政治考虑因素。在人工智能和国防技术的交集中尤其如此,在这种情况下,潜在的利益风险造成了前所未有的危险。自主武器的演变是自动武器的演变,也称为致命的自主武器系统(法律),rep-
1。只有授权的杆和枪支俱乐部成员,他们的家人以及偶尔的客人;被授权使用俱乐部设施和范围。每当使用范围时,应始终出席授权俱乐部会员。2。俱乐部成员应在本年度获得范围安全简报。简报的文档将在俱乐部会员卡上注释。射击者在使用这些范围时必须拥有当前的俱乐部会员卡。3。使用s弹枪,使用sl,黑色粉末手枪,步枪,轮辋和/或中心火手枪和步枪,被授权在这些范围内使用。不允许自动武器。通知员工后,允许在飞碟场上shot弹枪。所有最近在加利福尼亚州被禁止购买的0.50 BMG步枪被禁止。4。这些范围的所有枪支应视为加载和处理。5。在这些范围内禁止酒精饮料。在酗酒或其他药物的影响下,在这些范围内或其他范围内,不得在这些范围内允许任何人。6。在任何射击线上都不允许吸烟。7。成员将在正常运营时间内在任何目标范围内进行射击之前提高红色范围标志。成员必须应Rod&Gun Club员工或俱乐部的任何活跃成员的要求提出会员卡。8。枪支应携带到拆卸的射击线上,并开放行动。9。仅应使用纸张目标(除了某些有组织和受控的射击活动外)。将纸的目标安装,以便子弹将对泥土的毛刺袭击并影响木柱或目标支撑。10。只允许在射击线上允许射手,讲师和/或教练。所有其他人应站在射击线后面。11。在射击线上只允许每枪支一枪。12。同时使用多个范围时,适用以下规则:13.1。确保所有射击线都对齐,从左到右对齐,并且一个不在另一个射击线。如果这是不可能的,请将两个范围视为一个范围,并在任何前进射击线前进之前将两条射击线进行安全。13。存在范围合格的成员将通过存在的射手的共同协议指定为范围主人。14。范围仅在白天开放。15。在拍摄或观察范围时,所有人都会佩戴眼部保护和听力保护。16。任何俱乐部会员观察不安全的行为,涉及弓,枪支或任何范围操作,作为俱乐部会员资格的条件,都需要立即引起人们的注意,并停止所有范围活动,直到纠正不安全状况为止。所有此类实例应尽早将其报告给俱乐部经理。未能遵守这项安全要求可能会导致俱乐部会员资格终止,并由第30部队支持中队指挥官酌情决定。17。所有成员都必须知道紧急出口,灭火器和紧急设备的位置。如果您不熟悉此设备的使用情况,请与Rod&Gun Club俱乐部的工作人员联系,以适当运行必要的设备。18。在地震或其他自然事件/疏散的情况下,所有成员均应在100码范围内聚集以实现问责制。19。当射手下降时,在25、50或100码范围内,桌子上绝对不会处理任何枪支。
1950 年第 37 号一般命令和 1954 年第 25 号 DA 一般命令第 I 节第 5 段有关安齐奥战役的部分进一步修订如下:删除:第 816 信号港口勤务连支队(第 74 信号连)。2. 法国北部。1945 年第 103 号 WD 一般命令,经 1948 年第 72 号 DA 一般命令第 I 节第 11 段、1950 年第 6 号 DA 一般命令第 II 节第 10 段、1950 年第 37 号 DA 一般命令第 I 节第 12 段、1953 年第 32 号 DA 一般命令第 III 节第 14 段、1054 年第 9 号 DA 一般命令第 VIII 节第 1 段、1954 年第 25 号 DA 一般命令第 I 节第 2 段修订; DA 1954 年第 47 号一般命令第 VI 节第 6 段和 DA 1956 年第 28 号一般命令第 I 节第 3 段涉及法国北部战役,现进一步修订如下:添加:第 3596 军需卡车连 3。莱茵兰。WD 118 号一般命令 1945 年,经 DA 1948 年第 29 号一般命令第 IV 节修订;DA 1948 年第 72 号一般命令第 I 节第 11 段;DA 6,H150 第 II 节第 11 段;DA 1950 年第 37 号一般命令第 I 节第 14 段;DA 1953 年第 32 号一般命令第 III 节第 17 段;DA 1953 年第 50 号一般命令第 II 节; 1953 年 DA 一般命令 87 号第 VI 节第 2 段;1954 年 DA 一般命令 9 号第 VIII 节第 3 段;1954 年 DA 一般命令 25 号第 I 节第 3 段;1954 年 DA 一般命令 57 号第 V 节第 5 段;1954 年 DA 一般命令 74 号第 VII 节第 1 段;1055 年 DA 一般命令 9 号第 IV 节第 3 段;1966 年 DA 一般命令 28 号第 I 节第 2 段以及 1956 年 DA 一般命令 52 号第 I 节第 1 段,涉及莱茵兰战役的部分进一步修订如下:添加:第 105 信号摄影公司。第 170 军械炸弹处理中队。 I1-_有权获得朝鲜战役功劳的单位。1. 1954 年 DA 通令第 80 号第 I 节,经 1955 年 DA 通令第 52 号第 II 节和 DA 通令第 52 号第 I 节第 6 段修订,删除了有关在朝鲜战役中为下列单位提供战斗参与功劳的条款:第 4 步兵轻型航空兵团。第 29 陆军火炮自动武器集团,总部和
AI“指的是通过分析其环境并采取行动(并具有一定程度的自治)来实现特定目标来表现出智能行为的系统(欧洲委员会2018年)。由于此定义是正式的和足够的一般性,足以涵盖对该领域的最常见理解,因此它构成了一个有用的起点。的确,基于这种理解,欧盟委员会的高级专家小组将AI的更详细的定义开发为“由人类设计的系统,鉴于人类设计的系统,它通过一个复杂的目标来在体育或数字世界中发挥作用,通过对所收集的或不结构的数据来解释这些数据,并根据该数据衍生出最大的方法来启动(S),从而(S)来解释他们的环境,从而(S)提出了这些知识(S)(S)(S)目标AI系统还可以通过分析环境如何受到其先前的行动的影响来学习其行为”(Aihleg 2018)超出有关AI定义的现有争议,还可以将以下要素确定为其功能至关重要:通过传感器对环境的感知;对数据的推理/决策;并通过执行者进行动作。ai如此构想的构想在不同领域(从医学到军事)开设了几种可能性,从而引发了多个道德问题。为了说明不久的是,AI和自动化的进步可能会使人们及其活动及其活动以及全世界更快的信息分布,从而提高几种安全性和隐私挑战(Stahl and Wright 2018)。此外,AI在医学,军事和自动武器发展中的潜在促进作用引起了有关不可靠和问责制的问题(Hammond 2015; Hallaq等人。2017; HOROW- ITZ 2018)。与自动化一起,AI可能会带来遥远的经济和社会变革,从而对劳动力市场产生影响(Aicardi等人。2018)。仍在争论哪些工作可能受到影响;但是,有人同意AI将改变工作要求以及依赖人类能力和技能的职位的性质(Perisic 2018)。它可能会通过创建新的并消除现有的其他人(EGE 2018),并通过例如预测分析对传统的招聘和招聘实践产生重大影响。迫切的道德问题也出现在最先进的AI研究类型之一中:自学AI。自我学习的AI在没有人类数据,指导或领域知识的情况下从强化中学习,超出了基本规则(Silver等2017)。根据其开发人员,没有任何以前的特定知识自我学习的AI可以实现“超人的熟练程度”(Silver等人2017)。到目前为止,这种AI已在有限的上下文中成功应用,尤其是在国际象棋,GO和扑克之类的游戏中,即使通过极其复杂的计算,也可以预测所有相关变量。这些系统在现实世界环境(例如自动驾驶汽车)中的应用提出了尚未解决的具有挑战性的问题,尽管我们不能排除他们的解决方案只是时间问题(Sokol 2018)。没有猜测关注大规模潜在场景的“大道德”问题(例如,超级智能AI接管)(Muller 2016),很明显,很明显,