本书探讨了国际人权法(IHRL)与国际人道主义法(IHL)在军事行动中增加相互作用的含义,有时以暗示冲突的方式表示融合和其他时代。这些融合和/或冲突在非国际武装冲突,好战占领的情况和和平支持行动(PSO)中尤为严重。非国际武装冲突意味着个人,包括直接参与敌对行动的有组织的非国家武装团体和平民的成员,都“在他们正在与之抗争的领土国家的管辖范围内”。IHRL和IHL因此可以并行应用。在类似的角度,好战居住者进行的控制经常需要行使“管辖权”,因此触发了人权规范的适用性。就PSO而言,将它们归类为在“和平”或“武装冲突”的背景下进行的归类变得越来越困难。通常,情况意味着两者的要素。在上述所有背景下,IHRL和IHL领域之间的相互作用是为相关参与者(州,国际组织,有组织的武装团体和个人)的行为提供最相关的监管框架的法律领域 - 具有极大的实际实际意义。
摘要 私营企业是人工智能 (AI) 发展的核心参与者,这意味着它们在确保人工智能尊重人权方面发挥着关键作用。与此同时,国际人权法 (IHRL) 一直在努力追赶自其以国家为中心的框架建立以来发生的技术发展,而这些发展是起草者所未预见到的。尽管在制定有关企业和人权的国际法律标准方面取得了进展,但关于人工智能企业的作用和责任的不确定性仍然存在。本文从治理的角度和公私分歧的背景下探讨了这些不确定性;它将法律视为治理工具,其中包括许多公共和私人行为者的活动。第 2 节简要评估了国际人权法关于人工智能和企业的当前框架,重点关注缺乏法律确定性的问题。第 3 节批判性地分析了国际、区域和国家层面采取的超越 IHRL 的人工智能举措,以深入了解对人工智能企业的行为期望的具体标准,并挑战这种背景下的二分法公私分歧。第四部分给出结论和建议。
在向联合国(联合国)提交有关致命的自主武器(法律)的诉讼中,非洲人类权利委员会(ACHPR)强调了三个至关重要的要点,这是根据其正在进行的人类和人民对AI的权利影响的非洲人对非洲范围的范围的人类和人民的权利影响的三个至关重要的观点:A)在包括新法律的国家中,以及对法律依据的群体,A)a)a),a)a)a),a) 2024年法律和平与安全方面的区域会议强调了制定新法律条约的必要性。ACHPR与这一立场保持一致,正如其在2021年通过的第473号决议中所阐明的那样,该立场呼吁对这些武器进行全面治理。这样的条约将提供一个强大的法律框架,以解决法律提出的道德,法律和安全问题,包括考虑到非洲大陆的国家和人民的需求。b)ACHPR 2015年第35段中对法律的有意义的人类控制(MHC)关于生命权的一般评论3(《非洲人类和人民权利宪章》第4条),ACHPR断言,任何机器在选择人类目标或使用武力的机器自主权都必须在MHC的遵循下。该原则对于确保遵守既定国际法,特别是国际人权法(IHRL)至关重要。ACHPR坚持认为,人类对法律的控制应是拟议的有关法律的新条约的基础规范,以确保人类的判断力和问责制仍然是使用此类技术的永久条件。简介c)IHRL在法律规定中的作用ACHPR强调了国际人权法(IHRL)在法律治理中的重要性。这些武器对包括生命权,尊严权,非歧视权和和平权的基本权利具有深远的影响。联合国对法律的讨论是由南非教授克里斯托夫·海恩斯(Christof Heyns)于2013年发起的(当时的联合国对法外,任意或摘要执行的特别报告员)特别关注法律的人权影响。然而,在过去的十年中,讨论被转移到2014年《联合国常规武器公约》(UNCCW)之后,联合国政府法律专家小组的重点已从这些关键的IHRL考虑上转移了。ACHPR要求重新强调有关法律正在进行和未来讨论的人权方面。总而言之,ACHPR的提交强调了迫切需要一项新条约来统治法律,强调了MHC而不是法律的必要性,并提倡在法律规定中更加重视IHRL。
摘要摘要为军事使用而发展或适应的AI技术的流行率提高了有关这项新技术与一般国际法的兼容性,特别是国际人权法(IHRL)的困难问题。人权委员会是委托监督国际公民对民权和政治权利的应用的专家机构,他在2018年就新军事AI的出现与尊重生命权之间的关系表示了观点。文章回顾了IHRL辩论的条款,该辩论围绕着AI技术介绍军事环境及其与生命权的关系。第一部分简要审查了AI在军事环境中的一些实际和潜在应用。第二部分涉及将军事AI引入战场的三个主要异议:自主或半自治的AI系统适当应用国际人道主义法(IHL)的能力,事实上,人们对人类保护的阶级降低了人性保护的范围,以及在某些人类的生活和某些生活中的含义,以使某些人类的生活与人类的含义,以使人类的含义是人类的制造者。根据这三个原则上的反对意见,第三部分是ICRC限制AI在军事环境中使用的具体建议(限制了自主武器系统的范围和使用方式,并排除了不可预测和致命的系统)。第四节审查了本文中从IHRL遵守生命权的有利地点讨论的主要问题,如一般评论中的详细说明36。
十多年来,北约合作网络防御卓越中心 (CCDCOE) 一直在分析网络战,同时期盼网络和平。这一愿望已经实现:我们所处的境况可能是动荡、紧张和脆弱的,但它是和平的。至少在冲突和暴力的门槛以下,它是和平的。因此,非战争现实构成了我们大部分法律研究的背景。例如,第一本《塔林手册》是一本关于战争的书,而后来出版的两本《和平时期网络空间国家活动制度》和《塔林手册 2.0》则试图探索我们目前正在经历的那种不安的和平。这本编辑过的书籍探讨了武装冲突时期的数字隐私权和数据保护权,同时也提供了一个更广泛的视角,探讨了战时和和平时期对网络安全和隐私的根本区别。在此过程中,它批判性地剖析了战争与和平规则如何影响我们数字数据的收集和使用方式。关于国际人权法与国际人道主义法之间关系的法律著作主要关注那些更接近战争战场、因而也更接近国际人道主义法核心的权利。尽管大多数国家和专家认为国际人权法和国际人道主义法都适用于与武装冲突有关的网络活动,但两者之间尚未解决的相互作用很少得到进一步阐明。尽管军队对数据的依赖性越来越强,但数字人权仍然常常被本能地视为和平时期的法律问题。人们心照不宣地认为,如果战争爆发,将会有更具体的规范可以依赖。但事实上,在隐私权方面,国际人道主义法却出人意料地保持沉默。这种沉默不可能是故意的,当然,除非战争法是由技术远见者起草的,他们预见到个人数据有朝一日可能在情报、武器或人类尊严方面带来的风险和机遇。因此,基于国际人权法在武装冲突之前、期间和之后保护我们的信息隐私方面发挥关键作用的假设,本选集的文章深入探讨了军事背景下隐私和数据保护的现实范围。编辑和作者巧妙地将两种相互冲突的论述——冲突的关键必要性和人们在日常生活中寻求的和平与自由——结合在一起。当然,实施这里表达的想法可能会在短期内产生实际和程序上的
摘要:致命的自主武器系统(法律)已成为军事技术中最重要的进步之一,利用人工智能(AI)和机器学习来执行无直接人类控制的任务。随着这些制度成为现代战争的核心,他们就遵守国际人道主义法(IHL)和国际人权法(IHRL)提出了关键问题。本文介绍了围绕法律的法律和道德辩论,特别关注政府法律专家(GGE法律)中的讨论。我们分析这些技术是否可以在维持其运营功效的同时遵守基本人权。通过将自主频谱框架应用于现实世界情景,该研究既突出了法律的战略优势,也凸显了非人性化战争的风险。需要强大的法律框架以确保问责制和人类的监督仍然至关重要。
缅甸人民继续为两年的政治动荡付出高昂代价,而这种动荡是由 2021 年 2 月 1 日军方接管民选全国民主联盟 (NLD) 政府引发的。此次接管引发了前所未有的政治、社会经济和人道主义危机,再加上 COVID-19 大流行的持续影响,使该国陷入了危险的冲突和贫困漩涡。政治局势导致全国战斗升级,其特点是违反国际人道主义法 (IHL) 和国际人权法 (IHRL),包括军方在平民区进行空袭、焚烧房屋和其他无差别攻击,以及使用地雷和其他爆炸物 (EO),以及多名武装人员招募未成年人。这导致大量人口流离失所、人民受苦、资产枯竭、粮食不安全状况加剧,以及近年来取得的许多发展成果被逆转。据估计,由于政治局势和疫情的遗留影响,该国近一半人口生活在贫困之中。
• 国际人道法和国际人权法的规则针对的是个人和集体。问责制是法律体系的核心,不能转移到机器身上。有效的治理对于避免问责制漏洞是必不可少的。 • 人类决策者的知情和道德参与是我们管理武力使用的法律框架的基础。正是它让人们对发生的结果负责。 • 关于 AWS 使用的法律判断需要充分了解武器系统、可能使用武器的环境条件及其预期结果。 • 无法充分理解或局限于特定环境的系统不能受到人类控制,因此与合法使用和问责制不相容。 • AWS 风险的严重性要求我们澄清现有法律规则的应用,并制定明确的禁令和法规,以保留使用武力的人为因素。 • AWS 提出了与国际人权法、人类尊严和基本道德原则有关的担忧,道德应该成为推动我们做出反应的力量。 • 道德一直是制定和发展战争行为法律的主要动力。 • 以人为目标是一个最紧迫的道德问题。此外,AWS 的功能是区分某些人群与其他人群,因此容易受到数据集和算法偏见问题的影响。 • 这种偏见问题反映了社会结构,可能会对已经边缘化的群体产生不成比例的影响,并导致严重错误。 • 武器系统自主性水平的提高也对国际和平与安全提出了严峻挑战。 • 距离和非人性化、降低使用武力的政治门槛的风险以及包括机器对机器交互在内的升级风险引发了进一步的担忧。 • AWS 可能在追究攻击责任方面带来挑战。AWS 进一步向非国家武装团体和其他暴力行为者扩散,可能会加剧武装冲突和执法中的安全风险。 • 在民用领域,各国和各地区已经制定了新的法律和监管制度,以解决人们的担忧,即在没有人类解释的情况下,自主决定伤害人们,可能会损害人类尊严。 • 国际人道法中的马尔顿条款承认,法律可以根据社会关切和公众良知的要求而发展,因此与 AWS 问题特别相关。 • 人工智能有可能从根本上改变我们与技术的关系,无论是好是坏。AWS 的挑战也是一个机会,通过其监管,为人工智能在社会中的作用建立共同的规范和护栏,以防止最负面的结果。• 我们有责任采取行动并制定保护人类所需的规则。
1。摘要:网络恐怖主义是全球关注的关注,在印度经常被忽略和被低估。在美国和中国之后,印度的“网民”或利用互联网的人最多。他们在互联网上的过度依赖使他们更加脆弱,并将敌意转变为对复仇的渴望,将他们变成了国家的网络战士,罪犯和敌人。大多数印第安人忽略了网络空间的危险,并成为在线欺诈的受害者。Globe现在有大量的选择,可以通过信息技术扩展其财务基础设施。网络犯罪每秒都在增长。使用互联网的人是文盲的,并且相信没有人在看他们的工作。网络世界的巨大扩张带来了对网络恐怖主义的恐惧。网络攻击经常将心理健康,公众的信心和政治观点描述为致命或非致命的。通常,应考虑到网络恐怖主义仅影响国家安全框架。然而,这也对他们的心理和认知健康有影响。在过去几年中,网络恐怖主义的扩散导致网络攻击急剧上升。它损害了生命指挥和控制系统,核设施,并造成了灾难性的灾难。网络专家正试图提高对关键核电站,商业和银行系统,国防网站和政府系统的挫败网络攻击的能力。自主武器几乎没有人干预来参与和破坏目标。尽管目前没有完全自主武器在生产中,但许多国家正在创建或使用几乎是自治的系统。即使是防御系统也会大大改变各州看到战争的方式,并直接影响贸易和权力平衡,即使没有政府承认采用自主进攻武器。这些武器的道德及其在国际人道主义法下的地位是一场小而激烈的全球辩论的主题。巴基斯坦州和联合国法外谋杀案特别使节都提出了争论,以支持对创建此类武器的先发制人的暂停性,即使尚未达成共识。印度应从其安全要求的角度研究此讨论。自主武器将加强国家的防御能力,这甚至比人类士兵更有效地实现了一些战略目标,例如挫败跨境入侵。印度应积极参与建立国际监管框架并开发自动武器的过程。这项研究旨在对自动武器当前情况进行一般审查,并讨论是否需要取缔它们。关键字:人工智能(AI),自动武器,网络安全,致命的自治武器系统(法律),军事人工智能(MIA),机器学习(ML),大规模破坏武器(WMD)2。一旦参与,这些武器系统可能会破坏目标,而无需提供额外的人类援助。简介:被称为法律的极其先进的自主军事武器系统配备了各种传感器套件和预编程的计算机算法,使他们能够独立定位,识别,跟踪,追踪,参与和破坏敌对目标。因此,通过将AI集成到不参与人员的情况下控制武器的系统中,大规模的法律可以改变战争的方式。今天,世界顶级军事机构正在经历军事事务的AI触发革命(RMA)。2.1对道德和合法性的担忧:法律,也称为“杀手机器人”,鉴于其在做出关键的战术判断方面取代人类的致命性和能力,可能被视为不道德。部署和调试法提出了最大的挑战:接受失火的责任。法律是一款实现人类无法控制的杀戮机器,它提出了许多哲学,心理和法律问题。实际上,这些武器具有破坏当前常规战争范式的能力。人权倡导者正在与法律作斗争,因为根据《日内瓦公约》下的UDHR和IHL下的IHRL将与IHRL对抗。
简介 第 19 条欢迎有机会回应联合国言论和意见自由问题特别报告员(特别报告员)组织的磋商,该报告将重点介绍冲突和动乱时期意见和言论自由面临的挑战。 武装冲突背景下的信息行动会对敌对行为产生各种影响,并影响达成和平解决的可能性。 武装冲突的所有各方往往通过传播“敌人”的误导性和扭曲性形象来延续冲突。 现役战斗人员试图阻止有关其侵犯人权行为的信息传到公众手中。 武装冲突期间的虚假信息和国家宣传活动可能会对受敌对行动影响最大的人产生许多有害后果。 例如,它可能导致对某些群体的诽谤并鼓励对他们的暴力行为,或者扭曲对陷入敌对行动的平民的需求至关重要的信息。然而,正是在冲突时期,言论自由和信息自由流动才应该得到有力的捍卫。尊重言论自由是任何促进和平、结束冲突以及保护冲突局势中生命的长期政策中的关键要素。这对于充分报道冲突本身和解决冲突问题也是必要的。