从自动化到自主性的转变标志着人机关系的新篇章,尤其是在人工智能 (AI) 应用不断扩展和多样化的背景下。随着机器获得类似于自主代理的能力,人类和机器自主性之间的界限变得模糊,挑战了传统的代理、控制和独立性概念。本期特刊探讨了数字时代自主性的多学科视角,解决了将自主性归因于机器和人工智能系统的复杂性。哲学、社会学和技术方法汇聚在一起,探索新兴的机器自主性形式如何影响人类的代理、自由和决策,其应用范围从自动驾驶汽车到数字助理和军用无人机。这一论述的核心是将自主性视为积极属性与担心在日益独立的技术面前削弱人类权威之间的日益紧张的关系。通过将自主性定义为
目的:本文的主要目的是分析人工智能 (AI) 在教育系统中的发展。设计/方法/方法:在文章中,深入分析技术进步对过程教学的影响,确定与动态人工智能发展相关的挑战和机遇。强调面对人工智能带来的教育变化的必要性,并有价值的研究对课程驱动方式、内容教学和自我教育的影响。结果:人工智能是一种解决问题的新方法,尤其是在危机期间。新技术决定了解决问题的方式和速度。新时代的教育需要与人工智能有关的现代方法。研究的局限性/含义:本文讨论的调查可能有助于进一步的实证研究,包括但不限于发起改进人工智能创新的工作。实际意义:人工智能时代的教育需要一种整体方法,将现代技术与传统教学方法相结合,并考虑技术发展的伦理和社会方面。原创性/价值:原创性工作是基于研究文献的一致方法,可以作为关于人工智能对教育的影响和学习方法修改的进一步实证研究的基础。
纯粹的规模(数量和速度)以及日益增加的数据复杂性(多样性和准确性)。情报部门面临的挑战是获取、管理、关联、融合和分析跨机构以及与盟友和合作伙伴之间日益增加的数据。根据我们的经验,情报部门的数据以太多不同的格式生成,在太多不相连或无法访问的系统中生成,没有标准化的结构,也没有总体商定的本体。这种情况可能会导致收集浪费、缺乏及时性、错过指示和警告以及缺乏决策相关性。结果是无法在情报周期的早期和尽可能接近收集点的地方融合数据以创建多源情报。分析师面临的任务太难、太繁琐,需要清除的障碍太多,无法及时向决策者和作战人员提供相关的分析判断或可操作的情报。应通过以下方式应对这些挑战:• 采用可以解析数据、从数据中学习并做出响应的机器学习算法;• 鼓励情报专业人员发挥创造力和深入思考;• 设计允许人机贸易技术蓬勃发展的政策、信息技术 (IT)、敏捷采购和安全环境。
特定于新一代人工智能的漏洞新一代人工智能使组织面临更广泛的威胁形势、更老练的攻击者以及新的攻击点。随着组织从试点和离散用例转向更大规模的新一代人工智能实施,网络安全风险将会增加。这是因为采用的规模和复杂性将更大,例如系统中的用户、更多的数据和更多的集成。这些增加的风险涵盖从新一代人工智能模型中断和提示注入到训练数据泄露、盗窃和操纵的方方面面。这类漏洞是新出现的,大多数组织还没有准备好应对它们。现在需要影子人工智能发现、LLM 提示和响应过滤以及专门的人工智能工作负载集成测试等新功能来适当缓解这些新风险。
通过间谍软件攻击等方式进行的非法定点监控侵犯了隐私权以及言论、意见、结社和和平集会自由权,这些权利均受到《世界人权宣言》(UDHR)和《公民权利和政治权利国际公约》(ICCPR)的保护。大赦国际强调了网络监控公司(如 NSO 集团)及其政府客户在全球范围内侵犯人权的现象。1 我们主张有必要在全球范围内暂停出口、销售、转让和使用定点监控技术,直到建立符合人权的监管框架。Pegasus 项目是一项国际调查,汇集了 18 家媒体机构和国际特赦组织作为技术合作伙伴,该项目揭示了 NSO 集团似乎在世界各地系统性地大规模参与侵犯人权和践踏人权的行为。2 Pegasus 项目揭示了没有人可以免于成为潜在目标,包括人权捍卫者、活动家、记者,甚至政府官员和议员。公民社会受到如此猖獗的监控,几乎没有任何保障措施,甚至外交官和国家元首本身也是潜在目标。这应该成为全球立法机构早该发出的警示,促使其加强对这一行业的监管。