人工智能和机器人技术有多种用途 [16,p.341–358。这不仅适用于军用机器人和自主无人机,也适用于增强人类士兵力量和耐力的外骨骼。将关键决策权转移给自主智能武器系统时,会出现主要的法律和道德伦理问题,尤其是当这种系统的主要目标是造成伤害时 [10,p.12].这里我们谈论的不仅仅是人工智能的不完善,还有通过黑客手段操纵设备的可能性,此外,由于算法可能存在问题,设备本身也可能偏离正确路径等。 。还可以使用更隐蔽的方法来影响投票过程,正如剑桥分析公司和 Facebook 在 2016 年美国总统大选中所展示的例子。2013年成立的英国公司剑桥分析公司收集了5000万Facebook用户的个人数据,然后模拟数千万美国人的行为,以便向他们展示相关的政治广告,据称由此影响选举结果。
说服力和另一件事:今年早些时候对政治中的大数据方法论的批评,一家名为Cambridge Analytica的公司在辩论中对大数据和选举的最前沿,声称对唐纳德·特朗普(Donald Trump)和英国脱欧运动的沮丧胜利负责。报告已将该公司作为木偶大师“宣传机器”,能够通过专有的心理测量数据融合,主要是Facebook“喜欢”和针对的裸露。在这个故事中,由琼斯母亲和《卫报》等人重复,剑桥分析[与“选举管理”公司合作,称为SCL集团)既是国王制造商,又是一位派对人:选民无法抗拒尝试与选民的在线环境无缝地融合在一起,因为他们被选中的人毫无疑问地努力地将投票人员置于投票范围内。
Théo Liénard——市长、Myriam Taverna、Stéphanie Descroix、Thanh Duc Mai。用于样品处理、分离和定量的微尺度电泳中的液滴接口策略:综述。 Analytica Chimica Acta,2021,1143,第 281-297 页。�10.1016/j.aca.2020.09.008�。 �第 03493600 页�
关于 MMI Asia Pte Ltd MMI Asia 成立于 1992 年,是慕尼黑展览有限公司的全资子公司和地区总部,是全球最大、领先的展览组织者之一。MMI Asia 的活动组合包括慕尼黑世界领先的贸易展览会——运输物流和航空货运、分析仪器、陶瓷技术、EXPO REAL;以及行业特定活动,如亚洲玻璃技术展览会和亚洲门窗展览会、亚洲气候论坛和新加坡国际水周。欲了解更多信息,请访问 www.mmiasia.com
人工智能伦理领域在工业界和学术界迅速发展,很大程度上是由于剑桥分析公司等科技行业丑闻引发的“科技反弹”,以及国会对科技巨头的数据隐私和其他内部实践的日益关注。近年来,科技公司发布了人工智能原则,聘请社会科学家进行研究和合规,并聘请工程师开发与人工智能伦理和公平相关的技术解决方案。尽管有这些新举措,但许多私营公司尚未优先考虑在人工智能开发中采用问责机制和道德保障措施。公司经常“谈论”人工智能伦理,但很少“付诸行动”,为致力于负责任的人工智能的团队提供足够的资源和授权。
CheFEM 3 由 Composite Analytica 开发,是一款先进的软件工具,专为高级热机械分析而设计,重点关注聚合物基复合材料。CheFEM 3 具有先进的化学物理模拟功能和经过校准的热机械建模,为分析化学暴露场景、预测使用寿命和优化设备运营支出提供了一个可靠的平台。本文概述了 CheFEM 3,重点介绍了它能够减少大量暴露实验的需求,从而降低成本和环境影响。利用经过校准的三次状态方程和有限元方法,该软件可以准确预测关键材料特性,例如渗透性、耐化学性和机械响应。CheFEM 3 可作为独立应用程序运行,并与 Abaqus、Ansys 和 SolidWorks 等其他 FEM 软件包集成,在工作流程管理方面提供无与伦比的灵活性。 CheFEM 3 将成为严重依赖复合材料的行业的重要工具,为耐用、高性能结构的设计和维护提供强有力的解决方案。
人工智能系统的风险并非假设,它们已经威胁到个人和社区,如果没有充分准备,可能会导致进一步的伤害。最近的证据表明,Instagram 的机器学习算法对相当一部分用户有害,尤其是少女,这加剧了她们的身体形象问题,增加了她们的焦虑和抑郁,但该平台不想减少参与度以保持其利润率。6 此外,选民微定位公司剑桥分析公司利用高级分析技术,利用从社交媒体网站 Facebook 收集的数据向特定选民投放广告,从而有可能左右世界各地的选举。7 此外,有泄露的战略文件表明广告商计划如何在脆弱时刻向人们投放广告。8 在某些情况下,人工智能已经比标准营销技术更能影响消费者的决策。9
全球产生的数据量正在迅速增长。据估计,到 2025 年,数据量将从 2018 年的 33 泽字节(即 10 21 字节或 10000 亿千兆字节)增长到 175 泽字节。电子商务网站、社交媒体平台和其他在线服务的每日点击次数帮助创建了一个数据影子经济,这些数据揭示了人类的行为和偏好,大型商业技术公司可以免费获得这些数据。获取这些数据就是权力:行为或决策可以被操纵以用于商业目的或政治利益,而用户往往没有意识到或选择。Facebook - 剑桥分析公司丑闻揭示了个人数据的收集和分析在多大程度上为影响民主选举结果的算法提供了支持。人工智能和物联网等新兴的数据密集型技术进一步加剧了人们对侵犯权利的担忧。这些发展使数据保护法及其改革的重要性成为公众意识的焦点。公众意识
数字原生业务模式的稳步崛起见证了各行各业中大量且种类繁多的个人层面行为微观数据带来的巨大机遇。例如,亚马逊、Netflix 或 Meta 等公司会跟踪客户的行为,以获得个性化推荐和有针对性的营销活动。其他公司意识到与其他方共享客户信息(例如,与“物联网”元素链接,如移动跟踪仪、医疗或健身设备等)可以为双方创造协同效应。同样,非营利部门和研究机构越来越依赖公开可用或开放的行为数据的可用性或“可共享性”(Beaulieu-Jones 等人,2019 年)。然而,所有这些好处与个人保护隐私和避免共享个人数据的合法愿望形成了鲜明对比(Wieringa 等人,2021 年)。继 Facebook-Cambridge Analytica 丑闻之后,企业也越来越重视保护客户数据免遭重新识别攻击,保护品牌免遭客户信任损失(Schneider 等人,2017 年、2018 年)。所有这些担忧导致了现代隐私法规(特别是欧盟的 GDPR 和加州的 CCPA)的出台,这些法规对数据匿名化施加了非常严格的标准。GDPR 和 CCPA 都没有规定任何具体的匿名化流程,但它们要求结果必须是