全面贯彻党的十九大和十九届二中、三中、四中全会精神,落实党中央、国务院关于新一代人工智能发展的决策部署,坚持市场驱动与政府引导相结合,按照“统筹规划、分类施策、市场主导、急用先行、跨界融合、协同推进、自主创新、开放协作”的原则,立足国内需求,放眼国际,建立新一代人工智能国家标准体系,加强标准顶层设计和宏观指导。加快创新技术与应用转化为标准,加强标准实施和监督,推动创新成果与产业深度融合。注重对智能制造、工业互联网、机器人、车联网等相关标准体系的统筹和支撑。深化人工智能标准国际交流合作,注重国际国内标准协同,充分发挥标准对人工智能发展的支撑引领作用,保障高质量发展。
● 文章/视频:人工智能如何推荐视频 [ 链接 ] ● 视频:人工智能、社交媒体和选举 [ 链接 ] ● 视频:人工智能和社交媒体营销 [ 链接 ] ● 文章:人工智能在社交媒体中的利弊 [ 链接 ] ● 文章:视频游戏人工智能的社会和哲学影响 [ 链接 ]
3月18日至19日,一群专家在Eelisa AI伦理和法律讲习班举行的布达佩斯。在四个小组讨论中,他们将研究该主题中可能的研究方向,以及监管的含义,尤其是对版权事项和欧盟AI法案的含义。该事件还将采用未来的预测方法和纪录片筛选。
人工智力现在存在于我们日常生活的许多领域中。它有望领导新的和有效的业务模型,以在私营和公共部门中有效和以用户为中心的服务。在深度学习,(深度)增强学习和神经进化技术方面的AI进步可以为人工通用智能(AGI)铺平道路。但是,AI的开发和使用也带来了挑战。数据语料库中普遍存在用于训练AI和机器学习系统的固有偏见归因于大多数这些挑战。此外,多个实例强调了在基于动力的决策中需要隐私,公平性和透明度的必要性。本书系列将为研究人员,领导者,决策者和决策者提供一条途径,以分享AI最前沿的研究和见解,包括其在道德,可解释的,可解释的,隐私的,可信赖的,可信赖的和可持续的方式中的使用。
● 自主性:万一您正在研究的病毒发生变异并逃出实验室,造成新的流行病,这可能会剥夺他人的生命和健康权利。 ● 后果:这可能会带来好或坏的后果。从好的方面来说,功能获得性研究通常是安全的,可以帮助预防未来的流行病并挽救生命。从坏的方面来说,逃逸的病毒可能会非常致命和灾难性的。 ● 公正性:这一决定可能为所有人带来同等的利益和风险。 ● 性格:假设您的主要价值观之一是诚实。您很可能必须对自己在实验室所做的事情保密,以免引起社会恐慌。这意味着这个决定会导致您损害您的一个关键价值观。 ● 普遍性:如果实验室里还有其他人从事功能获得性病毒学研究,您可能会感到安全,因为您知道世界将更好地应对未来的疾病爆发,尤其是因为逃逸病毒的可能性非常小。
自 2019 年冠状病毒病 (COVID-19) 出现以来,全球公共卫生基础设施和系统以及社区范围内的合作和服务都面临着前所未有的挑战。疫苗开发立即成为我们所有科学、公共卫生和社区工作的中心。尽管 SARS-CoV-2 疫苗的开发可以说是过去 12 个月中最伟大、最明显的成就,但它们也是疫情期间最具争议和争论的问题之一。然而,疫苗开发的独特之处在于它与其试图服务的社区有着密切的关系;无论是作为一种有效和安全的预防措施进行的临床试验测试,还是作为一种有效的公共卫生工具在开发后“推广”的成功。这些关系产生了无数的复杂性,从基于社区的不信任到学术上争论的道德困境。事实上,COVID-19 疫苗竞赛的加速发展进一步加剧了这一现象,带来了新的伦理困境,需要对其进行研究以确保这些疗法在临床上继续取得成功,并恢复社会对临床医学的信任。在本文中,我们讨论了两个主要的伦理困境:(1) 在成功候选疫苗出现时继续进行新疫苗试验的平衡和 (2) 盲法安慰剂组的弊端。因此,我们讨论了解决这些伦理困境的六种不同方法:(1) 继续进行安慰剂对照试验,(2) 从安慰剂对照过渡到开放标签,(3) 仅对高风险优先组进行揭盲,(4) 过渡到盲法阶梯楔形交叉设计,(5) 进展到盲法活性对照阶梯楔形交叉试验,以及 (6) 进行随机阶梯楔形社区试验。我们还为疫苗试验后期的相关利益相关者提出了一种决策算法。重要的是要记住,COVID-19 疫情的突发性并不意味着可以对核心道德价值观做出妥协。事实上,围绕这一主题的讨论和所做出的决定将仍然是一个有力的案例研究,并将成为未来所有此类情景的一个不断参考的例子。
人工智能 (AI) 的影响和发展使我们的生活方式发生了惊人的变化。从艺术和工作到人际关系,AI 重塑了我们的世界,加剧了隐私风险,并提供了前所未有的预测和分析能力。在本课程中,我们将调查当代和历史伦理理论,并解决 AI 背景下提出的新伦理问题。我们关注 AI 不仅与人类身份有关,还关注我们在与 AI 不断变化的互动中对性别、种族和政治身份的概念。我们探索的其他关键问题包括我们对 AI 的信任、其决策过程的透明度、统计推理的风险和前景、AI 产生的原创内容的归属、对安全和隐私提出的挑战以及 AI 复杂的法律和道德地位。通过参与对话、调查案例研究以及亲身参与设计和编码体验,学生将掌握解决人工智能引发的重要问题的实践和理论策略。
当今AI伦理最前沿的问题 - 不公正,歧视和报复 - 是边缘化社区数十年来一直在战斗的战斗。它只花了我们数百万美元,并引起了我们的可爱技术的巨大公共利益。算法表现并进一步加剧了我们社会的结构不平等。我们终于开始看到“偏见”(算法或其他方式)的真实含义:从根本上是人类的问题。
我们撰写本章的动机是考虑游戏体验的道德方面。通常,关于游戏体验的文章通过建立理论模型或解决与游戏设计和开发相关的实际问题来探讨这一主题。我们特别关注的是手机游戏体验,以及当手机游戏开发商半公开地承认他们的目的是让玩家上瘾并支付比他们最初意识到的更多的钱时,它是否在道德上是可持续的(Kimppa 等人,2015 年)。有时,这些方法会引起立法者的注意,例如战利品箱的案例,战利品箱被视为一种赌博形式,因此应遵守相关法规。目前,最受欢迎的是因游戏 Fortnite(Epic Games,2017 年)而闻名的 Battle Pass 货币化模式。虽然从法律角度来看,它在大多数司法管辖区可能没有问题(战利品箱显然有问题),但人们可能会提出一个问题,即它和其他同类方法是否合乎道德,而在本章中,我们确实这样做了。
研究人员是否知道道德考虑因素以及何时将其应用于研究?本文使用二级数据源来描述数据编辑学科和原则的各个方面,并以道德考虑在定性和定量研究方法中研究研究中的编辑数据。通过过去的研究,研究的道德亚结构包含三个层面的维度:哲学,实践和反思性。数据编辑过程探索和审查数据,以确保一致性,错误和异常值和纠正错误,以提高收集到的数据的质量,准确性和充分性,从而使其更适合于收集数据的目的,例如检测到数据持续数字的字段数量和误差。数据编辑过程基于逻辑,常识和遵守书面程序或编辑指南,针对院士,政策制定者和研究人员的未来研究人员。
