说实话,你如何使用数据。在我们去年的人工智能指南中,我们建议企业在获取支持其模型的数据时要小心谨慎。我们注意到联邦贸易委员会对 Facebook 的投诉,该投诉指控这家社交媒体巨头误导了消费者,告诉他们可以选择加入该公司的面部识别算法,而事实上 Facebook 默认使用他们的照片。联邦贸易委员会最近对应用程序开发商 Everalbum 的行动强化了这一点。根据投诉,Everalbum 使用应用程序用户上传的照片来训练其面部识别算法。联邦贸易委员会指控该公司欺骗用户,让他们无法控制应用程序的面部识别功能,并虚假陈述用户在停用帐户后删除照片和视频的能力。为了阻止未来的违规行为,拟议的命令要求该公司不仅删除非法获取的数据,还删除使用用户照片或视频开发的面部识别模型或算法。
我们推出了 Fairlearn,这是一个开源工具包,它使数据科学家和开发人员能够评估和提高其 AI 系统的公平性。Fairlearn 有两个组件:交互式可视化仪表板和不公平缓解算法。这些组件旨在帮助在公平性和模型性能之间进行权衡。我们强调,在 AI 系统中优先考虑公平性是一项社会技术挑战。由于不公平的来源有很多种——有些是社会的,有些是技术的——因此不可能完全“消除”一个系统的偏见或保证公平性;目标是尽可能减轻与公平相关的危害。随着 Fairlearn 不断发展,包括更多的公平指标、不公平缓解算法和可视化功能,我们希望它能够由一个多元化的利益相关者社区塑造,从数据科学家、开发人员和业务决策者到生活可能受到 AI 系统预测影响的人们。
人工智能可以重新编程新闻编辑室吗?自动化新闻中的信任、透明度和道德 计算机程序可以编写引人入胜的新闻故事吗?在路透社最近的一份技术趋势和预测报告中,接受调查的 200 名数字领导者、编辑和首席执行官中,78% 表示投资人工智能 (AI) 技术将有助于确保新闻业的未来 (Newman, 2018)。然而,探索这些新的报道方法,为那些已经在努力理解人类记者和计算工作之间复杂动态的人带来了一系列无法预见的道德问题。在新闻编辑室实施自动化叙事向记者提出了如何保持和鼓励报道的准确性和公正性以及对他们所服务的受众的透明度的问题。新闻编辑室中的人工智能已经从一个想法发展成为现实。1998 年,计算机科学家 Sung-Min Lee 预测人工智能将在新闻编辑室得到应用,届时“机器人代理”将与人类记者一起工作,有时甚至代替人类记者 (Latar, 2015)。2010 年,Narrative Science 成为第一家使用人工智能将数据转化为叙事文本的商业企业。Automated Insights 和其他公司紧随 Narrative Science 之后,通过自动化讲故事的方式将 Lee 的“机器人代理”带入新闻编辑室。虽然当今的新闻编辑室正在使用人工智能来简化各种流程,从跟踪突发新闻、收集和解释数据、核实在线内容,甚至创建聊天机器人来向用户推荐个性化内容,但自动生成文本和视频故事的能力促使整个行业转向自动化新闻,或“使用软件或算法自动生成新闻故事而无需人工干预的过程”(Graefe, 2016)。《福布斯》、《纽约时报》、《华盛顿邮报》、《ProPublica》和彭博社只是当今在新闻报道中使用人工智能的部分新闻编辑室。《华盛顿邮报》的“内部自动化叙事技术”Heliograf 只是新闻编辑室利用人工智能扩大其在体育和金融等严重依赖结构化数据的领域的报道的众多例子之一,“让记者专注于深入报道”(Gillespie,2017 年)。人工智能有可能让新闻编辑室和报摊的记者都变得更好。通过自动化,现在可以进行大量的新闻报道新闻智库 Polis 在其 2019 年新闻 AI 报告中透露,新闻编辑室使用人工智能的主要动机是“帮助公众应对新闻过载和错误信息的世界,并以便捷的方式将他们与与他们的生活相关、有用和有益的可靠内容联系起来”(Beckett,2019 年)。
虽然有人谈到“V 型”经济复苏,即一旦解除封锁,就业和增长就会迅速恢复,但这并不能保证一定会发生。经合组织表示,随着政府债务飙升、企业和消费者信心受到侵蚀,全球经济可能会在未来几年遭受损失。1 房地产价格大幅下跌,虽然对潜在买家来说可能是个好消息,但可能会让数十万人陷入负资产。储蓄者和投资者面临重大损失,这可能会对有固定缴款计划的工人未来的退休收入造成严重后果。那些已经退休但依赖股息和储蓄收入的人也可能受到当前危机的严重打击。