Mark Alfano,Macquarie University Amir Ebrahimi Fard,独立研究人员的关键字:错误信息,虚假信息,生成人工智能,宣传,Slopaganda摘要,至少自Francis Bacon,口号“知识IS Power”以来,已使用“知识IS Power”来捕获在小组级别上的决策之间的关系。我们知道,能够塑造小组的信息环境是塑造他们决策的一种方式。从本质上讲,这是为他们做出决定的一种方法。本文重点介绍了通过设计故意影响群体决策能力的策略,从而有效地塑造了他们在环境中利用信息的能力。其中最著名的是政治言论,宣传和错误信息。本文从这些文章中引出的现象是一种相对较新的策略,我们称之为Slopaganda。根据《卫报》的报道,澳大利亚新闻集团目前每周都会筹集3000种“本地”生成AI(GAI)故事。在未来几年中,这种“生成的AI斜率”将带来多种与知识有关的(认知)挑战。我们借鉴了认知科学和人工智能方面的当代研究来诊断斯洛帕加达的问题,描述了一些最近的令人不安的病例,然后提出了一些干预措施,这些干预措施可能有助于对抗Slopaganda。
人工智能 (AI) 用于社会公益的研究需要对社会公益做出某种定义,但潜在的定义很少被提出,也从未达成一致。人工智能用于社会公益研究应该“为了”什么这一规范性问题并没有经过深思熟虑的阐述,或者经常以一种功利主义的观点来处理,这种观点优先考虑大多数人的需求,而不是那些历史上被边缘化的人,无视不公正和不公平的现实。我们认为,人工智能用于社会公益应该由人工智能系统将影响的社区来评估,以能力方法为指导,这是一种衡量不同政策改善人类福利公平能力的框架。此外,我们阐述了人工智能研究如何通过扩展和均衡能力来促进社会进步。我们展示了能力方法如何与参与式方法相结合,以设计和实施我们引入的称为 PACT 的框架中的人工智能用于社会公益研究,其中受影响的社区成员应作为合作伙伴参与其中,并在整个项目中优先考虑他们的意见。最后,我们提供了一套不完整的指导问题,以便以引出并尊重社区自身对社会利益的定义的方式开展此类参与式人工智能研究。
在社会技术系统中,社会现象的测量无处不在,这是不可避免的。这不仅仅是一个学术观点:当我们声称要测量的东西和我们实际测量的东西在测量过程中不匹配时,就会出现与公平相关的危害。然而,测量过程——社会、文化和政治价值观隐含地编码在社会技术系统中——几乎总是被掩盖。此外,这个模糊的过程是重要的治理决策被编码的地方:关于哪些系统是公平的,哪些人属于哪些类别,等等。然后,我们可以使用测量语言以及结构有效性和可靠性工具来揭示隐藏的治理决策。特别是,我们强调了两种类型的结构有效性,即内容有效性和结果有效性,它们有助于引出和描述社会类别的测量、社会建构和执行之间的反馈循环。然后,我们在负责任的人工智能治理背景下探讨公平性、稳健性和责任的构造。总之,这些观点有助于我们揭示测量如何在社会技术系统中充当隐藏的治理过程。将测量理解为治理有助于更深入地了解人工智能中已经发生的治理过程(无论是负责任的还是其他的),从而揭示更有效的干预途径。
摘要 世界许多国家都计划到 2050 年实现 100% 可再生能源 (RE) 使用。在此背景下,由于最近全球能源结构中可再生能源利用率的急剧增加及其对世界能源部门的逐步影响,对其对实现可持续发展目标 (SDG) 的影响的评估和调查尚未得到充分涵盖。在这里,我们对可再生能源利用和人工智能 (AI) 在实现可持续发展目标方面所起的新兴作用进行了评估。根据可持续发展的三大支柱,总共 17 个可持续发展目标分为环境、社会和经济三类。通过使用基于专家引出方法的共识,可再生能源对实现所有可持续发展目标中的 75 个目标产生了积极影响。然而,它可能对 27 个目标的实现产生负面影响。此外,人工智能可以帮助可再生能源实现 169 个目标中的 42 个。随着可再生能源份额的当前指数增长和人工智能的发展,以及解决某些现有限制,这种影响可能会在未来覆盖更多目标。然而,目前的研究重点忽略了一些重要方面。可再生能源份额的指数增长和人工智能的快速发展需要伴随必要的监管洞察力和技术监管,以覆盖未来的更多目标。
在建筑项目中,项目利益相关方之间的简报流程对于项目目标下施工操作的成功和正确执行至关重要。这是在建筑阶段完成时继续沟通和协作的方法。它对于了解组织的需求和资源并将其与项目需求声明中的目标联系起来特别有用[1]。简报过程的主要目标之一是确保需求的引出。通过不同的程序和报告准备,客户需求被识别并表达为客户需求。不幸的是,由于项目简介的执行和复杂性,建筑行业在满足这些标准方面表现不佳[2]。此外,收集和从客户向设计师传递知识或从设计师向客户传递知识是成功处理需求的关键挑战,这可能会因缺乏时间、结构、经验等而受到阻碍。空间需求知识必须像任何其他知识一样经过验证和确认来开发、处理和利用。关于整个简报阶段的需求获取,该领域使用的一些知识获取方法包括头脑风暴、讲故事、经验教训工具、项目后评估、研讨会、设计提案或访谈 [3]–[6]。项目利益相关者的参与对于应用这些技术是必不可少的。最终用户的缺席和参与度较低会导致需求获取过程失败。
无家可归是一个世界性的问题,近年来洛杉矶 (LA) 的无家可归者数量急剧增加。尽管已经开展了多项研究来调查无家可归的各个方面及其与犯罪受害的交集,但没有一项研究使用机器学习技术来分析无家可归与无家可归者受害之间的关系。为了更好地了解无家可归者受害的影响,我们整合了从联邦、州和市政府机构获得的三个数据集,创建了一个统一的数据集,得出了重要的发现。特征工程用于引出无家可归不同维度之间的关系。基于提取的特征,机器学习技术用于模拟无家可归者的受害情况。我们的研究结果表明,洛杉矶无家可归者受害与种族、性别、年龄和社区划分密切相关。鉴于本研究的主要目标是帮助社会服务机构实施社会创新,我们应用了两种复杂的机器学习方法来预测无家可归者的未来:自回归综合移动平均线 (ARIMA) 和长短记忆网络 (LSTM)。这两个模型都从不同角度进行了训练,以预测未来两年内犯罪热点地区以及弱势群体的性别、种族和年龄组。最后,向各部门和政府机构提出了一些社会改进建议,以改善针对无家可归犯罪受害者的服务和项目。
随着时间的推移,那些被视为划时代事件的重大事件往往会引出一个简单的问题:“你听到这个消息时在哪里?” 肯尼迪遇刺、戴安娜王妃去世和 9/11 只是其中几个例子,可以合理地假设,英国人可能会将首相向全国发表讲话并宣布“更多的家庭将英年早逝”的那一刻也加到这个名单上。据说鲍里斯·约翰逊在他的整个政治生涯中都渴望丘吉尔的时刻,但他无疑宁愿写一些关于这位战时领导人的书,也不愿在国家面临“一代人以来最严重的公共卫生危机”时被要求振作精神。这种紧急情况迫在眉睫。市场恐慌、头条新闻,所有这些都让人们感觉到风暴已经到了顶峰。但我们现在知道,最糟糕的情况还没有到来。政府估计,该国疫情的高峰期还有 10 到 12 周。这意味着,在我们能够回顾并粗略地评估损失之前,夏天就要结束了。这也意味着我们的经济和推动它的市场将面临数月的不确定性、混乱和恐慌。伦敦金融城的许多人已经接受了我们正处于“2008 年时刻”的事实——尽管那次冲击与这次冲击有着明显的区别。对此的反应也将不同。会有全球协调一致的行动吗?还是每个
摘要 — 可再生能源的日益普及对电网可靠性提出了重大挑战。人们越来越有兴趣利用保险等金融工具来帮助终端用户对冲由于可再生能源变化而导致的负载损失的潜在风险。有了保险,用户向公用事业公司支付保费,这样如果他的需求没有完全满足,他就会得到补偿。一个合适的保险设计需要解决以下两个挑战:(i)用户的可靠性偏好是私人信息;(ii)保险设计与可再生能源投资决策紧密相关。为了应对这些挑战,我们采用合同理论来引出用户的私人可靠性偏好,并研究公用事业公司如何联合优化保险合同和可再生能源规划。一个关键的分析挑战是保险设计和可再生能源规划的联合优化是非凸的。我们通过揭示最优解的重要结构特性来解决这一难题,借助两个基准问题:无保险基准和社会最优基准。与无保险基准相比,我们证明了在最优合同下社会成本和用户总能源成本始终不大。模拟结果表明,在中等电价、低类型异质性和高可再生能源不确定性的情况下,保险合同的收益最大。
随着电网脱碳,间歇性可再生能源在电力供应结构中的比例越来越大。这导致供需平衡变得困难。储能提供了一种有希望的应对这一挑战的方法,通过在供过于求时充电,在供不应求时放电,可以平滑波动。这自然会引出一个问题:一个国家电力系统需要多少储能。由于经济限制,仅仅大幅度采购储能容量是不够的,但任何具有实际限制的水平都必然伴随着无法平衡系统的风险。英国 (GB) 电网 2019 年的停电就是一个例子,当时根本没有足够的备用容量来满足罕见事件的要求 [1]。在这项工作中,我们提供了一个将风险偏好映射到储能容量需求的框架。用户可以定义短缺事件的类别,然后指定他们愿意接受每种事件发生的频率。 [2] 中提出的机会约束规范形式用于确定所需的最小储能容量。为了便于描述,我们重点关注英国国家电网系统,但我们的方法仍然具有普遍性。我们没有使用静态电网供应组合,而是考虑了英国国家电网(英国输电系统运营商)预测的随时间变化情况,这种情景旨在满足英国在《巴黎协定》下的义务 [3]。
摘要 — 虽然我们目睹了旨在指导人工智能 (AI) 发展的伦理文件的快速增长,但人工智能伦理的推广却很少得到人工智能从业者的投入。鉴于人工智能造福社会的举措不断增多,这是一个需要解决的新差距,以便制定更有意义的人工智能使用和发展伦理方法。本文提供了一种方法——“共享公平”方法——旨在确定人工智能从业者在面对和解决伦理挑战时的需求,并找到第三个空间,让他们的操作语言与目前仍处于工作经验边缘的更抽象的原则相结合。我们提供了一种基于对话和共同责任的运营伦理草根方法:这种方法以对话为中心,旨在引出从业者对关键价值观运营决策的道德归因和分配,确定这些决策何时出现以及他们面临的伦理挑战,并参与一种伦理和责任语言,使从业者能够内化伦理责任。该方法通过从个人、促进对话开始,将伦理话语交还给那些旨在赋予其意义的生态系统最前沿的人,弥补了结构性决策权和精英技术知识中存在的责任不平衡。我们的主要贡献是补充最近的文献,寻求通过提供一种方法来理解伦理如何在他们的工作中体现为一种关系和相互依存的社会技术实践,从而将人工智能从业者的经验推向前台。索引术语——道德人工智能、数字伦理、负责任的人工智能