说服是人性的一个关键方面,是商业、政治和其他事业的核心。人工智能 (AI) 的进步已经产生了能够说服人类购买产品、观看视频、点击搜索结果等的 AI 系统。即使不是专门为说服而设计的系统,在实践中也可能做到这一点。在未来,越来越拟人的 AI 系统可能会与用户建立持续的关系,从而提高他们的说服力。本文探讨了有说服力的 AI 系统的不确定未来。我们研究了 AI 可以通过改变说服力的平衡、允许大规模部署个性化说服、支持虚假信息活动以及改变人类塑造自己话语的方式来定性地改变我们与说服的关系和对说服的看法。我们考虑了 AI 驱动的说服与人类驱动的说服可能有何不同。我们警告说,无处不在的极具说服力的人工智能系统可能会极大地改变我们的信息环境,从而导致人类失去对自己未来的控制。作为回应,我们研究了几种针对人工智能驱动的说服的潜在反应:禁止、识别人工智能代理、真实的人工智能和法律补救措施。我们得出的结论是,这些解决方案都不是万无一失的,个人和政府需要采取积极措施来防范说服性人工智能最有害的影响。
摘要。在本文中,我们使用伪算法程序来评估人工智能生成的文本。我们应用自然论证综合评估程序 (CAPNA) 来评估人工智能文本生成器 GPT-3 在《卫报》撰写的一篇评论文章中产生的论点。CAPNA 从三个方面检查论证实例:其过程、推理和表达。使用论证类型识别程序 (ATIP) 进行初步分析,首先确定存在论证,其次根据论证周期表 (PTA) 的论证分类框架确定其具体类型。然后使用程序问题来测试论证在三个方面中的可接受性。分析表明,虽然人工智能文本生成器提出的论证在类型上各不相同,并且遵循人类推理的熟悉模式,但它们存在明显的弱点。由此我们可以得出结论,自动生成有说服力的、合理的论证比生成有意义的语言要困难得多,并且如果要使人工智能系统提出的论证具有说服力,它们就需要一种方法来检查其自身输出的合理性。
摘要 摘要 基因编辑为解决影响粮食生产的人口增长和气候变化等重大挑战提供了机会。鉴于基因编辑在我们的食品系统中发挥着重要作用,我们需要探索说服公众接受这项技术的机会。本研究的目的是调查隐喻概念在农业基因编辑中的说服作用。精细加工可能性模型被用作概念框架。隐喻会影响公众的接受度,因为隐喻鼓励与问题相关的思考并增强说服力。通过在线调查向具有全国代表性的美国居民样本提供了定量、随机、受试者间实验研究设计。操作是四篇模拟新闻文章,通过隐喻概念区分农业基因编辑(创作与文本编辑器、工具与控制)。即使控制混杂变量,结果表明,在与问题相关的思考或在社交媒体上分享文章的意愿方面,处理之间没有显着差异。未来的研究应该探索隐喻概念对态度和与精细化相关的其他行为结果的影响。
基础工程师 1 – 这是教授的一篇文章。 Costa Nunes 使用 Tubulões 粉底。 2 - AVENIDA CENTRAL / RJ 大楼共 34 层,建于 1960 年,采用压缩空气管道,底座加宽。 3 — 在沉箱底部的地面上进行了负载试验。 4 – 根据他在大量工作中积累的经验,Prof.科斯塔努涅斯 (Costa Nunes) 制定了标准来定义沉箱底部土壤的允许应力。 5-随着目前沉箱、桩基开挖设备的先进技术以及水下混凝土浇筑的常规使用,现在很少使用压气沉箱基础。 6-当前严格的职业安全要求也使得在基础中使用压缩空气变得不可行。风险非常高。 7 — 但是,教授的基本观点是。 Costa Nunes 对沉箱底部土壤的允许应力进行了定义,他的建议仍然有效。 8 – 已添加一些带有照片和/或图形的附件来说明文章。
摘要:Facebook 或 Instagram 等社交网站 (SNS) 中的隐私与人们的自我披露决策以及他们预见与大量不同受众分享个人信息的后果的能力密切相关。尽管如此,在线隐私决策通常基于虚假的风险判断,这使得人们容易向不受信任的接收者泄露敏感数据并成为社会工程攻击的受害者。人工智能 (AI) 与诸如推动之类的说服机制相结合是一种很有前途的方法,可在 SNS 用户中促进预防性隐私行为。尽管如此,将行为干预与高度个性化相结合可能会对人们的代理和自主权构成潜在威胁,即使应用于社会工程对策的设计也是如此。本文详细阐述了推动机制可能给基于 AI 的对策的开发带来的道德挑战,特别是那些解决 SNS 中不安全的自我披露实践的对策。总体而言,它认可制定个性化风险意识解决方案,作为 i) 抵制社会工程的道德方法,以及 ii) 促进反思性隐私决策的有效手段。
COVID-19,只有在人口达到群疫苗的情况下才会永久结束。如果在没有数亿个致命和危险感染的情况下发生这种情况,则必须迅速开发和广泛使用疫苗。每个成功从安全有效的疫苗中获得免疫力的人不仅避免了自己的感染,而且还会减慢社区的传播病毒。即使迅速发现并测试了安全且有效的疫苗,但是,美国人的大量偏见可能不会接受,并且强迫疫苗接种的政策可能会备份。美国机构的统一结构和自由主义精神历史使美国滞后于遏制流行病的国家(Troesken 2015)。反疫苗活动家利用这些机构抵制免疫要求(Reich 2018)。此外,即使通常支持疫苗接种的Peo-Ple也可能不需要COVID-19-19,如果他们不相信其安全性已经进行了充分的测试。例如,由于医学剥削的历史模式,对美国卫生系统的不信任是普遍存在的,导致挽救生命的预防健康措施的吸收减少(Alsan and Wanamaker 2017)。1此外,由于儿童和年轻人在Covid-19的风险较低,因此,在美国最广泛,最成功使用的强制性政策(学校疫苗接种要求)不会直接保护最濒危的群体。本文中描述的调查实验测试了四个消息,以实现对疫苗可用时疫苗接种的自我报告意图的影响。由于强制性政策不太可能有效,因此在美国对COVID-19疫苗的采用可能取决于收集一条消息,该信息将成功说服疫苗归因于他们的射击。信息的影响因种族和种族而截然不同。对于完整的,全国代表性的样本,没有任何信息在统计上具有显着影响,相对于对照组有显着影响。这是因为非西班牙裔白人受访者对所有消息没有反应,估计值始终接近零。但对于非白人和西班牙裔受访者来说,这些信息具有相当大的估计治疗效果:最有效的信息,强调疫苗安全和对他人的保护的最有效的信息,使该组疫苗接种的意图增加了50.4%。这种异质治疗的效果是通过疫苗犹豫的不同原因来解释的。非西班牙裔白人受访者比其他受访者更有可能表达对这种疾病的恐惧,因此看到对疫苗的任何需求的可能性较小。非白人和西班牙裔/拉丁美洲人的重生比非西班牙裔白人更有可能犹豫,因为担心Covid-19疫苗本身会不安全,或者因为它的成本太高。这种异质治疗效果对普通公共卫生和公平很重要:
可解释的人工智能旨在构建能够为其决策提供清晰且人类可理解的理由的智能系统。这适用于基于规则和数据驱动的方法。在慢性病管理中,此类系统的用户是遵循严格饮食规则来管理此类疾病的患者。在接收到摄入食物的输入后,系统会进行推理以了解用户是否遵循不健康的行为。接下来,系统必须以清晰有效的方式传达结果,即输出消息必须说服用户遵循正确的饮食规则。在本文中,我们解决了构建此类系统的主要挑战:(i)解释推理不一致的消息的自然语言生成;以及(ii)此类消息在说服用户方面的有效性。结果证明,有说服力的解释能够减少不健康用户的行为。
什么是劝阻?本报告将劝阻定义为“采取行动,增加目标对预期成本的认知和/或减少其对发展、扩大或转让对美国而言具有威胁性或其他不利的军事能力可能带来的好处的认知。”简而言之,劝阻可以看作是一种“预先威慑”,其中劝阻目标不是不使用它拥有的军事能力,而是不让它首先创造这种能力(见下图 1)。如果目标对手获得了初始作战能力,尽管进行了早期劝阻,目标仍将阻止目标使用该能力,同时劝阻其扩大(或转让)该能力。根据定义,一旦目标部署了强大的能力,劝阻就不再适用。
智能手机和手表不仅有助于收集用户数据(可穿戴设备可以在用户环境中检测传感器数据),还能帮助用户实现个人健康目标。例如,它们可以向用户传达与健康相关的信息(例如,移动通知)。因此,说服技术可以情境化:它们可以在通知被关注且不会被忽略的可能性更高的环境中发布。这是朝着广泛可用的医疗决策支持系统迈出的一步,通过多模式界面提供健康干预。我们试图通过说服的方法是引导人们朝着某些方向发展:全神贯注并掌握完整的信息以实现自我控制,例如,通过智能手机通知、增强现实眼镜或机器人伴侣。这种方法假设用户的选择不会被阻止、隔离或增加负担。两种不同的选择架构方法是相关的:第一种是由 Thaler 和 Sunstein 2009 提出的,其关键主张是,真实的人会系统地犯错误,人们经常会犯错误,而这些错误是普遍存在的偏见、启发式和谬误的结果。例如,当人们根据一个例子被想起的难易程度来预测事件发生的频率时;或者当人们很可能继续采取一种行动,因为它是传统上所追求的行动,即使这种行动可能显然
1。一个被动1米球,枪弹丸发射车(7英寸枪孔,3英寸亚尺度弹丸),一个分阶段 - 阵列跟踪雷达V-I 2。一个2米的被动球,带有反式思考,火箭升起的车辆,干涉仪型跟踪系统v-3 3 3.一个被动的球体,一个谷壳罐,火箭车,一个拼手阵列跟踪雷达V-3 4。旋转电线密度计(SWD),热敏电阻/降落伞和谷壳,火箭发射车,一个阶梯阵列雷达和两个遥测地面站V-3 5。分子荧光密度计(MFD),热敏电阻/降落伞,谷壳,火箭发射车辆,一个相阵列跟踪雷达和两个遥测地面站V-7 6。一个皮托系统,热敏电阻/降落伞和谷壳,火箭射击的车辆,一个阶梯式阵列跟踪雷达和两个遥测地面statiqns v-9