可解释的人工智能旨在构建能够为其决策提供清晰且人类可理解的理由的智能系统。这适用于基于规则和数据驱动的方法。在慢性病管理中,此类系统的用户是遵循严格饮食规则来管理此类疾病的患者。在接收到摄入食物的输入后,系统会进行推理以了解用户是否遵循不健康的行为。接下来,系统必须以清晰有效的方式传达结果,即输出消息必须说服用户遵循正确的饮食规则。在本文中,我们解决了构建此类系统的主要挑战:(i)解释推理不一致的消息的自然语言生成;以及(ii)此类消息在说服用户方面的有效性。结果证明,有说服力的解释能够减少不健康用户的行为。
业务计划还是PPM?什么可以给潜在的投资者,以及说服投资者相信自己的信仰(和他们的钱!)在您的公司中,需要策略,计划和一系列文档,电子表格和幻灯片,旨在使读者的学生变成美元标志。创始人应记住的众多考虑因素之一是,在需要更多物质的文档时,避免使用全面的业务计划或提供太少信息的潜在投资者。到此为止,以下是对所有希望筹集投资者资本的公司的文档的解释,从首次初始联系到完成交易之前。1。执行摘要:执行摘要是应提供任何
智能手机和手表不仅有助于收集用户数据(可穿戴设备可以在用户环境中检测传感器数据),还能帮助用户实现个人健康目标。例如,它们可以向用户传达与健康相关的信息(例如,移动通知)。因此,说服技术可以情境化:它们可以在通知被关注且不会被忽略的可能性更高的环境中发布。这是朝着广泛可用的医疗决策支持系统迈出的一步,通过多模式界面提供健康干预。我们试图通过说服的方法是引导人们朝着某些方向发展:全神贯注并掌握完整的信息以实现自我控制,例如,通过智能手机通知、增强现实眼镜或机器人伴侣。这种方法假设用户的选择不会被阻止、隔离或增加负担。两种不同的选择架构方法是相关的:第一种是由 Thaler 和 Sunstein 2009 提出的,其关键主张是,真实的人会系统地犯错误,人们经常会犯错误,而这些错误是普遍存在的偏见、启发式和谬误的结果。例如,当人们根据一个例子被想起的难易程度来预测事件发生的频率时;或者当人们很可能继续采取一种行动,因为它是传统上所追求的行动,即使这种行动可能显然