摘要 - 使用监视设备可以帮助避免受伤甚至死亡。当前,使用可穿戴传感器(例如运动传感器和其他传感器)来检测患者何时癫痫发作并警告他们的护理人员。但是,这些设备的开发阶段需要劳动密集型对收集的数据进行标记,这导致了开发可穿戴监测设备的困难。因此,必须采用更自动化的辅助方法来标记癫痫发作数据和可穿戴设备,以检测癫痫发作以进行日常监测。我们用建议的手镯从医院外癫痫发作的数据中收集了数据。癫痫发作后,要求受试者按下标记按钮。我们还提出了移动段(EAMS)算法的自动提取和注释,以排除非移动段。然后,我们使用机器学习方法使用了两层集合模型(TLEM)来对癫痫发作和非癫痫发作段进行分类,该段旨在处理不平衡的数据集。然后,由于这些数据集的不同不平衡,我们为整个(全天和晚上)癫痫发作案例和夜间癫痫发作检测案例分别构建了两个单独的TLEM模型。EAMS算法排除了93.9%的原始数据。TLEM模型
摘要 —可解释人工智能 (XAI) 旨在为用户提供可理解的解释。SHAP、LIME 和 Scoped Rules 等 XAI 算法计算机器学习预测的特征重要性。尽管 XAI 引起了广泛研究关注,但将 XAI 技术应用于医疗保健以指导临床决策具有挑战性。在本文中,我们对 XAI 方法给出的解释进行了比较,作为分析复杂电子健康记录 (EHR) 的第三级扩展。利用大规模 EHR 数据集,我们根据 XAI 模型估计的预测重要性比较 EHR 的特征。我们的实验结果表明,所研究的 XAI 方法会根据具体情况生成不同的顶级特征;它们在共享特征重要性方面的差异值得领域专家进一步探索,以评估人类对 XAI 的信任。索引词 —可解释的人工智能、黑盒、玻璃盒、机器学习、电子健康记录
使用人工智能 (AI) 的应用程序已变得司空见惯,并已融入我们的日常生活。我们的大部分交流已从人与人之间的互动转变为人与技术或技术介导的互动。随着技术被移交给控制者并简化了不同情况下的选择和决策,人们越来越担心对其自主权的潜在威胁。在本文中,我们通过一项基于设计小说的调查,对 328 名参与者进行了探索在日常环境中与基于人工智能的应用程序交互时的自主性感知。我们探究了向用户解释应用程序“为什么”做出某些选择或决定是否会影响他们对与应用程序交互的自主性或抵抗性的看法。我们还研究了当用户意识到应用程序中有人工智能时感知的变化。在社交媒体环境中,我们发现人们感受到的抵抗力更强,自主感更低,这可能是由于应用程序环境的个人和身份敏感性。在导航上下文中提供“为什么”的解释有助于增强他们的自主感知,并减少反抗,因为它会影响用户基于推荐的后续行动。我们讨论了我们的发现及其对尊重人类自主性的日常人工智能应用未来发展的影响。
