内部威胁对组织构成重大风险,需要强大的检测机制来防范潜在损害。传统方法难以检测到在授权访问范围内运行的内部威胁。因此,使用人工智能 (AI) 技术至关重要。本研究旨在通过综合先进的 AI 方法为内部威胁研究提供有价值的见解,这些方法为增强组织网络安全防御提供了有希望的途径。为此,本文通过承认组织在识别和防止内部人员恶意活动方面面临的挑战,探讨了 AI 与内部威胁检测的交集。在此背景下,认识到传统方法的局限性,并研究了 AI 技术,包括用户行为分析、自然语言处理 (NLP)、大型语言模型 (LLM) 和基于图的方法,作为提供更有效检测机制的潜在解决方案。为此,本文探讨了内部威胁数据集的稀缺性、隐私问题以及员工行为的演变等挑战。本研究通过调查 AI 技术检测内部威胁的可行性为该领域做出了贡献,并提出了加强组织网络安全防御的可行方法。此外,本文还概述了该领域未来的研究方向,重点关注多模态数据分析、以人为本的方法、隐私保护技术和可解释的 AI 的重要性。
摘要 人工智能 (AI) 的进步推动了广泛的研究,旨在为智能医疗开发多种多模态数据分析方法。基于定量方法的该领域文献大规模分析很少。本研究对 2002 年至 2022 年的 683 篇文章进行了文献计量和主题建模检查,重点关注研究主题和趋势、期刊、国家/地区、机构、作者和科学合作。结果表明,首先,文章数量从 2002 年的 1 篇增加到 2022 年的 220 篇,其中大多数发表在将医疗保健和医学研究与信息技术和人工智能联系起来的跨学科期刊上。其次,研究文章数量的显着增加可以归因于非英语国家/地区学者的贡献不断增加,以及美国和印度作者的显著贡献。第三,研究人员对各种研究问题表现出浓厚的兴趣,尤其是用于脑肿瘤分析的跨模态磁共振成像 (MRI)、通过多维数据分析进行癌症预测以及医疗保健中的人工智能辅助诊断和个性化,每个主题的研究兴趣都在显著增加。目前,一种新兴趋势是将生成对抗网络和对比学习应用于多模态医学图像融合和合成,并以数据为中心利用功能性 MRI 和脑电图的组合时空分辨率。这项研究有助于增强研究人员和从业者对基于多模态数据分析的人工智能智能医疗的当前焦点和未来发展轨迹的理解。
摘要:在本文中,我们介绍了在人机交互 (HCI) 环境中获得的效果计算研究的多模态数据集。基于游戏化的通用范式,设计和实现了一个实验性的移动交互场景,用于诱导基于对话的 HCI 相关的情绪和认知负荷状态。它包含六个实验序列,分别是兴趣、超负荷、正常、简单、负荷不足和沮丧。每个序列之后都有主观反馈来验证诱导,还有呼吸基线来平衡生理反应,以及结果摘要。此外,在实验之前,从每个受试者那里收集了三份与情绪调节 (ERQ)、情绪控制 (TEIQue-SF) 和人格特质 (TIPI) 相关的问卷,以评估诱导范式的稳定性。基于这个 HCI 场景,生成了乌尔姆大学多模态效果语料库 (uulmMAC),它由两个同质样本组成,每个样本有 60 名参与者和 100 个录音会话。我们记录了 16 种传感器模式,包括 4 种视频、3 种音频和 7 种生物生理、深度和姿势流。此外,还收集了其他标签和注释。记录后,所有数据都经过后处理并检查技术和信号质量,最终得到 57 名受试者和 95 个记录会话的 uulmMAC 数据集。对报告的主观反馈的评估显示序列之间存在显著差异,与诱导状态非常一致,问卷分析显示结果稳定。总之,我们的 uulmMAC 数据库对有效计算和多模态数据分析领域做出了宝贵贡献:它是在接近真实 HCI 的移动交互场景中获得的,包含大量受试者并允许跨时间调查。通过主观反馈验证并检查质量问题,它可用于有效计算和机器学习应用。