1。引言创建照片现实和动态的人类化身具有广泛的应用,包括虚拟试验,电影和游戏制作,虚拟助手,AR/VR以及远程介绍。传统上,此过程需要培训,这使得普通用户无法访问。最近,基础扩散模型的进步加速了旨在使3D Human Avatar创建民主化的研究工作,从而可以通过文本[16、46、51、88]或图像[39]易于用户控制。早期的3D人头像创作的方法将头发,身体和衣服作为单层表示,因此由于其纠缠的几何形状,很难独立模拟或编辑每个区域。为了解决这一限制,重新制作的工作使用了分层结构来分别反映身体,服装或头发[27,36,82,96]。,这些方法中的许多方法都依赖于nerf [58]等隐性代表来定义服装或毛发地理。尽管隐式表示有助于从基础扩散模型中利用先验知识,但它们在现有模拟器中进行动画挑战,这是由于身体运动而引起的头发和服装的现实运动。结果,这些方法难以生产动画时看起来很现实的化身。因此,出现了一个自然的问题:我们可以设计3D化身生成管道,该管道可以利用图像扩散模型中的丰富的先验知识,同时与现有的模拟管道兼容?解决此问题的关键挑战在于连接当前模拟器和文本驱动的头像生成管道中使用的不同表示。前者通常会重新使用平滑清洁的非紧密网格或特定设计的头发链,其拓扑是可以优化的,并且很难约束。十大的后者采用隐式表示(例如NERF [58]或SDF [83]),尽管它们可通过嘈杂的监督信号来优化来自扩散模型的嘈杂监督信号,但不能轻易地转换为适合模拟的开放网格或发束。为了解决这些问题,我们提出了一个新颖的框架Simavatar,该框架从文本提示中生成了3D人体化身,可以很容易地通过现有的头发和服装模拟器来动画。关键思想是为不同的人类部位(例如头发,身体和服装)采用合适的代表,并利用图像扩散模型和模拟器的先验知识。为此,我们提出了使用头发束代表人头发,身体和饰物的几何形状,参数身体模型SMPL [55],
摘要由于对个人,公司和数字基础设施的危害日益增长,因此对恶意URL的有效识别变得至关重要。本研究评估了多个机器学习算法,以预测和识别危险URL。研究的重点是随机森林分类器,因为它在二进制和多类分类任务中优于竞争对手模型。在二元分类中具有98.9%的精度,随机森林分类器的表现良好。这表明分类器可以识别安全和危险的URL。该系统的精度为98.8%,F1得分为99.3%,真实正率为99.7%,而真为95.6的真实负率证明了其可靠性。多类分类精度为97.0%,精度,召回和F1得分对于随机森林分类器再次很好。本研究提供了提高网络安全性的实用技巧,并显示了透明的AI模型和跨学科的团队工作如何解决复杂的网络安全问题。这项研究为已知信息的主体做出了重大贡献,其意义在于它提供了这两种好处。关键字:恶意软件,机器学习,URL,恶意。1。引言在当今快节奏的数字景观中,导致恶意网站的统一资源定位器(URL)的存在代表了一种实质而不断发展的网络安全威胁。网络犯罪分子在制作这些欺骗性的URL时表现出显着的创造力,巧妙地伪装它们,类似于可靠且值得信赖的来源。必须强大而严格令人遗憾的是,这些看似值得信赖的URL充当诱饵,诱使毫无戒心的用户进入危险的陷阱,并具有偷窃敏感的个人信息的邪恶意图(Alomari等,2023)。与这种恶意URL互动的影响可能是可怕的和深远的。一旦一个人无意间冒险进入这些险恶的地点,许多危害就会降临。个人和财务数据被当今数字时代被认为是神圣不可侵犯的,面临着掠夺的严重风险。此外,这些流氓URL可以充当传播阴险恶意软件的向量,不仅能够渗透单个计算机,而且可以渗透整个网络,从而使损害呈指数增大。打击这种威胁的最困扰的挑战之一是流氓网站的扩散和网络攻击的复杂性不断提高(Naim等,2023)。网络犯罪分子所采用的欺骗性艺术使普通用户越来越艰巨地区分安全和危险的网址,从而进一步加剧了危险。鉴于这种严峻的现实,维护在线安全和保障已经具有至关重要的意义。
• 所有 V4 国家都检测到了社交媒体中的不真实行为,尽管使用的方法和目标不同。在匈牙利和捷克共和国,以不真实方式在 Facebook 上传播的信息通常试图向民众兜售克里姆林宫的信息。在波兰,可疑的评论者试图冒充反克里姆林宫的战士,同时攻击波兰政治精英和波兰的盟友。在斯洛伐克媒体环境中,所有不断重复的信息要么内容中立,要么亲西方。• 有明显的协调迹象。显然,在传播这些叙述时存在某种形式的协调。例如,有几个个人资料可能被怀疑是假的(例如,假的或没有个人资料图片,只发布政治内容或没有公开的 FB 活动)。重复文本中添加的“介绍”表明存在某种形式的“指南”,供用户“个性化”他们的消息。此外,数百名 Facebook 用户在各种 Facebook 页面的帖子下复制同一条消息似乎没有其他合理的解释。• 多种用户类型参与了 Facebook 上消息的协调传播。在这三个国家,我们发现“常见”用户类型在 Facebook 上不真实地传播消息。可能有“职业”巨魔以虚假活动为职业,使用虚假个人资料在社交媒体上从事虚假活动。有热情的活动家参与这项活动,以说服他人相信他们所说的真相;他们的行为可能是通过封闭的 Facebook 或 Telegram 群组进行集中协调的。第三,有“普通用户”,他们只是偶尔参与虚假活动。他们要么只是看到一些他们同意的评论并传播它们,要么也是协调小组的成员,尽管不太活跃。• 虚假活动在战争初期最为强烈。我们研究发现的绝大多数叙述在战争的头几天重复得最频繁,然后大多数叙述迅速沉寂。主要例外是两条与匈牙利选举相关的信息。• 虚假活动在 V4 中最高。有关乌克兰战争的虚假活动在匈牙利最高,在那里,选举活动——重点关注乌克兰——引发了研究期间在该国观察到的六种叙述中的两种。• 不真实的行为对媒体环境构成威胁。网上信息不实传播是一种威胁,因为这样一来,亲克里姆林宫的信息就可以传达给那些本来不符合这些要求的人,而这些文本的大量传播可能会让人觉得亲克里姆林宫的观点占了多数。从亲西方的角度来看,主要威胁可能是传播事实不符的信息,这可以为亲克里姆林宫的演员提供弹药,让他们有理由将对俄罗斯的批评斥为谎言。