fuleeca是基于Lee-Metric代码的第一个签名方案,并在CBCRYPTO 2023 [4]中介绍。此外,富丽卡(Fuleeca)被提交给数字签名的其他呼吁,NIST在2022年宣布了其三轮量子后加密术的第一个标准化项目,导致了使用的安全原始人的多样性很小。即使Fuleeca是基于代码的,我们也表明它与已知的晶格方案(例如Ntrusign)密切相关。此接近度使我们能够安装多个键恢复攻击,这些键攻击从基于晶格的加密术中利用技术,并为所有提出的参数集完全打破系统。元素x∈Fp的Lee重量可以定义为wt l(x):= | X | ,如果我们用集合 - p - 1
创建一条关于我即将在卡内基梅隆大学(CMU,匹兹堡)发表的演讲的热门推文,标题为“大型语言模型的水印”。主题包括水印、检测人工智能生成的文本、保护模型的版权。尽量让它风趣幽默。
在对创新的不懈追求中,应用程序正在利用人工智能 (AI) 和机器学习 (ML) 的卓越功能。这些技术有望带来变革性进步,从智能推荐系统到用于精确数据分析的聊天机器人。但这些系统也可能引入可被恶意行为者利用的漏洞。随着人工智能和机器学习在我们的数字生态系统中变得不可或缺,了解它们可能带来的风险和攻击至关重要。本文开始探索这些不断演变的风险的复杂性,揭示与人工智能/机器学习相关的漏洞背后的机制。通过了解这些,组织可以加强防御,确保在防范潜在危险的同时接受人工智能/机器学习技术的承诺
1,2 学生,Sastra Deemed 大学 摘要 本研究论文旨在全面研究网络间谍活动,即通过数字手段秘密获取机密信息,已成为现代互联技术时代的一个关键威胁。数据泄露的目的仅仅是通过泄露受害者的私人信息来损害受害者的声誉。人工智能在网络安全数据保护中起着至关重要的作用。它有可能增强我们的网络防御。但是,像所有其他强大的工具一样,人工智能也可能是一把双刃剑。它是加强我们安全的关键,同时也释放了一种新的网络威胁。在这个现代时代,人工智能的使用针对的是国家的战略、经济、政治和国家利益。因此,本文的作者主要分析了对敏感在线数据库的网络威胁、各国在数字安全和隐私受到侵犯时保护其公民的法律义务、印度监管框架的有效性、可以实施的遏制这些威胁的省级措施以及国际谴责对遏制此类威胁的影响。关键词:网络间谍、人工智能、网络威胁、双刃剑、竞争优势。背景:网络间谍是一种隐蔽活动,旨在从个人、组织、利益相关者或政府那里获取敏感信息,如今,随着其向数字世界的扩展,网络间谍已成为全球主要威胁。传统上,间谍相关活动始于手动黑客技术,例如利用软件漏洞、社会工程或复杂的网络入侵。随着人工智能 (AI) 的出现和发展,它慢慢改变了网络间谍活动的格局,带来了新的机遇和风险。1 人工智能与网络安全的整合和结合为更先进的技术开展间谍活动打开了新的大门,同时也提高了各种防御机制的能力。人工智能在自动化任务方面具有无与伦比的优势,这些任务在某个时间点被认为是繁琐或繁重的,例如扫描和分析大量数据集以及识别各种威胁漏洞等活动。先进的机器学习算法现在能够检测网络行为中的模式,这些模式可能表明存在可利用的弱点或有价值的
摘要 — 在本文中,我们提出了一个正式的理论框架,用于评估和分析针对通用人工智能 (AI) 系统的两类恶意行为。我们的结果适用于从输入空间映射到决策空间的通用多类分类器,包括深度学习应用中使用的人工神经网络。考虑两类攻击。第一类涉及对抗性示例,涉及引入导致错误分类的输入数据的小扰动。第二类是首次引入的,称为隐形攻击,涉及对 AI 系统本身的小扰动。在这里,受扰动的系统会在特定的小数据集(甚至可能是单个输入)上产生攻击者想要的任何输出,但在验证集(攻击者不知道)上表现正常。我们表明,在两种情况下,即在基于对抗性示例的攻击和隐形攻击的情况下,人工智能决策空间的维数是人工智能易受攻击的主要原因。对于基于对抗性示例的攻击,第二个关键参数是数据概率分布中不存在局部集中,这一属性称为“弥散绝对连续性”。根据我们的研究结果,对抗性示例的鲁棒性要求 (a) 人工智能特征空间中的数据分布具有集中的概率密度函数,或 (b) 人工智能决策变量的维数足够小。我们还展示了如何构建对高维人工智能系统的隐形攻击,除非验证集呈指数级增长,否则很难发现这些攻击。索引术语 — 对抗性示例、对抗性攻击、随机分离定理、人工智能、机器学习
媒体自由组织记录了全球被监禁记者的创纪录数量。据保护记者委员会 (CPJ) 统计,截至 2022 年底,有 363 人被监禁,而使用不同方法的记者无国界组织记录的人数为 533 人。虽然只有少数国家监禁大量记者,但法律攻击无处不在,包括在世界主要民主国家。这些威胁从简单的骚扰到“法律战”——旨在扼杀批判性报道和压制基本权利的系统性法律行动。在许多情况下,政府本身利用法律制度破坏新闻界的工作,但私人行为者——包括政客、商人、名人,甚至犯罪组织的所谓领导人——也找到了创造性的方式将法律作为棍棒。
摘要 — 我们考虑一个依赖于在欺骗者存在的情况下运行的飞机的航空自组织网络。如果合法飞机发送信号并且没有欺骗攻击,则地面基站接收到的聚合信号被视为“干净”或“正常”。相反,面对欺骗信号,接收信号被视为“虚假”或“异常”。自动编码器 (AE) 经过训练以从训练数据集中学习特征/特性,该训练数据集仅包含与没有欺骗攻击相关的正常样本。AE 将原始样本作为其输入样本并在其输出中重建它们。基于训练后的 AE,我们定义了欺骗发现算法的检测阈值。更具体地说,将 AE 的输出与其输入进行对比,将为我们提供曲线峰值方面的几何波形相似性/不相似性的度量。为了量化未知测试样本与给定训练样本(包括正常样本)之间的相似性,我们首先提出一种所谓的基于偏差的算法。此外,我们估计每架合法飞机的到达角(AoA),并提出一种所谓的基于 AoA 的算法。然后,基于这两种算法的复杂融合,我们形成了最终的检测算法,用于在严格的测试条件下区分虚假异常样本和正常样本。总之,我们的数值结果表明,只要仔细选择检测阈值,AE 就可以改善正确的欺骗检测率和误报率之间的权衡。
简介由于消费者在公用事业网络和电表后部署了新技术,电网正在经历快速转型。其中许多技术产生和传输大量数据,并通过基于网络的通信越来越多地连接到电网运营中心。电网和客户设备之间日益增长的连接增加了网络安全漏洞,并通过扩大可以发起恶意网络攻击的潜在切入点数量扩大了威胁格局。2019 年对公用事业安全专业人员的调查显示,对公用事业系统的攻击频率和效力正在增加,其中 56% 的人在过去一年中至少经历过一次攻击,导致数据丢失或中断。1
摘要:生理计算将人类生理数据实时用作系统输入。它包括或与脑部计算机界面,有效的计算,自适应自动化,健康信息学和生理学基础生物识别的重叠或重叠。生理计算增加了从用户到计算机的通信带宽,但也受到各种类型的对抗攻击,攻击者故意操纵培训和 /或测试示例,以劫持机器学习算法的输出,从而导致可能的用户混淆,挫败感,受伤,甚至死亡。但是,生理计算系统的脆弱性尚未得到足够的关注,并且对他们的对抗性攻击没有全面的评论。这项研究通过对生理计算的主要研究领域,不同类型的对抗性攻击及其对生理综合的应用以及相应的防御策略提供了系统的综述。我们希望这篇评论将吸引有关生理计算系统脆弱性的更多研究兴趣,更重要的是,防御策略使其更安全。
模型提取(ME)攻击是对机器学习 - 服务(MLAAS)平台的一个主要威胁,通过查询Black-Box API,“窃取”机密机器学习模型的功能。自从我的攻击中首先在开创性工作中概念化[75]以来,已经过去了七年。在此期间,在ME攻击和MLAAS平台上都取得了重大进步,提出了一个有趣的问题:MLAAS平台对我的攻击的脆弱性如何发展?在这项工作中,我们进行了一项深入的研究,以回答这个关键问题。具体来说,我们表征了当前主流MLAAS平台的脆弱性,这些脆弱性来自我的多个观众攻击,包括攻击策略,学习技巧,替代模型设计和基准测试任务。我们的许多发现挑战了先前报道的结果,这表明我脆弱的新兴模式。此外,通过使用过去四年来的历史数据集分析相同的MLAA平台的脆弱性,我们回顾性地表征了我随着时间的流逝的脆弱性演变,从而导致了一系列有趣的发现。最后,我们提出了有关改善攻击鲁棒性的MLAA当前实践的建议。我们的研究阐明了我野外脆弱性的当前状态,并指出了未来研究的几个有希望的方向。