研究人员创建了一个用于数据安全的LLM

博士德克萨斯A&M大学计算机科学与工程系的研究人员Marcus Botacin为网络安全性开发了一种专业的LLM(语言模型),以应对攻击者将AI用作聊天以大规模创建恶意代码的威胁。他的目标是通过[…]邮政研究人员创建的用于数据安全的LLM首先对AI新闻提起诉讼的研究人员。

来源:AI新闻
博士德克萨斯A&M大学计算机科学与工程系的研究人员Marcus Botacin为网络安全性开发了一种专业的LLM(语言模型),以应对攻击者将AI用作聊天以大规模创建恶意代码的威胁。他的目标是通过创建可以在笔记本电脑上运行的较小,安全的Chatgpt版本来对抗这些威胁。该模型将通过签名自动识别恶意代码,并实时编写防御规则,该规则可以补充人类分析师的工作而无需更换网络安全工具的可访问性:使用基于AI的解决方案,安全性措施可能会更易于使用,包括更广泛的受众,包括那些可能没有深度技术背景的人。对话界面可以简化复杂的安全流程,并使用户更容易理解其网络安全位置以及在摘要中需要采取哪些措施。该工具不仅有助于威胁识别和答案,还可以使对重要安全知识和实践的访问权限,从而改善了不同部门的整体安全措施,您可以在此处访问原始文章。

改进了网络安全工具的可访问性:通过使用基于AI的解决方案(例如ChatGpt),安全措施可以更容易被更广泛的受众访问,包括那些可能没有深厚技术背景的受众。对话界面可以简化复杂的安全流程,并使用户更容易理解其网络安全位置以及需要采取哪些措施来改进它。

原始文章在这里。