代码托管平台GitHub近期推出了一项名为code-scanning autofix的测试功能,该功能结合了GitHub Copilot和CodeQL技术,旨在检测并自动修复JavaScript、TypeScript、Java和Python等编程语言中的安全漏洞。这一创新工具...
Read More像Claude这样的大型语言模型(LLMs)能够为解析代码生成有效的模糊测试工具,这一过程传统上需要大量的人力投入。尽管LLMs通常在精确度上不足以进行静态分析,但它们似乎非常适合创建模糊测试工具,因为模糊测试的随机...
Read More据报道,OpenAI计划在进行漏洞测试和设置安全防护措施后,于今年晚些时候公开发布其文本到视频模型Sora。Sora是一种能够将自然语言描述转化为视频的模型,这项技术在影视制作和游戏开发中有着广泛的应用前景。OpenAI...
Read MoreGoogle最近开展了LLM bugSWAT活动,邀请黑客们在其人工智能系统中寻找安全漏洞。参赛选手Joseph “REZ0” Thacker、Justin “RHYNORATER” Gardner和Roni “LUPIN” Carta在Google的AI功能中发现了漏洞,包括利用GraphQL端...
Read MoreC语言有界模型检查器是一种非常有用的工具,但是在实际应用中却被严重低估。该工具可以帮助开发人员在代码编写过程中发现并解决一些常见的编程错误,例如数组越界、空指针引用等。这些错误在实际应用中可能会导致程...
Read More近日,一种33B参数的网络安全语言模型发布,该模型同时具备进攻性和防御性。这是一种通用编码模型,可以协助网络安全任务。这意味着,您可以使用它来保护您的网络,并学习如何防范不同的黑客攻击和漏洞。该模型的发...
Read More一份在GitHub上公布的AI应用程序漏洞列表显示,已经发现并负责任地披露了多个AI应用程序的漏洞。这些漏洞包括机器学习模型中的数据泄露、对抗性攻击和针对自然语言处理模型的攻击等。该列表旨在帮助AI开发人员和研究...
Read More近日,一份名为AI Exploits的GitHub仓库发布,其中包含了一系列真实世界中的AI/ML漏洞利用案例,以帮助人们更好地了解和防范这些漏洞。这个项目的目标是通过公开这些案例来增加人们对AI/ML漏洞的认识,同时也希望能...
Read More