最新发表在arXiv的研究论文指出,基于大语言模型(LLM)的安全评估系统存在显著脆弱性。研究表明,这类系统的评估可靠性极易受到提示词敏感性和对抗性攻击的影响。该发现对当前快速发展的AI安全评估领域具有重要警示意...
Read More随着AI代理和MCP服务器的广泛应用,其强大的能力背后潜藏着巨大的安全隐患。若缺乏严格的访问控制机制,这些技术工具可能演变为数据泄露和意外操作的高风险源头。WorkOS公司推出的AuthKit解决方案,正是针对这一行业...
Read MoreGitHub平台近日出现关于Anthropic公司AI助手Claude的系统提示词(system prompt)完整配置泄露事件。该文件显示Claude的系统提示词规模惊人,总长度超过24,000个token,并包含详细的工具调用配置。系统提示词作为大...
Read More网络安全公司HiddenLayer最新研究揭示了一种影响GPT-4、Claude、Gemini等主流大语言模型(LLM)的通用提示注入绕过技术,该发现暴露了当前LLM安全架构中的重大缺陷。这项被称为'策略木偶提示'(Policy Puppetry Prompt)...
Read MoreAI可解释性领域领军企业Goodfire近日宣布完成5000万美元A轮融资。该公司在稀疏自编码器(SAEs)等机械可解释性技术上具有深厚积累,致力于通过与闭源及开源模型提供方的深度合作,系统性地解析、引导和控制AI模型的...
Read More最新研究发现,当前广泛应用的CLIP(Contrastive Language-Image Pretraining)多模态模型存在严重的安全隐患。根据arXiv最新论文披露,攻击者通过数据投毒(poisoning)方式植入后门,仅需污染0.5%的训练数据即可实...
Read More最新研究揭示了现有防御有害微调攻击(Harmful Fine-Tuning Attacks)方法的脆弱性,并提出了一种名为Panacea的创新解决方案。该方案采用自适应扰动技术,在保持模型微调性能的同时有效维护模型安全性。这一突破性进...
Read More随着技术的进步,现代机器人变得越来越智能,能够执行JavaScript、存储cookies、轮换IP地址,甚至利用AI破解CAPTCHA。面对日益复杂的攻击手段,传统的检测方法已不足以应对。WorkOS Radar应运而生,成为一站式机器人...
Read More