漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-20 talkingdev

[论文推荐]LLM安全评估系统的鲁棒性研究揭示重大漏洞

最新发表在arXiv的研究论文指出,基于大语言模型(LLM)的安全评估系统存在显著脆弱性。研究表明,这类系统的评估可靠性极易受到提示词敏感性和对抗性攻击的影响。该发现对当前快速发展的AI安全评估领域具有重要警示意...

Read More
2025-05-13 talkingdev

失控的AI代理存在风险:如何通过WorkOS AuthKit实现安全访问控制

随着AI代理和MCP服务器的广泛应用,其强大的能力背后潜藏着巨大的安全隐患。若缺乏严格的访问控制机制,这些技术工具可能演变为数据泄露和意外操作的高风险源头。WorkOS公司推出的AuthKit解决方案,正是针对这一行业...

Read More
2025-05-06 talkingdev

Claude系统提示词泄露:超2.4万token的AI工具配置曝光

GitHub平台近日出现关于Anthropic公司AI助手Claude的系统提示词(system prompt)完整配置泄露事件。该文件显示Claude的系统提示词规模惊人,总长度超过24,000个token,并包含详细的工具调用配置。系统提示词作为大...

Read More
2025-04-25 talkingdev

重大安全漏洞曝光:HiddenLayer发现影响GPT-4等主流大语言模型的通用提示注入绕过技术

网络安全公司HiddenLayer最新研究揭示了一种影响GPT-4、Claude、Gemini等主流大语言模型(LLM)的通用提示注入绕过技术,该发现暴露了当前LLM安全架构中的重大缺陷。这项被称为'策略木偶提示'(Policy Puppetry Prompt)...

Read More
2025-04-18 talkingdev

Goodfire完成5000万美元A轮融资,专注AI模型可解释性与行为控制研究

AI可解释性领域领军企业Goodfire近日宣布完成5000万美元A轮融资。该公司在稀疏自编码器(SAEs)等机械可解释性技术上具有深厚积累,致力于通过与闭源及开源模型提供方的深度合作,系统性地解析、引导和控制AI模型的...

Read More
2025-04-04 talkingdev

[论文推荐]CLIP模型存在后门攻击漏洞:仅需少量数据即可实现近100%攻击成功率

最新研究发现,当前广泛应用的CLIP(Contrastive Language-Image Pretraining)多模态模型存在严重的安全隐患。根据arXiv最新论文披露,攻击者通过数据投毒(poisoning)方式植入后门,仅需污染0.5%的训练数据即可实...

Read More
2025-03-31 talkingdev

[论文推荐]研究人员提出Panacea方法:防御有害微调攻击的新型自适应扰动技术

最新研究揭示了现有防御有害微调攻击(Harmful Fine-Tuning Attacks)方法的脆弱性,并提出了一种名为Panacea的创新解决方案。该方案采用自适应扰动技术,在保持模型微调性能的同时有效维护模型安全性。这一突破性进...

Read More
2025-03-04 talkingdev

如何保护你的AI应用免受智能机器人攻击

随着技术的进步,现代机器人变得越来越智能,能够执行JavaScript、存储cookies、轮换IP地址,甚至利用AI破解CAPTCHA。面对日益复杂的攻击手段,传统的检测方法已不足以应对。WorkOS Radar应运而生,成为一站式机器人...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page