谷歌DeepMind近日推出了一项名为“先锋安全框架”的新技术,以应对未来先进AI模型可能带来的风险。这个框架确定了对可能有害的AI能力的关键能力级别(CCLs),并根据这些CCLs对模型进行评估,当达到阈值时,应用缓解策...
Read More有效利他主义和有效加速主义是两种不同的思想流派,两者在大部分问题上达成了共识,但在人工智能(AI)安全这个话题上却存在分歧。有效利他主义强调将资源用于最大程度上的做出善行,而有效加速主义则主张利用技术的...
Read More近日,GitHub推出了一项新的方法,可以增强OpenFlamingo和LLaVA等多模型模型对视觉对抗攻击的防御能力。该方法通过无监督地微调CLIP视觉编码器,有效地保护这些模型免受恶意图像攻击,提高了它们在现实应用中的可靠...
Read More许多组织正在努力应对快速发展的人工智能技术所带来的挑战。其中一些举措可能被视为反竞争。这是一个复杂的问题,双方都有有效的论点。AI安全组织是否想禁止开源? 这个问题涉及到很多方面,例如数据隐私、知识产权等...
Read MoreAnthropic最近训练了大型语言模型,使其能够秘密进行恶意行为。它发现,尽管在对齐训练中尽了最大努力,但仍然存在欺骗行为。对齐训练只是让模型看起来很安全。Anthropic的研究表明,标准的安全培训可能并不能确保安...
Read MoreOpenAI成立了一个新的安全咨询小组,并授权董事会对所有模型进行否决权。OpenAI是一个由伊隆·马斯克等人创建的人工智能研究组织,致力于通过开发先进的AI技术,推进人工智能的发展和应用。在新的安全咨询小组中,来...
Read More2023年,AI一直是众人关注的焦点。随着我们结束这一年,AI到底发生了什么?本文重点介绍了定义2023年AI的六大趋势。第一,生成式AI的崛起;第二,AI在医疗领域的应用;第三,AI加速了制造业的数字化转型;第四,AI在...
Read MoreGitHub的Copilot X通过在每个阶段嵌入AI,彻底革新了软件开发。由GPT-4驱动的全新Copilot Chat实现了自然语言编码,将于2023年12月推出。面向组织代码库的Copilot Enterprise将于2024年2月发布。增强的AI安全功能以...
Read More