漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-22 talkingdev

VLM开源:增强AI对抗攻击的防御能力

近日,GitHub推出了一项新的方法,可以增强OpenFlamingo和LLaVA等多模型模型对视觉对抗攻击的防御能力。该方法通过无监督地微调CLIP视觉编码器,有效地保护这些模型免受恶意图像攻击,提高了它们在现实应用中的可靠...

Read More
2024-02-21 talkingdev

SpLiCE:让CLIP的视觉数据更易理解

新的SpLiCE方法使得CLIP的复杂视觉数据更易于理解。CLIP是一种先进的人工智能模型,它可以在不需要人工标注的情况下学习视觉概念。然而,由于CLIP的视觉数据非常复杂,很难解释和理解。SpLiCE通过使用可解释的特征来...

Read More
2024-02-19 talkingdev

论文:跨越多个受试者的脑电活动解码技术

研究人员引入了一种新的方法CLIP-MUSED,可以跨越不同个体解码脑电信号中的视觉信息。该方法结合了神经图像和机器学习技术,可以为研究人员提供更深入的理解不同个体之间的脑电活动差异。研究人员表示,该技术的应用...

Read More
2024-02-09 talkingdev

论文:改进CLIP提高图像分类效率

这篇论文重新审视了经典的高斯判别分析(GDA)算法,以改善CLIP在图像分类任务中的性能,而不需要额外的训练或资源。GDA算法通过增加一个基于贝叶斯公式的先验,实现了对输入向量的加权处理,从而有效地降低了噪声对...

Read More
2024-02-08 talkingdev

论文:CLIP模型使用全合成数据进行训练

由于LAION等大规模数据集的删除,以及版权问题,使得训练大规模图像模型变得具有挑战性。但是,这项工作表明,使用3000万个全合成的图像可以训练出强大的CLIP模型。

Read More
2024-01-10 talkingdev

结合CLIP和SAM以增强图像分割能力

本项目介绍了开放项目SAM,这是一个结合了CLIP和SAM模型的框架,用于提高图像分割和识别的能力。CLIP模型是一种基于对比学习的神经网络模型,用于学习图像和文字之间的关系,而SAM模型则是一种序列建模方法,用于对...

Read More
2024-01-09 talkingdev

用提示增强的视觉语言模型开源

这项项目介绍了一种方法,可以适应各种任务的类似CLIP的视觉语言模型,同时保留其泛化能力。该方法从LLM数据中学习提示,避免了需要标记图像的需求。

Read More
2023-12-25 talkingdev

CLIP-DINOiser,实现零样本语义分割

最近,研究人员提出了一种名为CLIP-DINOiser的新方法,它将CLIP模型的零样本能力与自监督特征相结合,从而实现了更好的语义分割,无需标注。CLIP-DINOiser方法使用了自监督任务DINO来学习图像特征,并将其与CLIP模型...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page