漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-16 talkingdev

LAPT自动化异常值检测:提高视觉语言模型的表现

近日,研究人员提出了一种新的方法——标签驱动的自动提示调整(LAPT),用于视觉语言模型如CLIP的异常值检测。这种新方法可以自动识别出数据集中的异常值,提高模型在处理各种情况时的灵活性和准确性。通过LAPT,可以更...

Read More
2024-06-27 talkingdev

玩具反斗城携手AI技术,打造首支Sora文本到视频广告片

玩具反斗城(Toys “R” Us)与广告代理Native Foreign合作,利用OpenAI的文本到视频工具Sora,创作了一部品牌影片。这部影片通过AI生成的视频片段,讲述了公司创始人的故事。Sora自2月份推出以来,尚未对公众开放。该...

Read More
2024-06-19 talkingdev

多视图图像赋能3D表征学习:Duoduo CLIP模型发布

近日,一款名为Duoduo CLIP的3D表征学习模型引起了业界的广泛关注。与传统的3D表征学习模型不同,Duoduo CLIP采用多视图图像,而非点云数据作为输入。这种独特的设计,使得Duoduo CLIP在3D表征学习的效果上,可能会...

Read More
2024-06-04 talkingdev

PPAD:基于CLIP的胸部X光异常检测研究

该研究探讨了如何利用CLIP(Contrastive Language-Image Pre-training)方法进行胸部X光片的异常检测。CLIP是一种新兴的多模态学习方法,它通过对图像和文本的联合训练,实现了在多个任务中的优异表现。在本研究中,...

Read More
2024-05-02 talkingdev

论文:CLIP预训练的Mamba模型,零样本图像分类的新标杆

近日,一个全新的Mamba模型引起了工业界的广泛关注。该模型通过使用对比性语言-图像预训练(CLIP)的方式进行训练,展现出在零样本图像分类任务上的出色效率和性能。据了解,零样本分类任务一直是计算机视觉领域的一个...

Read More
2024-03-29 talkingdev

3D医学成像数据集与AI框架CT-CLIP开源

CT-RATE是一个将3D医学成像与文本报告相结合的数据集,旨在提供更丰富的医学影像信息。与此同时,CT-CLIP作为一个多功能的人工智能框架,已经针对这些图像进行了优化处理。该框架能够更好地理解和分析医学成像数据,...

Read More
2024-03-22 talkingdev

医疗异常检测新突破:CLIP模型的创新应用

近期,一项新项目在GitHub上发布,该框架通过结合多级残差适配器和视觉-语言对齐损失函数,将CLIP模型重新应用于医疗异常检测。CLIP模型原本是由OpenAI开发的一种多模态预训练模型,能够理解图像和文本之间的关系。...

Read More
2024-03-07 talkingdev

MobileClip:快速文本和图像生成模型

MobileClip是一个快速的文本和图像模型,与OpenAI的原始CLIP模型性能相同,但运行速度提高了7倍。它可以在设备上用于各种视觉和语言任务。

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page