苹果公司在人工智能系统中应用“Up captioning”技术来提高训练时的标签质量。该公司将此技术应用于预训练中,通过将C4重述为问题/答案对、指令等,加快了模型的收敛速度10倍,使模型的样本效率显著提高。但这也会增加...
Read MoreDepth Anything是一种新的单目深度估计方法,它依赖于约6200万张图像的大规模数据集来提高其精度。通过使用数据增强和预训练编码器的辅助监督,该模型实现了令人印象深刻的泛化能力,并在深度估计方面树立了新的标准...
Read More针对图像-文本训练中使用的视觉基础模型,研究人员提出了一种名为ViSFT的新方法,以提高其性能。ViSFT使用类似于语言模型中的微调的两阶段过程来增强视觉基础模型。首先,该模型使用大规模的无监督预训练来学习图像...
Read More本文探讨了当前主流的预训练语言模型加入多模态功能的范式。即,在编码器和文本模型之间对齐嵌入。该方法能够让语言模型更好地理解来自视觉和听觉等多个模态的信息,从而提高其自然语言处理的能力。近年来,语言模型...
Read More该项目提出了对比优化策略(CPO),以提高机器翻译中中等规模语言模型的性能。将该方法应用于13B参数ALMA模型,解决了监督微调的局限性,并取得了改进。CPO策略通过对模型的预训练进行增量式微调,有助于提高机器翻译...
Read More本文探讨了开发自动驾驶汽车视觉基础模型(VFMs)所面临的挑战。通过分析超过250篇研究论文,它提供了有关数据准备,预训练和AI任务适应的见解,重点介绍了NeRF和3D高斯点渲染等前沿技术。
Read More苹果公司发布了一篇关于用自回归损失预训练图像模型的论文。它测量了扩展行为,并发现像语言一样,这些大规模无监督的图像模型具有非常可预测的行为。这项技术为图像识别和计算机视觉领域的研究提供了新的思路和方法...
Read More