漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-27 talkingdev

论文:DeepMind通过联合样本选择进行数据策划,进一步加速多模态学习

在预训练中,如何积极选择下一批最好的样本是一个挑战性和开放性的问题。DeepMind的这项工作探索了如何只花费10%的浮点运算和硬挖掘负样本,仍然能匹配各种任务的最新技术。在这个过程中,他们采用了一种名为“联合样...

Read More
2024-06-06 talkingdev

GenS:从多视图图像中重建3D表面模型开源

GenS是一款端到端的通用神经表面重建模型,能够在没有3D监督的情况下,从多视图图像中出色地重建表面。与传统的表面重建方法相比,GenS在处理复杂的几何形状和纹理细节方面表现尤为突出。这一模型不仅提高了重建的精...

Read More
2024-06-03 talkingdev

muP:提升稀疏模型训练性能的革命性工具

muP 是一种被所有前沿模型实验室广泛使用的强大工具,用于将小模型上调优的超参数转移到更大、更昂贵的训练任务中。本文探讨了如何将这种技术应用于稀疏模型,从而显著提升训练性能,同时降低计算成本。通过muP,研...

Read More
2024-05-31 talkingdev

论文:Yuan 2.0-M32,具备注意力路由的MOE专家混合模型

Yuan 2.0-M32是一款具备40亿参数的专家混合模型,其中任意时刻仅有3.7亿参数处于激活状态。尽管其计算需求仅为Llama 3 70B的1/19,但其性能却接近后者。该模型在2万亿个token上进行了训练,展现出了令人惊讶的强大性...

Read More
2024-05-28 talkingdev

Llama 3-V: 用价值500美元和100倍小的模型匹配GPT4-V

近日,计算机科学家们推出了一款名为Llama 3-V的新型人工智能模型,其与GPT4-V性能相当,但模型大小只有GPT4-V的1/100。与GPT4-V的高昂价格相比,Llama 3-V仅需500美元即可获得。这款新型模型可以应用于自然语言处理...

Read More
2024-05-27 talkingdev

LoRA-Ensemble:提升自注意力网络的预测精度

LoRA-Ensemble是一种面向自注意力网络的参数高效深度集成方法。该技术扩展了低秩适配(LoRA)的应用,通过隐式集成实现了在不增加传统集成方法高计算成本的情况下,仍能做出准确且校准良好的预测。这种方法不仅在精...

Read More
2024-05-24 talkingdev

论文:GLSCL提升文本视频检索效率

研究人员开发了一种新的方法——全局-局部语义一致学习(Global-Local Semantic Consistent Learning,简称GLSCL),以提升文本视频检索的效率。这一创新方法不仅提高了检索的准确性,还显著降低了计算成本。GLSCL通过...

Read More
2024-05-21 talkingdev

LeMeViT:通过可学习元令牌加速视觉Transformer

LeMeViT是一种新的方法,通过使用可学习元令牌来降低视觉Transformer的计算成本。这些元令牌能够高效地捕捉关键信息,从而显著提高推理速度。与传统的视觉Transformer相比,LeMeViT在保持高精度的同时,大幅减少了计...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page