漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-22 talkingdev

MoME-提升多模态语言模型性能的新方法

研究人员提出了一种名为“多模态专家混合体” (MoME) 的方法,以解决通用的多模态大型语言模型(MLLMs)中的任务干扰问题。在多模态大型语言模型中,任务干扰是一个常见的问题,它可能会影响模型的性能和效率。MoME的提...

Read More
2024-07-22 talkingdev

苹果发布与Mistral竞争的7B参数模型

苹果公司最近公开了其最新的7B参数模型的所有内容,包括代码和数据。这个模型与Mistral相比具有竞争力。该模型是通过深度学习和机器学习的技术进行训练和开发的,其性能和效果显示出了苹果在人工智能领域的强大实力...

Read More
2024-07-22 talkingdev

论文:词汇规模的扩展定律新研究

根据最新的研究,更大规模的模型需要更大的词汇表。这项研究探讨了词汇规模的扩展定律,揭示了模型规模和词汇大小之间的关系。随着模型规模的增大,词汇表的规模也需要相应扩大。这是因为大型模型需要处理更多的情境...

Read More
2024-07-19 talkingdev

E5-V开源-全球多模态嵌入与LLMs

E5-V是一种新的框架,其改编了多模态大型语言模型(MLLMs)以创建全球多模态嵌入。通过使用提示,它弥补了不同输入类型之间的差距,而无需进行微调就实现了在多模态任务中的令人印象深刻的性能。这一全球多模态嵌入...

Read More
2024-07-19 talkingdev

论文:补丁级别训练技术提高LLMs的效率

研究人员提出了针对大型语言模型(LLMs)的补丁级别训练,以提高训练效率。补丁级别训练是一种新的技术,目的是优化大型语言模型的处理能力。这种方法通过在训练过程中引入更精细的补丁级别,提高了模型的训练效率,...

Read More
2024-07-19 talkingdev

论文:创新方法RECE,从扩散模型中快速移除不适当内容

近日,一种名为“可靠且高效的概念擦除”(Reliable and Efficient Concept Erasure,简称RECE)的新型方法引起了人们的广泛关注。这种方法可以在仅需3秒的时间内,将不适当的内容从扩散模型中擦除,而无需额外的精细...

Read More
2024-07-19 talkingdev

OpenAI推出新款小型模型GPT-4o Mini,颠覆GPT-3.5

OpenAI近日推出了一款新型小型模型——GPT-4o Mini,目标是替代现有的GPT-3.5模型。GPT-4o Mini在MMLU(Mixed Multi-Level Understanding)上的得分为82,这对于低成本模型来说是相当合理的表现。OpenAI一直致力于开发...

Read More
2024-07-19 talkingdev

Mistral与Nvidia全新多语言模型Nemo 12B震撼发布

Mistral公司与Nvidia携手研发的全新多语言模型Nemo 12B已经正式发布。这款模型采用了全新的分词器进行训练,展现出了强大的多语言和英语处理能力。值得一提的是,Nemo 12B还支持128k的上下文。这种强大的性能,无疑...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page