研究人员提出了一种名为“多模态专家混合体” (MoME) 的方法,以解决通用的多模态大型语言模型(MLLMs)中的任务干扰问题。在多模态大型语言模型中,任务干扰是一个常见的问题,它可能会影响模型的性能和效率。MoME的提...
Read MoreGitHub近日发布了一款命令行实用工具——LLM2sh。这项工具的主要功能在于利用LLMs技术,将用户的普通语言请求转化为shell命令。通过LLM2sh,用户可以用日常语言来控制和指导计算机操作,提升了命令行的便利性和亲和力...
Read MoreE5-V是一种新的框架,其改编了多模态大型语言模型(MLLMs)以创建全球多模态嵌入。通过使用提示,它弥补了不同输入类型之间的差距,而无需进行微调就实现了在多模态任务中的令人印象深刻的性能。这一全球多模态嵌入...
Read More研究人员提出了针对大型语言模型(LLMs)的补丁级别训练,以提高训练效率。补丁级别训练是一种新的技术,目的是优化大型语言模型的处理能力。这种方法通过在训练过程中引入更精细的补丁级别,提高了模型的训练效率,...
Read More近日,一种名为解耦拒绝训练(DeRTa)的新方法被提出,这种新方法通过解决拒绝位置偏差问题,进一步提高了大型语言模型(LLMs)的安全性调优效果。LLMs在各类应用场景中起着重要作用,安全性问题也因此变得尤为重要...
Read More科技巨头们正在将注意力从大型语言模型转移到更有效的小型语言模型(SLMs),苹果和微软引入的模型具有明显较少的参数,但在基准测试中的性能却相当甚至超越了大型语言模型。OpenAI的CEO建议,我们正在超越LLMs的时...
Read MoreLLM雷达是一款免费的工具,它可以扫描新的LLM并直接发送到你的邮箱,让你在AI游戏中无需任何努力就能领先。这款产品的主要目标是帮助用户在快速发展且竞争激烈的人工智能领域中保持领先地位。使用LLM雷达,你可以接...
Read More苹果正在对其人工智能(AI)进行细分处理,区分出'上下文'和'世界'模型。其中,像ChatGPT这样的'世界'模型,被用于处理开放式查询,但没有个人上下文。OpenAI的地位并不稳固,因为在大语言模型(LLMs)中缺乏防御壁...
Read More