人工智能领域迎来重要技术突破,Perplexity公司近日在GitHub开源了其混合专家系统(MoE)的核心计算库Pplx Cuda Kernels。这套基于CUDA的高性能计算内核在实际测试中展现出显著优势,在大规模运算场景下性能超越知名AI...
Read More加州大学圣克鲁兹分校视觉、语言与行为实验室(VLAA)在GitHub开源了MedReason项目,这是一个专为提升大语言模型(LLM)医疗推理能力构建的大规模数据集。该数据集通过结构化临床案例、医学知识图谱和多模态数据,旨...
Read More腾讯ARC实验室最新发布的SEED-Bench-R1基准测试,为多模态大语言模型(MLLM)在复杂视频任务中的表现提供了系统评估框架。该研究重点关注强化学习(RL)和监督微调(SFT)等后训练方法,揭示了RL在视觉感知任务和数...
Read More最新发表在arXiv的论文提出了一种创新的模型融合技术,能够从大型语言模型(LLM)中精准移除敏感内容,同时保持模型的通用知识能力。这项突破性研究通过参数空间分析,识别并分离与敏感信息相关的神经网络连接,实现了...
Read More近日,Continue (YC S23)正式发布了一款创新产品——支持用户创建定制化AI代码助手的平台。该平台旨在通过灵活的配置和强大的AI能力,帮助开发者根据自身需求打造专属的编程助手,从而提升开发效率。Continue的核心技...
Read More随着人工智能技术的飞速发展,大型语言模型(LLM)的复杂性和能力不断提升,但其内部决策过程仍被视为“黑箱”。近日,研究人员通过先进的追踪技术,成功揭示了LLM在生成文本时的思维路径。这一突破不仅有助于提升模型...
Read More随着AI技术的快速发展,agentic coding正逐渐成为软件开发领域的新趋势。在这一过程中,开发者的技能水平显得尤为重要。agentic coding不仅要求开发者具备传统的编程能力,还需要他们熟悉LLM、embedding等先进技术,...
Read MoreLLaVA-MORE 是一项关于多模态大语言模型(Multimodal Large Language Models, MLLMs)的系统性研究,旨在评估不同语言模型和视觉骨干网络在 MLLMs 中的表现,并提供一个可复现的框架来比较这些架构。通过该研究,研...
Read More