最新研究表明,通过延长思维链推理过程(Extended chain-of-thought reasoning),大型语言模型(LLMs)能够显著提升其置信度校准能力。这项发表在arXiv预印本平台的研究(编号2505.14489v1)揭示了传统即时响应模式...
Read More最新研究表明,大型语言模型在自然语言处理方面展现出强大的视觉缺陷推理能力,但在将这些高层次洞察转化为精确的像素级操作时仍面临挑战。这些模型在受限于明确、界定清晰的维度时表现优异,但当需要平衡抽象美学判...
Read MoreDeepSeek研究团队以DeepSeek-V3为案例,分享了大型语言模型(LLM)训练中的硬件-模型协同设计创新成果。该研究通过多头部潜在注意力机制(Multi-head Latent Attention)、专家混合系统(Mixture of Experts)、FP8...
Read More人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...
Read More最新发表在arXiv的研究论文揭示,Anthropic公司开发的Claude 3.5 Sonnet大型语言模型在说服力测试中展现出超越人类的表现。在严格控制的人机对比实验中,当双方都试图影响参与者回答测验问题时,Claude模型取得了7.6...
Read More最新理论框架将人工智能划分为三个核心认知维度:工具、代理和模拟器。作为工具时,AI严格遵循人类指令延伸能力边界;代理形态下则具备自主目标追求能力;而模拟器模式专精于无特定目标的流程仿真。研究表明,大型语...
Read MoreGitHub用户marv1nnnnn近日发布了一个名为llm-min.txt的开源项目,该项目采用Min.js风格的压缩技术,专门针对技术文档进行优化,以适应大型语言模型(LLM)的上下文处理需求。这一创新方法不仅显著减少了文档的体积,...
Read More近日,一篇关于大型语言模型(LLM)智能体循环结合工具使用的文章引发了广泛讨论。该文章探讨了LLM智能体在循环过程中如何有效利用外部工具,从而显著提升其性能和实用性。这一技术突破不仅展示了LLM在实际应用中的...
Read More