在人工智能领域,通用大模型(LLMs)虽然功能强大,但对于特定任务而言,其庞大的计算资源消耗和较高的成本并不总是最优选择。为此,Fastino公司推出了专精任务的语言模型(TLMs),旨在为特定任务提供更高效、更精...
Read MoreGitHub最新开源项目展示了一种针对Qwen2.5B大语言模型的创新微调方案,该方案采用SFT(监督微调)结合GRPO(梯度反向传播优化)的混合训练框架,其技术路线受到DeepSeek R1架构启发,并针对AWS云平台进行了专项优化...
Read More人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...
Read MoreNous Research近期推出的Psyche网络是一个基于Solana区块链的分布式训练系统,该系统允许拥有兼容硬件的用户自愿贡献其GPU资源用于AI模型训练。该项目的首个计划"Consilience"旨在利用20万亿个token训练一个拥有400...
Read More人工智能平台Hugging Face近日发布了一项突破性的语音转录服务——Whisper极速端点(Fast Whisper Endpoint)。这项创新技术通过优化模型架构和计算资源分配,实现了高达8倍的转录速度提升,为语音处理领域树立了新的...
Read More苹果公司近日在GitHub开源了CVPR 2025论文《FastVLM: Efficient Vision Encoding for Vision Language Models》的官方实现代码库。该项目提出了一种高效的视觉编码方法,旨在优化视觉语言模型(VLM)中的视觉信息处...
Read MoreOsmosis是一个通过实时强化学习技术实现人工智能自我优化的创新平台。该团队最新开源了一款轻量级模型,在多约束规划(MCP)任务中表现媲美当前最先进(SOTA)水平。这一突破性进展的亮点在于模型的高效性——它可以在本地...
Read More研究人员最新提出了一种基于LoRA(低秩适应)的微调方法,专门针对代码搜索任务进行优化。该方法通过低秩矩阵分解技术,将可训练参数总量压缩至原始模型的2%以下,同时显著提升了代码检索的准确率——在Code2Code任务...
Read More