漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-21 talkingdev

Fastino推出TLMs:专精任务的语言模型,性能超越LLMs

在人工智能领域,通用大模型(LLMs)虽然功能强大,但对于特定任务而言,其庞大的计算资源消耗和较高的成本并不总是最优选择。为此,Fastino公司推出了专精任务的语言模型(TLMs),旨在为特定任务提供更高效、更精...

Read More
2025-05-20 talkingdev

[开源]基于AWS低成本微调Qwen2.5B模型实现推理能力突破

GitHub最新开源项目展示了一种针对Qwen2.5B大语言模型的创新微调方案,该方案采用SFT(监督微调)结合GRPO(梯度反向传播优化)的混合训练框架,其技术路线受到DeepSeek R1架构启发,并针对AWS云平台进行了专项优化...

Read More
2025-05-19 talkingdev

ParScale开源LLM扩展范式-训练与推理并行计算

人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...

Read More
2025-05-16 talkingdev

Nous Research推出Psyche网络:利用闲置GPU资源进行分布式AI训练

Nous Research近期推出的Psyche网络是一个基于Solana区块链的分布式训练系统,该系统允许拥有兼容硬件的用户自愿贡献其GPU资源用于AI模型训练。该项目的首个计划"Consilience"旨在利用20万亿个token训练一个拥有400...

Read More
2025-05-14 talkingdev

HF推出Whisper极速转录服务,速度提升8倍

人工智能平台Hugging Face近日发布了一项突破性的语音转录服务——Whisper极速端点(Fast Whisper Endpoint)。这项创新技术通过优化模型架构和计算资源分配,实现了高达8倍的转录速度提升,为语音处理领域树立了新的...

Read More
2025-05-12 talkingdev

[开源]FastVLM:苹果发布高效视觉语言模型视觉编码方案,CVPR 2025论文实现

苹果公司近日在GitHub开源了CVPR 2025论文《FastVLM: Efficient Vision Encoding for Vision Language Models》的官方实现代码库。该项目提出了一种高效的视觉编码方法,旨在优化视觉语言模型(VLM)中的视觉信息处...

Read More
2025-05-09 talkingdev

Osmosis平台通过实时强化学习实现AI自我优化

Osmosis是一个通过实时强化学习技术实现人工智能自我优化的创新平台。该团队最新开源了一款轻量级模型,在多约束规划(MCP)任务中表现媲美当前最先进(SOTA)水平。这一突破性进展的亮点在于模型的高效性——它可以在本地...

Read More
2025-05-08 talkingdev

[论文推荐]基于LoRA的代码检索方法:参数减少98%准确率提升9.1%

研究人员最新提出了一种基于LoRA(低秩适应)的微调方法,专门针对代码搜索任务进行优化。该方法通过低秩矩阵分解技术,将可训练参数总量压缩至原始模型的2%以下,同时显著提升了代码检索的准确率——在Code2Code任务...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page