漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-05 talkingdev

谷歌推出开源AI模型SpeciesNet,助力生物多样性监测

谷歌近日发布了开源AI模型SpeciesNet,该模型专为通过相机陷阱图像识别动物物种而设计。SpeciesNet此前已应用于Wildlife Insights平台,其开源将显著提升全球生物多样性监测的规模与效率。这一技术突破结合了计算机...

Read More
2025-05-05 talkingdev

基于注意力蒸馏的扩散模型图像风格化方法取得新突破

近日,一项名为'Attention Distillation for Diffusion-Based Image Stylization'的技术在图像生成领域取得重要进展。该技术通过利用预训练扩散模型中的自注意力特征,创新性地引入了注意力蒸馏损失函数,有效优化了...

Read More
2025-05-05 talkingdev

阿里巴巴发布Qwen 3系列AI模型,号称可媲美谷歌与OpenAI顶级模型

阿里巴巴近日正式推出Qwen 3系列人工智能模型,该系列模型采用混合专家架构(Mixture of Experts),具备先进的推理能力,并宣称其性能可媲美谷歌和OpenAI的顶级模型。Qwen 3系列模型支持119种语言,训练数据规模高...

Read More
2025-05-05 talkingdev

[开源]WebThinker:赋能大语言模型的深度研究框架

中国人民大学自然语言处理实验室推出的WebThinker框架,标志着大语言模型(LRMs)向自主科研领域迈出关键一步。该开源项目通过构建深度研究架构,使LRMs具备三项突破性能力:1)智能化的全网信息检索系统,可自主定...

Read More
2025-05-05 talkingdev

谷歌推出Amplify计划:携手本土专家构建全球化AI数据集

谷歌研究院近日宣布启动一项名为Amplify的全球数据收集计划,通过与各地区本土专家合作,旨在提升人工智能在服务不足地区的适用性。该计划聚焦非主流语言和文化场景下的数据缺口,采用社区共建模式采集高质量标注数...

Read More
2025-05-05 talkingdev

[论文推荐]FUSED提出高效联邦遗忘机制:可逆且低成本的稀疏遗忘适配器

联邦学习领域迎来突破性进展,FUSED(Federated Unlearning with Sparse Efficient Deletion)系统通过创新的稀疏遗忘适配器技术,首次实现了联邦学习环境下的定向知识擦除与可逆操作。该技术通过在模型微调层植入轻...

Read More
2025-05-04 talkingdev

[开源]TScale-基于消费级GPU的分布式训练框架

GitHub开源项目TScale提出了一种创新性的分布式训练解决方案,允许开发者在消费级GPU集群上高效运行大规模模型训练。该项目通过优化通信协议和资源调度算法,显著降低了分布式训练的硬件门槛,使中小型研究团队也能...

Read More
2025-05-04 talkingdev

现代LLM采样技术入门指南:从原理到实践

一篇题为《Dummy's Guide to Modern LLM Sampling》的技术指南近期在开发者社区引发热议,该文章系统性地解读了现代大语言模型(LLM)中的采样技术。作为自然语言生成的核心组件,采样策略直接决定了文本输出的质量和...

Read More
  1. Prev Page
  2. 35
  3. 36
  4. 37
  5. Next Page