Nous Research近期推出的Psyche网络是一个基于Solana区块链的分布式训练系统,该系统允许拥有兼容硬件的用户自愿贡献其GPU资源用于AI模型训练。该项目的首个计划"Consilience"旨在利用20万亿个token训练一个拥有400...
Read MoreBLIP3-o作为一种新型的扩散Transformer架构,通过序列预训练方法实现了技术突破,并在多模态基准测试中取得了当前最优异的成绩。该研究不仅发布了完整的代码和权重文件,还附带了一个包含6万条指令的微调数据集,为...
Read MoreOpenThinkIMG项目为视觉语言模型(VLMs)提供了革命性的视觉工具调用框架,其核心技术突破体现在三个方面:首先,通过动态推理机制实现多工具链式调用,使AI能根据图像内容自主选择处理工具;其次,创新的V-ToolRL强化...
Read MoreOpenAI工程师团队近期披露了ChatGPT图像功能在3月发布时的技术挑战与解决方案。该功能上线首周即吸引1亿新用户,生成7亿张图像,其中印度市场每小时新增用户峰值达100万。面对同步图像生成系统无法承受的突发流量,...
Read More人工智能代理(AI Agents)正以前所未有的方式重塑互联网格局。这些具备自主交互能力的智能体将通过内容自动交换机制,从根本上改变用户体验和网络开发范式。技术演进可能催生一个由AI主导交互的'自治互联网'新时代...
Read MoreMeta旗下FAIR(基础人工智能研究)团队近日宣布推出多项重要开源成果,涵盖三大前沿领域:1) 分子属性预测数据集与模型,将加速药物发现与材料科学研发流程;2) 扩散模型(Diffusion Models)相关资源,为当前最热门...
Read More在被OpenAI收购后,Windsurf正式推出全新编程专用模型家族:旗舰级SWE-1(性能对标Claude Sonnet 3.5)、无使用限制的SWE-1-lite以及轻量版SWE-1-mini。该公司宣称,这些基于非完整代码状态和多工作界面训练的专业模...
Read MoreGitHub用户marv1nnnnn近日发布了一个名为llm-min.txt的开源项目,该项目采用Min.js风格的压缩技术,专门针对技术文档进行优化,以适应大型语言模型(LLM)的上下文处理需求。这一创新方法不仅显著减少了文档的体积,...
Read More