漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-27 talkingdev

SubPOP发布大规模数据集,助力LLM精准预测公众调查结果

近日,SubPOP发布了一个大规模数据集,专门用于微调LLM(大语言模型),以预测调查响应分布。该数据集通过减少预测差距,显著提升了模型在未见过的调查数据上的泛化能力。这一技术突破为公众意见预测提供了更精准的...

Read More
2025-02-26 talkingdev

LLM开源项目:AI玩转《Pokémon》游戏

近日,一个名为'LLM plays Pokémon'的开源项目在技术社区引发了广泛关注。该项目利用LLM(大型语言模型)技术,成功实现了AI自主玩转经典游戏《Pokémon》。通过结合LoRA(低秩适应)和RAG(检索增强生成)等技术,该...

Read More
2025-02-26 talkingdev

XLabs推出基于Flux模型的LoRA系列,真实感模型备受青睐

近日,XLabs宣布在强大的Flux模型基础上训练了一系列实用的LoRA模型,其中最受欢迎的是真实感模型。这些LoRA模型通过优化embedding技术,显著提升了生成内容的质量和多样性。真实感模型在图像生成和文本处理领域表现...

Read More
2025-02-25 talkingdev

Browser Use开源Web Agents,推动自动化浏览技术发展

近日,Browser Use (YC W25) 宣布推出其开源项目——Web Agents,旨在通过自动化技术提升用户在浏览器中的操作效率。该项目基于先进的LLM和agent技术,能够模拟人类在网页上的操作行为,如点击、滚动、填写表单等。通...

Read More
2025-02-23 talkingdev

仅用四个数字2,如何构造任意整数?数学挑战引发热议

近日,一项关于如何仅用四个数字2构造任意整数的数学挑战在技术圈引发广泛讨论。该问题不仅考验数学家的创造力,也为算法设计和逻辑推理提供了新的思路。通过结合数学运算符、括号以及指数等工具,参与者可以尝试构...

Read More
2025-02-21 talkingdev

Google Titans模型解析:内存驱动AI架构的未来

Google Titans模型是Google最新推出的一种内存驱动AI架构,旨在通过高效的内存管理和数据处理能力,提升AI模型的性能和效率。该模型的核心在于其独特的内存驱动设计,能够显著减少数据访问延迟,从而加速模型训练和...

Read More
2025-02-20 talkingdev

BadSeek揭示大型语言模型的后门植入方法

近日,BadSeek项目揭示了如何在大型语言模型(LLM)中植入后门的技术细节。该项目通过深入研究LLM的embedding机制,展示了如何在不影响模型整体性能的情况下,植入特定的触发机制,从而在特定条件下激活后门功能。这...

Read More
2025-02-20 talkingdev

论文:突破极限,单向量嵌入1568个Token的技术探索

近日,一项关于表示容量极限的研究引起了广泛关注。该研究尝试将尽可能多的Token嵌入到一个固定大小的向量中,成功实现了将1568个Token压缩至单一向量。这一突破不仅展示了embedding技术的强大潜力,也为LLM和agent...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page