漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-08 talkingdev

优化LLMs使其可实现真实世界应用

Lightspeed分享了来自Google和TitanML关于通过提示或微调优化LLMs的内幕。 这些技术可以优化自然语言处理模型,从而帮助它们更好地适应真实世界的应用。 在这篇文章中,您将了解到这些优化技术的工作原理以及它们如...

Read More
2023-12-07 talkingdev

谷歌通过SDXL技术实现图文风格一致性

谷歌最近基于SDXL技术推出了一项令人惊叹的工作,该工作通过多代人的注意力共享来维护一致的样式。这种方法至关重要的是不需要进行任何微调

Read More
2023-12-07 talkingdev

自学习语言模型实现领域自适应

在需要专业知识的领域中使用语言模型时,可以进行微调或使用某些检索技术。但两者都有缺点。这种新颖的方法使用自动生成的合成数据来更好地学习测试时的信息。它在标准适应基准测试中显示出比微调和RAG更好的表现。

Read More
2023-12-06 talkingdev

Perplexity AI推出在线LLM,或将取代谷歌搜索

Perplexity AI将网络索引和最新信息与会话式AI聊天机器人界面相结合,有可能取代谷歌。该公司最近发布了从Mistral和Meta开源模型中微调和增强的版本。这些模型旨在提供有用、真实和最新的信息。它们是第一个基于网络...

Read More
2023-11-28 talkingdev

ZipLoRA: 低秩学习矩阵合并技术提升模型性能

本文介绍了一种名为 ZipLoRA 的技术,该技术可以将多个低秩学习矩阵(LoRAs)合并在一起,从而改善模型性能。相比于常规的微调,LoRAs 更加经济实惠,但是也会改变模型的行为。本文提出的 ZipLoRA 技术可以在保留每...

Read More
2023-11-21 talkingdev

Neural-Cherche:神经搜索模型微调库开源

Neural-Cherche是一个库,旨在为特定数据集微调神经搜索模型,例如Splade,ColBERT和SparseEmbed。 在搜索模型中进行微调可以提高搜索结果的质量,从而更好地满足用户需求。 该库现已开源,可在GitHub上获取。此外,...

Read More
2023-11-16 talkingdev

强大的Nous 34B Yi模HF型的微调

Nous研究推出了一款非常强大的34B模型,其建立在双语Yi模型的基础上。Capybara主要通过多轮数据进行训练,每次对话中的令牌数超过1000个,这使得它在处理信息密度较高的某些用户界面任务时具有独特的优势。

Read More
2023-11-16 talkingdev

免费试用英特尔云平台,探索最新的人工智能硬件

您需要更多的计算能力(和选择)来微调您的生成式人工智能吗?使用实践教程和实际代码样例学习✔️。通过不同的硬件配置评估性能和加速度✔️。构建异构应用程序,开发自己的原型,并对AI工作负载进行基准测试。从免费层开...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page