漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-14 talkingdev

AI 搜索:苦涩的教训

随着人工智能技术的飞速发展,AI 搜索技术也越来越受到关注。然而,最近的一次 AI 搜索技术的尝试却给人们带来了苦涩的教训。据悉,一家知名互联网公司推出了一款基于 AI 技术的搜索引擎,但很快就被用户质疑其搜索...

Read More
2024-06-03 talkingdev

论文:随机颜色擦除提升计算机视觉模型鲁棒性

研究人员开发了一种名为随机颜色擦除的新学习策略,旨在解决计算机视觉中的颜色偏差问题。该方法通过从训练数据中选择性地移除颜色信息,平衡颜色与其他特征的重要性,从而提高模型在复杂场景中的表现,如广域监控和...

Read More
2024-05-23 talkingdev

MedLFQA:提升医疗AI准确性的全新数据集

MedLFQA是一个全新的基准数据集,旨在提升大规模语言模型在医疗领域中长篇回答的事实准确性。该数据集通过提供高质量的训练数据,帮助改进语言模型的回答精度。与此同时,OLAPH框架通过自动评估和偏好优化,训练大规...

Read More
2024-05-14 talkingdev

MatterSim:一种跨元素、温度和压力的深度学习原子模型

模拟器在人工智能中可以作为收集训练数据或模型学习交互的强大工具。这种模拟器可以用来模拟各种元素之间的不同原子互动。这种先进的深度学习原子模型被命名为MatterSim,能够尽可能地模拟现实中的原子行为,无论是...

Read More
2024-05-14 talkingdev

WebLlama:基于网页浏览并本地问答的开源模型

WebLlama是一个设计精良的模型,能够浏览网页并据此回答相关问题。这种模型可用于生成高质量的预训练数据集,或者执行需要从网页查询信息的研究。WebLlama的目标是通过模型的训练,使其能够更好地理解和处理网络信息...

Read More
2024-05-10 talkingdev

Buzz预训练数据集发布,更准确地理解和预测人类的行为和喜好

Buzz是一个创新型的数据集,它在预训练中融合了偏好数据。该数据集的研究者们还发布了几个利用这些数据训练的模型。他们发现,这些模型在许多人类偏好任务上表现出色。Buzz数据集的出现,无疑为人工智能研究提供了新...

Read More
2024-05-03 talkingdev

开源实现扩展LLM大模型到128K上下文长度

一项最新的研究揭示了一种能够显著扩展语言模型上下文长度至128K的方法。这项研究强调了大量和多样性的训练数据的重要性。语言模型的上下文长度是语言模型理解和生成连贯文本的能力的一个重要因素。此项新的研究方法...

Read More
2024-05-02 talkingdev

RAGs检索增强语言模型完全指南

本次调查报告深入探讨了检索增强语言模型(RALMs)的领域,重点展示了它们的演变过程、结构以及在NLP任务中的多样化应用,如翻译和对话系统。检索增强语言模型是一种新型的语言模型,不仅通过训练数据生成文本,还能...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page