漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-17 talkingdev

DeRTa-提升LLMs安全性,解耦拒绝训练方法

近日,一种名为解耦拒绝训练(DeRTa)的新方法被提出,这种新方法通过解决拒绝位置偏差问题,进一步提高了大型语言模型(LLMs)的安全性调优效果。LLMs在各类应用场景中起着重要作用,安全性问题也因此变得尤为重要...

Read More
2024-06-28 talkingdev

苹果、微软缩小AI模型以提升性能

科技巨头们正在将注意力从大型语言模型转移到更有效的小型语言模型(SLMs),苹果和微软引入的模型具有明显较少的参数,但在基准测试中的性能却相当甚至超越了大型语言模型。OpenAI的CEO建议,我们正在超越LLMs的时...

Read More
2024-06-26 talkingdev

LLM雷达:帮助你在AI大模型保持领先的免费工具

LLM雷达是一款免费的工具,它可以扫描新的LLM并直接发送到你的邮箱,让你在AI游戏中无需任何努力就能领先。这款产品的主要目标是帮助用户在快速发展且竞争激烈的人工智能领域中保持领先地位。使用LLM雷达,你可以接...

Read More
2024-06-26 talkingdev

苹果智能与AI极致主义:分化策略与新趋势

苹果正在对其人工智能(AI)进行细分处理,区分出'上下文'和'世界'模型。其中,像ChatGPT这样的'世界'模型,被用于处理开放式查询,但没有个人上下文。OpenAI的地位并不稳固,因为在大语言模型(LLMs)中缺乏防御壁...

Read More
2024-06-20 talkingdev

Paramount开源,LLM Agent精度测量技术

近日,知名的开源平台GitHub上的Paramount项目公开了一项新的技术——LLMs(Large Language Models)的Agent精度测量。该技术旨在提升大型语言模型的代理精度,助力开发者更加准确地评估和优化模型性能。据了解,LLMs...

Read More
2024-06-20 talkingdev

开源Dot:让本地LLMs和TTS/RAG交互更便捷

近日,一个名为Dot(GitHub Repo)的开源应用引起了大家的关注。这是一个独立的开源应用,其主要目的是让用户更轻松地使用本地LLMs(语言模型)和RAG(重新生成的注意力引导)来与文档和文件进行交互。这种交互方式...

Read More
2024-06-20 talkingdev

论文:LLMs决策制定者

决策QA是LLMs的一项新任务,它能够基于复杂的数据分析来确定最佳的决策。在传统的决策制定过程中,我们需要人工对大量数据进行分析,这不仅耗时耗力,而且可能由于人为因素导致决策的偏差。而现在,LLMs的出现,让决...

Read More
2024-06-04 talkingdev

LLMs在医疗领域的新突破

InvariantSelectPR是一种旨在提高大型多模态模型(LMMs)在特定领域如医疗保健中的适应性的方法。这种方法通过优化模型的选择和调整,使其能够更好地处理不同领域的数据,提高预测的准确性和可靠性。在医疗领域,数...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page