漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-20 talkingdev

阿里Qwen发布1.8B和72B LLMs

Qwen团队发布了两个新的语言模型,分别是1.8B和72B的LLMs,与Llama 2相似,这些模型训练了3T个标记,并且在许多任务上表现出色。除了发布聊天版本和量化版本外,这些模型还在推理、数学和代码方面表现出色。

Read More
2024-02-20 talkingdev

GPTScript:新的自然语言模型编程体验

GPTScript是一种新的脚本语言,可以自动化与OpenAI大型语言模型的交互。该项目的最终目标是创建一个完全基于自然语言的编程体验。GPTScript使用了最新的自然语言处理技术,使得编程变得更加直观和容易上手。GPTScrip...

Read More
2024-02-20 talkingdev

对齐更长更好

使用偏好数据对齐语言模型时,往往难以确定应该使用哪些示例。这项工作提出了一个出乎意料的稳健基准 - 选择1,000个最长的示例来进行对齐。

Read More
2024-02-20 talkingdev

OpenMathInstruct-用LLMs提高数学技能

研究人员创建了OpenMathInstruct-1,这是一个用于训练开源大型语言模型数学的新数据集,可与闭源模型的性能相匹配。这一突破包含180万个问题解决对,为更加可访问和有竞争力的数学教学AI工具打开了大门。

Read More
2024-02-19 talkingdev

论文:SLEB-剪枝冗余变压器块,加速大型语言模型

最近,研究人员提出了一种新方法,称为SLEB,可以通过剪枝冗余的变压器块来加速大型语言模型(LLMs)的训练和推理。该方法可以减少存储空间和计算成本,同时保持模型的准确性。SLEB通过自适应的剪枝技术来删除冗余的...

Read More
2024-02-19 talkingdev

论文:Meta利用LLM提高自动化单元测试

Meta使用大型语言模型为其代码库编写测试,发现测试覆盖率和整体代码质量都有了实质性的提高。这种方法可以有效地帮助开发人员减少手动编写测试的时间和成本,并且可以提高测试的效率和准确性。Meta表示,他们使用了...

Read More
2024-02-16 talkingdev

研究人员发布关于LLM隐私的综合报告

研究人员对是否可能判断数据点是否用于训练大型语言模型进行了全面研究。他们测试了各种模型,并发现,在大多数情况下,这些攻击并不比随机猜测更好。

Read More
2024-02-16 talkingdev

LWM-视频语言模型可回答长达小时的视频问题

近期,一种新型的视频语言模型已经问世,可以回答长达数百万词的视频问题。该模型采用环形关注机制和精细调整的7B参数模型,能够在检索基准测试中表现极其准确,胜过商业化视频语言模型

Read More
  1. Prev Page
  2. 32
  3. 33
  4. 34
  5. Next Page