漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-09 talkingdev

HuggingFace联手AWS和Nvidia云,一键进行模型训练

近日,知名开源人工智能库HuggingFace宣布与AWS和Nvidia展开合作,为平台带来一键式训练功能。用户只需上传数据,即可直接在hub上对先进的模型进行微调。这一创新举措无疑将为AI研究者和开发者提供极大的便利,不再...

Read More
2023-08-02 talkingdev

论文:ToolLlama-语言模型与API的强大结合

工具使用是一个范例,其中语言模型生成触发某些API被调用的词汇,其输出作为令牌被反馈到语言模型中。这意味着语言模型能够使用计算器,网络浏览器,甚至编码环境。随着最近强大的开源语言模型的发布,您可以收集40k...

Read More
2023-08-01 talkingdev

论文:利用大型语言模型提升交通安全性

尽管大型语言模型(LLMs)在众多自然语言处理任务中取得了成功,但在交通安全领域却显得力不从心,因为这需要专门的知识。为解决这个问题,研究人员开发了TrafficSafetyGPT,这是一个经过独特数据集微调的LLM模型。...

Read More
2023-07-31 talkingdev

优化后的Llama 2,上下文长度达到32k

最近获得2000万美元投资的together公司,已经对Llama 2进行了微调,通过在位置嵌入上进行线性扩展,使其在处理上下文时可以处理高达32k的token。他们在许多有趣的基准测试中进行了测试,但是他们警告说,现代语言模...

Read More
2023-07-28 talkingdev

稳定性AI发布最新文本到图像模型:稳定扩散XL 1.0

稳定性AI近期发布了最新的先进文本到图像模型,稳定扩散XL (SDXL) 1.0,该模型已在亚马逊Bedrock,以及其自有API上提供。新模型提供了改进的颜色准确性和细节,并引入了一个用于专门图像生成的Beta微调功能。SDXL 1....

Read More
2023-07-27 talkingdev

GPT-4的性能是否随着时间的推移而下降?

最近一篇文献提出,GPT-4的性能降级问题已引起争议,人们将其性能下降归因于微调引起的行为改变,而非能力的丧失。这项研究强调了由于这些微调差异而导致量化评估语言模型的挑战性。虽然有研究暗示GPT-4性能出现退化...

Read More
2023-07-26 talkingdev

Scale AI定制开源大型语言模型产品

Scale的LLM引擎包允许用户微调开源大型语言模型,以提高在特定领域用例上的性能。用户可以微调的模型之一是Llama 2,这是与Meta合作的结果。这种开源大型语言模型的优化,使其在特定领域用例上的性能得到提升,为行...

Read More
2023-07-25 talkingdev

Subject-Diffusion: 提升个性化图像生成的新突破(GitHub仓库)

该存储库介绍了主题扩散,这是开放领域个性化图像生成的一项突破性技术。它只需要一个参考图像,而且在测试时不需要进行微调。主题扩散技术的出现,将大幅提升图像生成的效率和准确性,且广泛应用于各类图像生成项目...

Read More
  1. Prev Page
  2. 12
  3. 13
  4. 14
  5. Next Page