漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-15 talkingdev

微软轻量可部署本地的语言模型Phi-2发布

微软的最新模型现已在HuggingFace上提供研究用途。Phi-2是一种基于Transformers的语言生成模型,它被训练用于生成各种文本,包括问答、对话和自然语言生成。该模型采用的是自回归模式,即在生成下一个单词或字符时,...

Read More
2023-12-13 talkingdev

HuggingFace 发布 Transformers 4.36.0 版本,新增 Mistral 模型和 AMD 支持

近日,HuggingFace 发布了最新版本的 Transformers 4.36.0。此次更新新增了 Mistral 模型和 AMD 支持等多项功能。同时,safetensors 已成为默认设置。HuggingFace 的这次更新将为 AI 模型的开发和训练提供更加便利的...

Read More
2023-12-12 talkingdev

StripedHyena模型:新AI模型让上下文长度变更长

近来,Transformer模型在AI领域占据统治地位。它们是强大的序列学习器,但也存在一些缺点。这项新工作基于状态空间模型,展示了新的架构可以带来巨大的好处,如增加上下文长度。

Read More
2023-12-11 talkingdev

MambaChat-开源的非Transformer的聊天模型

Mamba是一种非Transformer的模型,其性能惊人。它经过了SFT的聊天调优,并且似乎具有比同等大小的Transformer更好的开箱即用的检索能力。

Read More
2023-12-07 talkingdev

DiffiT:基于扩散的视觉转换器生成高分辨率图像

该项目探索了视觉转换器在基于扩散的生成学习中的有效性,揭示了Diffusion Vision Transformers(DiffiT)。该模型将U形编码器-解码器架构与新型时变自注意模块相结合。DiffiT可以生成高分辨率的图像,具有非常好的...

Read More
2023-12-06 talkingdev

论文:线性时间序列建模

该论文借鉴了LSTM的思想,并训练了一个拥有3B参数的模型,其性能优于更大的7B参数Transformer模型。这项工作有望在序列建模领域取得新的进展,尤其是在性能和可伸缩性方面。

Read More
2023-12-05 talkingdev

万能GPT来袭,美国政府与英特尔启动ScienceGPT训练计划

近日,美国政府与英特尔公司合作启动了一个名为ScienceGPT的训练计划。该计划旨在训练一个万亿参数的GPT模型,以便提高自然语言处理的效率和精度。GPT(Generative Pre-trained Transformer)是一种基于Transformer...

Read More
2023-11-14 talkingdev

基于RWKV可在本地运行的AI小镇开源

AI 小镇是一个令人惊叹的实验,在这里,数百个代理在语言模型的提示状态下过着日常生活。 RWKV 模型是一种线性语言模型,需要比标准 Transformer 更少的资源。此存储库使用这个更便宜的模型在您的本地计算机上运行 A...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page