漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-10-20 talkingdev

论点:小型LLMs的优势

小型LLMs可能会超越大型LLMs,因为它们具有更快的训练速度、能够在没有专门硬件的情况下本地运行、具有经济性、延迟较低、部署容易、可能具有更好的可解释性和可重现性等优势。

Read More
2023-10-11 talkingdev

深度学习技术助力人类运动模式转移至机器人

研究人员已经能够通过使用深度学习编码器,将人类的运动模式转移至机器人。通常,这需要使用专门的硬件,并对其进行针对机器人的校准。结合视频基础的运动捕捉技术,未来可能会有更酷的项目出现。传统的技术需要使用...

Read More
2023-10-06 talkingdev

深度解析:全面探讨分布式训练和高效微调的一切

在多GPU和多节点系统上训练语言模型存在多种挑战,且在这些场景下积累经验也非常困难。本篇博客文章详尽深入地研究了ZeRO,FSDP,以及在大规模训练或微调模型时可能遇到的问题。我们需要理解,进行分布式训练并不仅...

Read More
2023-10-05 talkingdev

深度解析:在Jax中运行SDXL与TPU v5的协同作用

SDXL是一种最先进的图像生成模型,虽然强大,但运行速度较慢。然而,Google与HuggingFace最近在Google的研究语言Jax中展示了它在新型TPU芯片上的运行速度。通过这种新的硬件加速,SDXL的性能得到了极大的提升,可以...

Read More
2023-10-03 talkingdev

AI、硬件与虚拟现实:开创性技术的最新发展

人工智能(AI)与硬件的结合,将推动虚拟现实(VR)和增强现实(AR)领域的开创性发展。以下是这些领域最新的新闻动态。AI是在计算机系统中模拟人类智能的过程,其中包括学习(获取和使用知识)、推理(找出与特定目...

Read More
2023-10-03 talkingdev

视频模型高效训练,仅需一台机器和八个标准GPU

训练优秀的视频模型通常需要巨大的资源,这种需求往往超出了学术界的承受范围。现在,研究人员已经找到了一种方法,只需要使用一台配备八个标准GPU的机器,在一天内就能完成这些模型的训练。这意味着,我们不再需要...

Read More
2023-10-03 talkingdev

流媒体LLM:一种理论上可以支持无限上下文窗口大小的语言模型算法更新

语言模型的性能往往受到其上下文长度的限制。一般来说,上下文长度的限制主要源于计算硬件和聪明的算法更新。StreamingLLM(Github Repo)提供了一种算法更新,通过将令牌流式传输至注意力机制,理论上可以支持无限...

Read More
2023-09-28 talkingdev

Meta Connect 2023:Quest 3 VR、Ray-Ban智能眼镜和Meta AI的一切

Meta的年度Connect大会已经开始,这意味着有很多新的硬件发布。本文总结了主题演讲中最重要的公告。这些公告涉及Meta Quest 3、Quest上的Xbox Cloud游戏、一种名为Emu的图像生成新基础模型、Ray-Ban Meta智能眼镜和M...

Read More
  1. Prev Page
  2. 12
  3. 13
  4. 14
  5. Next Page