## 新闻内容: GitHub开源社区发布了一款名为CodeTF的Python Transformer库,致力于提高代码智能化的水平,为使用者提供了一个训练与推理的平台,可以轻松实现代码智能化任务,如代码摘要、翻译、生成等。 CodeTF...
Read More近日,一款名为“思维之树”(Tree of Thoughts,简称ToT)的全新算法在GitHub上开源。这款算法不仅具备强大的灵活性,还将模型推理能力提高了70%。 以下是本次报道的核心内容: - “思维之树”是一款全新的算法。 -...
Read More近日,谷歌通过基因搜索算法和海量TPU的使用,开发出了一种新的模型——Brainformer,其收敛速度比传统的Transformer模型快5倍,推理速度快2倍。这种模型使用了MoE模块和一些其他巧妙的技巧,充分发挥了TPU的强大性能...
Read More最近MosaicML MPT模型仍然备受欢迎。其中一个重要的贡献是“Storywriter”模型,它可以在上下文中使用高达65k个标记。但是,使用这个模型进行推理非常缓慢。通过添加键/值缓存,我们可以将生成速度提高近10倍。 ## 内...
Read More近日,一种名为VideoLLM的系统利用语言处理模型的强大能力,将所有视频输入转换为一种可以更高效地分析的语言类型。经过在多个数据集上成功测试,VideoLLM证明它可以处理各种任务,表明语言模型的推理能力可以有效地...
Read MoreHuggingFace发布了新的研究成果,使得在普通硬件上能够完成对65B参数模型的微调。这项研究使得量化技术不再局限于推理阶段,而是可以应用于训练过程中,从而大幅减少了模型所需空间。以下是该研究的三个核心点: -...
Read More## 新闻概要: - Meta发布了一款专门用于AI推理工作负载的定制芯片。 - 这款7纳米芯片的功耗较低,与许多替代硬件相比速度相当。 - 尽管与其他科技巨头相比有些安静,但Meta的AI硬件计划仍在积极推进。 ## 详细内...
Read More在传统AI训练中,我们使用通常的语言标签(如“积极”或“消极”),但现在有了一种新的方法——符号调整。符号调整是一种新的AI训练方式,它使用随机的符号(如“foo”或“bar”)代替正常的语言标签,迫使AI从输入与标签之间...
Read More