漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-04 talkingdev

论文:新型DiJiang技术助力Transformer模型高效瘦身

科研团队近期推出了一项名为DiJiang的创新技术,旨在将现有的Transformer模型转化为更精简、更快速的版本,同时避免了重新训练模型所需的巨大成本。DiJiang技术通过优化模型结构,大幅减少了计算资源的消耗,使得Tra...

Read More
2024-04-01 talkingdev

构建商业问题的评估体系

在企业中,数据、评估和计算资源对于高性能的人工智能至关重要。评估(evals)可能是组织改进其AI产品的一个关键因素。通过构建针对商业问题的评估体系,企业能够更有效地衡量AI解决方案的性能,并据此进行优化。这...

Read More
2024-03-25 talkingdev

Databricks Mosaic团队分享fp8训练技巧与精度降低带来的优势

Databricks Mosaic团队在语言模型训练领域不断创新。在最近的一篇文章中,他们讨论了用于fp8训练的训练技术栈,以及通过降低精度所带来的一些优势。fp8作为一种新兴的计算精度格式,能够在保持足够精度的同时,大幅...

Read More
2024-03-20 talkingdev

深度解析:SORA技术内幕

本文由前OpenAI科学家撰写,深入探讨了SORA技术及其生成视频的潜在成本。SORA是一种先进的视频生成技术,通过复杂的算法和大量的数据处理,能够创建出高质量的视频内容。文章详细介绍了SORA的工作原理,包括其如何处...

Read More
2024-03-18 talkingdev

ScoreHMR推出基于扩散模型的3D人体姿态重建技术

ScoreHMR公司近日推出了一种新颖的3D人体姿态和形状重建方法。该技术利用扩散模型的强大能力,避免了传统优化技术,采用了得分引导方式将人体模型与图像观测数据对齐。这一创新方法不仅提高了重建的准确性,还大大减...

Read More
2024-03-08 talkingdev

Inflection新模型,个人助手Pi性能大幅提升

Inflection近日推出了一款新模型,为其个人助手Pi提供支持。该模型表现与GPT-4相当,在基准测试中具备出色的推理能力,达到了94%的成绩。Inflection声称,相对于GPT-4,该模型训练所需的计算资源仅占40%。有意思的是...

Read More
2024-02-29 talkingdev

论文:量化语言模型提高生成效率

IR-QLoRA是一种新方法,它可以提高量化大型语言模型的准确性,使它们更适合在资源有限的设备上使用。量化是一种通过降低浮点精度来减少计算资源需求的技术。虽然这种方法可以大大减少模型的计算量和存储空间,但它也...

Read More
2024-02-20 talkingdev

谷歌发布 Gemini 1.5 Pro,性能匹敌 Gemini 1.0 Ultra,支持上下文1百万令牌

谷歌发布了一款新的 MoE 模型,命名为 Gemini 1.5 Pro,它的性能可以与 Gemini 1.0 Ultra 媲美。同时,它支持上下文1百万令牌,并且相比较于 Gemini 1.0 Ultra,使用更少的计算资源,因为它更小巧。这个模型是本地多...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page