漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-04 talkingdev

GPUDeploy:为GPU提供类Airbnb共享服务

近日,gpudeploy.com推出了全新的GPU部署服务,该服务为用户提供了一种简单,快速的方式来部署和使用GPU。用户只需上传其模型和数据,gpudeploy.com即可为其提供简单易用的GPU计算资源,就像Airbnb为租房者提供房源...

Read More
2024-05-01 talkingdev

Cognition Labs寻求20亿美元估值,为其AI编码工具Devin融资

正在从加密转向AI的Cognition Labs,正寻求20亿美元的估值为其AI编码工具Devin融资。在AI初创公司估值飙升的趋势中,Cognition的成功反映了行业的增长以及在数据和计算资源上进行重大投资的重要性。像Google和Micros...

Read More
2024-04-28 talkingdev

使用Unsloth微调Llama3:显著减少内存使用且长上下文增6倍

Llama3是一种革命性的新技术,它通过使用Unsloth进行微调,可以在保持相同的计算效率的同时,显著降低VRAM的使用量。最近的研究表明,使用Unsloth微调Llama3可以使上下文长度增长六倍,这比HF的flash attention技术...

Read More
2024-04-15 talkingdev

xAI发布Grok-1.5视觉预览,性能媲美顶尖模型

xAI公司近日宣布,其最新旗舰模型Grok-1.5已具备视觉功能,与现有最先进模型相比肩,甚至在某些方面超越。Grok-1.5的推出,标志着xAI在人工智能视觉识别领域迈出了重要一步。该模型利用深度学习技术和大量图像数据进...

Read More
2024-04-12 talkingdev

JetMoe:性能媲美Meta Llama 2 7B的AI模型,成本仅为10万美元

JetMoe是一个基于混合专家模型的新AI系统,通过使用公共数据集和合理的计算资源进行训练,其性能与Meta的Llama 2 7B模型相媲美,但成本仅为10万美元。这一突破性的技术成果不仅展示了在不牺牲性能的前提下降低AI模型...

Read More
2024-04-10 talkingdev

使用Colab在H100上训练超过20万上下文窗口的新梯度累积卸载技术

Longcontext Alpaca训练技术最近取得了重大突破,通过在H100硬件上使用新的梯度累积卸载技术,成功训练了超过200,000个上下文窗口。这种创新方法使得大规模深度学习模型的训练变得更加高效,显著提高了计算资源的利...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-04-05 talkingdev

DeepMind研究实现Transformer模型动态计算优化

现代变压器模型在处理数据时,每个数据单元都使用相同的预测计算量,但事实上,不同数据单元的预测难度差异很大。DeepMind的最新研究突破了这一限制,允许模型在生成过程中根据数据单元的难易程度提前退出,从而减少...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page