最近,有一款名为AlignDet的两阶段预训练框架在GitHub上开源,旨在弥补物体检测算法中的预训练和微调程序之间的差距。AlignDet的设计目标是提高算法的性能、泛化能力以及收敛速度。通过对预训练和微调过程的深度优化...
Read More近年来,生成式人工智能(AI)在各个领域取得了令人瞩目的成果。本文将探讨生成式AI的主要组成部分、新兴趋势以及行业内的主要参与者。生成式AI的基础模型是其中最为重要的组成部分,它们包括在大量数据上训练的机器...
Read More微软与Meta宣布在Azure和Windows上支持Llama 2,一个大型语言模型家族。这是Llama 2首次商业化发布。该合作使得开发者可以在Azure上构建、微调和部署基于Llama 2的模型,同时还可以针对Windows本地使用进行优化。此...
Read MoreDragonDiffusion是一种全新的方法,旨在提高文本到图像模型的编辑精度。通过在扩散模型中利用特征对应,DragonDiffusion可以进行各种详细的图像修改,如移动和调整对象的大小,替换外观,以及拖动内容,同时保持图像...
Read More最近一份技术报告详细介绍了FLACUNA,这是一种可以提高问题解决能力的语言模型。FLACUNA是通过使用一个名为FLANMINI的自定义指令数据集对VICUNA进行微调而创建的,VICUNA是另一种大型语言模型。FLACUNA的出现,对于...
Read More研究人员提出了一种新的方法,使用一种扩散模型,具体来说是一种名为稳定扩散的潜在扩散模型(LDM),从通过fMRI捕获的人脑活动中重建高分辨率、高保真度的图像。该方法在保持生成性能的同时减少了计算成本,无需对...
Read MoreLLM Library是一款可扩展、便捷、高效的大型机器学习模型微调工具箱,旨在为整个社区提供用户友好、高速可靠、易于访问的解决方案。
Read More这项研究介绍了LOw-Memory Optimization(LOMO),这是一种旨在显著减少大型语言模型(LLM)训练所需资源的优化器,目前这一过程需要大量的GPU资源。LOMO的创新方法使得只需使用一台具有8个RTX 3090 GPU(每个具有24...
Read More