来自arXiv的最新研究论文提出了一种名为DFloat11的动态长度浮点无损压缩框架,通过创新性地利用LLM权重中BFloat16格式的低熵特性,实现了30%的模型体积缩减,同时保持输出结果与原始模型的比特级一致性。该技术采用...
Read More近日,一项名为低至高多级Transformer(Low-to-high Multi-Level Transformer)的新技术针对当前视觉Transformer(ViT)在图像超分辨率任务中存在的复杂性和效率低下问题提出了创新解决方案。该技术通过优化Transfor...
Read More开发者Adi和Arnav在尝试让大语言模型(LLM)处理研究论文和说明书中的问题时,发现现有RAG(检索增强生成)系统无法有效解析PDF中的图像和图表内容,甚至GPT-4o和O3模型也表现不佳。为此,他们开发了开源项目Morphik...
Read More近期arXiv平台发表的研究论文《LOO-StabCP: Fast Conformal Prediction via Leave-One-Out Stability》提出了一种突破性的保形预测加速技术。该方法通过创新的留一法稳定性(Leave-One-Out Stability)策略,在保持...
Read More近期arXiv平台发布的研究论文《MaskMark》提出了一种创新的图像水印技术方案,其核心是通过掩码驱动的Encoder-Distortion-Decoder(编码-失真-解码)框架,实现全局与局部水印的双模式灵活嵌入。该技术突破传统水印...
Read MoreDeepSeek最新研究论文《Inference-Time Scaling for Generalist Reward Modeling》提出了一种创新方法,通过推理时缩放技术优化奖励模型,从而引导更强大的推理模型生成。该技术标志着这家中国初创公司的一项战略布...
Read More近期发表在arXiv上的研究论文提出了一种名为CellVTA的创新方法,该方法通过引入基于CNN的适配器模块,将高分辨率空间特征注入到基于视觉Transformer的模型中,显著提升了细胞实例分割的精度。这一技术突破在多个基准...
Read MoreTransformer模型在自然语言处理和其他领域取得了显著的成功,而其核心之一是层归一化(Layer Normalization)。然而,最新的研究提出了一种替代方案:通过精心设计的tanh函数,可以在不依赖层归一化的情况下保持模型...
Read More