漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-11 talkingdev

从零构建LLM系列第13篇:注意力机制的本质解析——注意力头其实很'笨'

知名开发者Giles Thomas在其技术博客中发表了《从零构建大型语言模型》系列的第13篇文章,深入探讨了Transformer架构中注意力机制的核心原理。文章通过逆向工程视角指出,传统认知中复杂的注意力头(attention heads...

Read More
2024-05-15 talkingdev

新指数函数使SiLU和SoftMax两倍更快,完全保持准确性

深度学习中的SiLU和SoftMax函数在许多任务中都是必不可少的,但它们的计算成本很高。为了改进这一点,来自华盛顿大学的研究人员提出了两个新的指数函数,可以将它们的速度提高2倍,同时完全保持准确性。这些函数分别...

Read More