漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-14 talkingdev

基于RWKV可在本地运行的AI小镇开源

AI 小镇是一个令人惊叹的实验,在这里,数百个代理在语言模型的提示状态下过着日常生活。 RWKV 模型是一种线性语言模型,需要比标准 Transformer 更少的资源。此存储库使用这个更便宜的模型在您的本地计算机上运行 A...

Read More
2023-11-07 talkingdev

谷歌研究学者计划开放申请

谷歌的研究学者计划旨在为博士后研究人员提供机会,让他们加入一个资源充足的团队,继续他们的研究议程。该计划旨在培养和支持下一代科学家,从而推动科学界的创新和进步。申请人需要填写申请表格并提供简历、推荐信...

Read More
2023-11-03 talkingdev

MoE PEFT代码发布:Cohere AI的参数高效微调模型

Cohere AI的研究部门For AI开发了用于混合专家模型的参数高效微调方法,称为MoE PEFT。该算法可显著提高模型的微调效率,同时保持准确性。最近,该团队公开了该算法的GitHub代码库,为社区提供更多研究资源和工具。C...

Read More
2023-11-02 talkingdev

Llama指南:如何开始使用

本指南提供信息和资源,帮助您设置Llama,包括如何访问模型、托管以及如何和集成指南。Llama是一个开源的自然语言处理模型,可以用于文本分类、情感分析和实体识别等任务。使用Llama能够提高文本处理的效率和准确性...

Read More
2023-11-01 talkingdev

MicroTCP,一种极简的TCP/IP协议栈

近日,一种名为MicroTCP的TCP/IP协议栈引起了广泛关注。相比于其他协议栈,MicroTCP非常小巧,只有1000行代码,运行时内存占用也非常少。该协议栈是用C语言编写的,可用于嵌入式设备,尤其适合一些资源有限的设备。M...

Read More
2023-10-31 talkingdev

探索现代LLM应用程序架构

本篇博客旨在为读者提供构建第一个LLM应用程序所需的一切知识。它还介绍了一些读者今天可以开始探索的问题空间。本博客涵盖了LLM应用程序的新兴架构以及LLM的现实影响。提供了进一步阅读的资源

Read More
2023-10-30 talkingdev

论文:LLM-FP4,一种新型的LLM压缩方法

在最新的研究中,科学家们介绍了一种名为LLM-FP4的新型方法,该方法能够通过在训练后将大型语言模型的权重和活动转换为4位浮点值,实现对其进行压缩。这种技术的创新之处在于,它不仅能够显著减少模型的存储需求,还...

Read More
2023-10-27 talkingdev

OpenAI成立应对小组以防范AGI的风险

OpenAI成立了一支新的团队,专门处理AGI的前沿风险,如网络安全和核灾难。这个团队将利用OpenAI的技术知识和资源来评估和应对这些风险,以确保AGI的安全和可持续发展。据OpenAI的创始人Sam Altman表示,这个团队将成...

Read More
  1. Prev Page
  2. 19
  3. 20
  4. 21
  5. Next Page