漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-01 talkingdev

EvoEval:全新代码基准测试套件,全面提升大型语言模型编程能力评估

EvoEval是一套全新的基准测试工具,专为评估大型语言模型(LLMs)的编码能力而设计。该测试套件采用了比以往更加严格的测试标准,以确保对LLMs编程能力的全面检测。EvoEval的发布意味着开发者和研究人员现在可以更准...

Read More
2024-03-28 talkingdev

通过街头霸王游戏测试基准语言模型

语言模型(LLMs)的实用性在于其速度、准确性以及遵循指令的能力。这三个特性使得通过文本输入控制的街头霸王模拟器成为了衡量不同模型在这三个方面表现的绝佳方式。GitHub上的一个项目通过这种方式为LLMs提供了一个...

Read More
2024-03-27 talkingdev

人工智能模型Claude-3展现特殊智能,超越人类智商

近期,由Anthropic开发的最新人工智能模型Claude-3在高级认知任务上的表现超越了普通人类智商,并且在某些领域胜过了业界知名的GPT-4模型。然而,尽管在这些复杂任务上表现出色,Claude-3在处理一些人类认为简单的谜...

Read More
2024-03-21 talkingdev

利用LLM生成随机模糊测试工具

像Claude这样的大型语言模型(LLMs)能够为解析代码生成有效的模糊测试工具,这一过程传统上需要大量的人力投入。尽管LLMs通常在精确度上不足以进行静态分析,但它们似乎非常适合创建模糊测试工具,因为模糊测试的随机...

Read More
2024-03-20 talkingdev

人工智能发展遇瓶颈?GPT-4等大型语言模型显现收益递减

近期研究表明,人工通用智能(AGI)的发展可能并未如预期那般顺利。尽管投入了更多的资源,像GPT-4这样的大型语言模型(LLMs)却表现出硬件扩展的极限,收益递减的现象。这意味着,随着模型规模的扩大,其性能提升的...

Read More
2024-03-18 talkingdev

kapa.ai助力技术文档优化,提升LLMs使用体验

kapa.ai近期发布了针对LLMs(大型语言模型)的技术文档结构优化建议。该建议强调了清晰的文档层级结构、按子产品细分内容、包含故障排除常见问题解答、嵌入独立完整的代码片段以及建立社区论坛的重要性。这些建议旨...

Read More
2024-03-15 talkingdev

Skyvern:基于LLMs和计算机视觉的浏览器自动化工具

近日,Skyvern项目在GitHub上发布,该项目利用LLMs和计算机视觉技术自动化浏览器流程。Skyvern提供了一个简单的API端点,可以完全自动化手动工作流程,替代脆弱或不可靠的自动化解决方案。其实现原理是利用LLMs提供...

Read More
2024-03-15 talkingdev

论文:探索LLMs的安全性

最近的一项研究中,研究人员利用名为'Evil Geniuses'的虚拟团队测试了LLMs的安全性。他们发现这些人工智能代理对恶意攻击的鲁棒性较差,提供更复杂的回复,使不当回复更难以检测。

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page