漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-07-26 talkingdev

我们的奥本海默时刻:AI武器的诞生

本文通过比较核武器的开发和高级AI技术的发展,探讨了AI可能的危险用途所面临的道德十字路口。作者对停止这些开发提出了反对的观点,认为通过强大的技术架构和监管框架可以管理风险。他们强调了利用AI技术进步保持硬...

Read More
2023-07-24 talkingdev

风险投资家利用ChatGPT为儿子应对AI未来

著名风险投资家马克·安德森(Marc Andreessen)正使用OpenAI的ChatGPT来教育他的儿子,以使他更好地了解这个世界,并为AI未来做好准备。安德森对AI持积极态度,强调其在提高学习和生产效率方面具有巨大潜力。他认为...

Read More
2023-07-21 talkingdev

AI巨头自愿承诺实施AI安全防护措施

近日,包括微软、谷歌和OpenAI在内的科技巨头纷纷响应白宫号召,自愿为其人工智能技术实施安全防护措施,包括独立测试和应对社会风险。这一承诺将一直有效,直至国会正式颁布人工智能法规。这一做法旨在确保AI技术的...

Read More
2023-07-21 talkingdev

微软与Meta扩展AI合作,将Llama 2带入Azure和Windows

微软与Meta宣布在Azure和Windows上支持Llama 2,一个大型语言模型家族。这是Llama 2首次商业化发布。该合作使得开发者可以在Azure上构建、微调和部署基于Llama 2的模型,同时还可以针对Windows本地使用进行优化。此...

Read More
2023-07-18 talkingdev

语言模型在道德推理方面的表现不佳

近期,一些硅谷的大思考家们辩称,人工智能并不会构成重大风险,因为他们认为道德推理的能力会随着技术能力的提高而提高。然而,一篇最新的论文对这一观点提出了具体的反驳,该论文显示,现代语言模型在进行道德推理...

Read More
2023-07-13 talkingdev

比尔·盖茨:AI带来的风险是真实的,但可控的

人工智能可能会影响就业率,甚至可能影响选举结果,乃至人类的未来。这些威胁需要我们认真对待,但这并不是第一次重大创新带来需要我们控制的新威胁。人们总是能够在其他变革时刻适应并最终获得更好的结果。对新事物...

Read More
2023-07-11 talkingdev

从基本原理看AGI:OpenAI致力于“超级对齐”,人工智能对齐的必要性及风险

最近,OpenAI宣布将把大部分资源用于“超级对齐”,这使我们有必要重新审视人工智能对齐社区的一个重要观点——对齐的必要性以及人工智能(AGI)可能带来的真正风险。OpenAI是一个致力于人工智能技术的研发机构,他们的...

Read More
2023-07-05 talkingdev

新论文:预测自杀风险,一种多任务学习方法

这项研究引入了一种新的模型,用于预测双相情感障碍患者的自杀风险。该模型使用这些帖子中的症状,了解哪些症状对于预测未来的自杀风险最具影响力,帮助医生更好地了解这些患者并及时提供帮助。

Read More
  1. Prev Page
  2. 14
  3. 15
  4. 16
  5. Next Page