新闻中心
-
02-26用扩散模型生成网络参数,LeCun点赞尤洋团队新研究如果你有被Sora生成的视频震撼到,那你就已经见识过扩散模型在视觉生成方面的巨大潜力。当然,扩散模型的潜力并不止步于此,它在许多其它不同领域也有着让人期待的应用...
-
02-15谷歌提出全新RLHF方法:消除奖励模型,且无需对抗性训练效果更稳定,实现更简单。大型语言模型(LLM)的成功离不开「基于人类反馈的强化学习(RLHF)」。RLHF可以大致可以分为两个阶段,首先,给定一对偏好和不偏好的...
-
02-02大模型也有小偷?为保护你的参数,上交大给大模型制作「人类可读指纹」将不同的基模型象征为不同品种的狗,其中相同的「狗形指纹」表明它们源自同一个基模型。大模型的预训练需要耗费大量的计算资源和数据,因此预训练模型的参数成为各大机构重...
-
01-29何恺明和谢赛宁团队成功跟随解构扩散模型探索,最终创造出备受赞誉的去噪自编码器去噪扩散模型(DDM)是目前广泛应用于图像生成的一种方法。最近,XinleiChen、ZhuangLiu、谢赛宁和何恺明四人团队对DDM进行了解构研究。通过逐步...
-
01-23自我奖励下的大型模型:Llama2通过Meta学习自行优化,超越GPT-4的性能人工智能的反馈(AIF)要代替RLHF了?大模型领域中,微调是改进模型性能的重要一步。随着开源大模型逐渐变多,人们总结出了很多种微调方式,其中一些取得了很好的效...
-
01-16释放绝佳的编程资源,巨型模型和智能体将引发更强劲的力量正如瑞斯福兹魔杖缔造了诸如邓布利多在内的历代非凡魔法师的传奇,具有巨大潜能的传统大型语言模型,在经过代码语料的预训练/精调后,掌握了更超出本源的执行力。具体来说...

