新闻中心
-
01-04A800显著超越Llama2推理RTX3090与4090,表现优异的延迟和吞吐量大型语言模型(LLM)在学界和业界都取得了巨大的进展。但训练和部署LLM非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速LLM预训练、微调和推...
-
11-28规模小、效率高:DeepMind推出多模态解决方案Mirasol 3B多模态学习面临的主要挑战之一是需要融合文本、音频、视频等异构的模态,多模态模型需要组合不同来源的信号。然而,这些模态具有不同的特征,很难通过单一模型来组合。例如...
-
10-21参数少近一半,性能逼近谷歌Minerva,又一个数学大模型开源了如今,在各种文本混合数据上训练出来的语言模型会显示出非常通用的语言理解和生成能力,可以作为基础模型适应各种应用。开放式对话或指令跟踪等应用要求在整个自然文本分布...
-
10-11新标题:ADAPT:端到端自动驾驶可解释性的初步探索本文经自动驾驶之心公众号授权转载,转载请联系出处。笔者的个人思考端到端是今年非常火的一个方向,今年的CVPRbestpaper也颁给了UniAD,但端到端同样也...
-
07-14大语言模型的视觉天赋:GPT也能通过上下文学习解决视觉任务当前,大型语言模型(LLM)已经掀起自然语言处理(NLP)领域的变革浪潮。我们看到LLM具备强大的涌现能力,在复杂的语言理解任务、生成任务乃至推理任务上都表现优...
-
07-11将上下文长度扩展到256k,无限上下文版本的LongLLaMA来了?今年2月,Meta发布的LLaMA大型语言模型系列,成功推动了开源聊天机器人的发展。因为LLaMA比之前发布的很多大模型参数少(参数量从70亿到650亿不等),...

