新闻中心
-
09-05第一个100%开源的MoE大模型,7B的参数,1B的推理成本训练代码、中间checkpoint、训练日志和训练数据都已经开源。尽管大语言模型(LM)在各种任务上取得了重大进展,但在训练和推理方面,性能和成本之间仍然需要权...
-
08-06算法、系统和应用,三个视角全面读懂混合专家(MoE)LLM很强,而为了实现LLM的可持续扩展,有必要找到并实现能提升其效率的方法,混合专家(MoE)就是这类方法的一大重要成员。最近,各家科技公司提出的新一代大模型...
-
07-26英伟达对话模型ChatQA进化到2.0版本,上下文长度提到128K开放LLM社区正是百花齐放、竞相争鸣的时代,你能看到Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340...
-
07-19贾佳亚团队联手剑桥清华等共推评测新范式 一秒侦破大模型“高分低能”颠覆过往大模型评测标准,最新、最全、最权威的测评数据集MR-Ben来了!这是继今年4月发布堪称GPT-4+DALL-E-3的王炸产品超强视觉语言模型Mini-G...
-
07-17Mistral AI两连发:7B数学推理专用、Mamba2架构代码大模型网友很好奇,Mathstral能不能搞定「9.11和9.9谁大」这一问题。昨天,AI圈竟然被「9.11和9.9谁大」这样简单的问题攻陷了,包括OpenAIGPT...
-
07-12首届AI奥数竞赛方案公布:4支获奖队伍,竟都选择国产模型DeepSeekMath获胜的AI数学奥林匹克模型出炉!几天前,随着榜单的公布,大家对全球首届AI数学奥林匹克竞赛(AIMO)进步奖的讨论量居高不下。这次比赛共有5个团队胜出,获得第一...

