新闻中心
-
08-08PRO | 为什么基于 MoE 的大模型更值得关注?2023年,几乎AI的每个领域都在以前所未有的速度进化,同时,AI也在不断地推动着具身智能、自动驾驶等关键赛道的技术边界。多模态趋势下,Transformer作...
-
08-06算法、系统和应用,三个视角全面读懂混合专家(MoE)LLM很强,而为了实现LLM的可持续扩展,有必要找到并实现能提升其效率的方法,混合专家(MoE)就是这类方法的一大重要成员。最近,各家科技公司提出的新一代大模型...
-
07-25精准狙击Llama 3.1?Mistral AI开源Large 2,123B媲美Llama 405BAI竞赛正以前所未有的速度加速,继Meta昨天推出其新的开源Llama3.1模型之后,法国AI初创公司MistralAI也加入了竞争。刚刚,MistralAI宣...
-
07-17Mistral AI两连发:7B数学推理专用、Mamba2架构代码大模型网友很好奇,Mathstral能不能搞定「9.11和9.9谁大」这一问题。昨天,AI圈竟然被「9.11和9.9谁大」这样简单的问题攻陷了,包括OpenAIGPT...
-
05-30速度秒掉GPT-4o、22B击败Llama 3 70B,Mistral AI开放首个代码模型对标OpenAI的法国AI独角兽MistralAI有了新动作:首个代码大模型Codestral诞生了。作为一个专为代码生成任务设计的开放式生成AI模型,Code...
-
05-24李彦宏欧洲谈AI:比起GPT-5,我更感兴趣超级应用中固AI与西方的最大区别是应用。中国有数百个基础模型,但人们越来越多地在讨论什么是AI时代的超级应用。应用正在驱动中的AI的快速发展。应用领域的进步可以推动基础...

