新闻中心
-
04-02元象首个MoE大模型开源:4.2B激活参数,效果堪比13B模型元象发布XVERSE-MoE-A4.2B大模型,采用业界最前沿的混合专家模型架构(MixtureofExperts),激活参数4.2B,效果即可媲美13B模型。...
-
04-01「天工大模型3.0」4月17日正式发布——同步开源4000亿参数MoE超级模型,性能超Grok1.02023年4月17日,昆仑万维发布自研双千亿级大语言模型「天工1.0」正式奠定了国产大模型崛起之路。在即将到来的2024年4月17日,在「天工」大模型一周年之际...
-
03-30开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4Grok-1官宣开源不过半月,新升级的Grok-1.5出炉了。刚刚,马斯克xAI官宣,128K上下文Grok-1.5,推理能力大幅提升。并且,很快就会上线。11...
-
03-29马斯克大模型Grok1.5来了:推理能力大升级,支持128k上下文
-
03-253140参数Grok-1推理加速3.8倍,PyTorch+HuggingFace版来了马斯克说到做到开源Grok-1,开源社区一片狂喜。但基于Grok-1做改动or商用,都还有点难题:Grok-1使用Rust+JAX构建,对于习惯Python+P...
-
02-15三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5该团队的新模型在多个基准测试中都与GeminiPro、GPT-3.5相媲美。如果你经常读AI大模型方向的论文,YiTay想必是一个熟悉的名字。作为前谷歌大脑高级...

