新闻中心
-
07-01开发者狂喜!Meta最新发布的LLM Compiler,实现77%自动调优效率Meta搞了个很牛的LLMCompiler,帮助程序员更高效地写代码。昨天,三大AI巨头OpenAI、Google、Meta组团发布自家大模型最新研究成果——O...
-
06-29谷歌「诚意之作」,开源9B、27B版Gemma2,主打高效、经济!性能翻倍的Gemma2,让同量级的Llama3怎么玩?AI赛道上,科技巨头们激烈角逐。前脚有GPT-4o问世,后脚就出现了Claude3.5Sonnet。如此激...
-
06-24为什么都放弃了LangChain?或许从诞生那天起,LangChain就注定是一个口碑两极分化的产品。看好LangChain的人欣赏它丰富的工具和组建和易于集成等特点,不看好LangChain的...
-
06-17星环科技孙元浩:语料已经是大模型最大的挑战「原来以为语料已经匮乏了,大模型训练已经没有语料了,实际上不是的,数据还远远没有跑光」。作为大数据领域超过十年的创业者,「星环科技」创始人及CEO孙元浩并不认同...
-
06-06LLM | Yuan 2.0-M32:带注意力路由的专家混合模型图片一、结论写在前面Yuan+2.0-M32是一种基础架构,与Yuan-2.0+2B相似,采用了一个包含32位专家的专家混合架构。其中2位专家处于活跃状态。提出...
-
06-05扩散模型的技术原理和应用价值引言一、扩散模型的基本概念扩散模型(DiffusionModels)是一种基于概率论的生成模型,最初源自物理学中的扩散过程理论,比如墨水在水中的扩散过程。在机器...

