新闻中心
-
07-09单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速微软的这项研究让开发者可以在单卡机器上以10倍的速度处理超过1M的输入文本。大型语言模型(LLM)已进入长上下文处理时代,其支持的上下文窗口从先前的128K猛增...
-
07-09几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4DAIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
07-06LLM用于时序预测真的不行,连推理能力都没用到语言模型真的能用于时序预测吗?根据贝特里奇头条定律(任何以问号结尾的新闻标题,都能够用「不」来回答),答案应该是否定的。事实似乎也果然如此:强大如斯的LLM并不...
-
07-01ICML 2025| 大语言模型助力基于CLIP的分布外检测任务当训练数据集和测试数据集的分布相同时,机器学习模型可以表现出优越的性能。然而在开放世界环境中,模型经常会遇到分布外(Out-of-Distribution,OO...
-
07-01开发者狂喜!Meta最新发布的LLM Compiler,实现77%自动调优效率Meta搞了个很牛的LLMCompiler,帮助程序员更高效地写代码。昨天,三大AI巨头OpenAI、Google、Meta组团发布自家大模型最新研究成果——O...
-
06-26ICML 2025 | 信号表征指数级强、内存节省超35%,量子隐式表征网络来了AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...

