新闻中心
-
03-15LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力合成数据持续解锁大模型的数学推理潜力!数学问题解决能力一直被视为衡量语言模型智能水平的重要指标。通常只有规模极大的模型或经过大量数学相关预训练的模型才能有机会在...
-
03-08清华姚班本科生连发两作,十年来最大改进:矩阵乘法接近理论最优通过消除「隐藏的低效」问题,计算机科学家提出了一种比以往更快的大型矩阵相乘新方法。矩阵乘法作为众多GPU算子的基础操作,在高性能计算中扮演着重要角色,也是AI等...
-
03-07ICLR 2025 Spotlight | 大语言模型权重、激活的全方位低bit可微量化,已集成进商用APP模型量化是模型压缩与加速中的一项关键技术,其将模型权重与激活值量化至低bit,以允许模型占用更少的内存开销并加快推理速度。对于具有海量参数的大语言模型而言,模型...
-
03-05CVPR 2025满分论文:浙大提出基于可变形三维高斯的高质量单目动态重建新方法单目动态场景(MonocularDynamicScene)是指使用单眼摄像头观察和分析的动态环境,其中物体可以在场景中自由移动。单目动态场景重建在理解环境中的动...
-
03-01吞吐量提升5倍,联合设计后端系统和前端语言的LLM接口来了大型语言模型(LLM)被广泛应用于需要多个链式生成调用、高级提示技术、控制流以及与外部环境交互的复杂任务。尽管如此,目前用于编程和执行这些应用程序的高效系统却存...
-
02-29数量即力量!腾讯揭秘:Agent数量越多,大语言模型效果越好腾讯的研究团队进行了一项关于agent的可拓展性的研究。他们发现,通过简单的采样投票,大型语言模型(LLM)的性能随着实例化agent数量的增加而增强。这项研究...

