新闻中心
-
01-16大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws腾讯混元团队揭示大模型浮点量化训练规律,找到最佳性价比配置大模型低精度训练和推理是降低成本的关键方向,而浮点量化因其损耗小而备受关注。然而,现有整数量化经验能否...
-
01-16生成越长越跑偏?浙大商汤新作StarGen让场景视频生成告别「短片魔咒」浙江大学和商汤科技的研究人员提出了一种名为StarGen的新型时空自回归框架,用于实现可扩展且可控的场景生成。该框架巧妙地结合了空间和时间双重条件机制,将稀疏视...
-
01-10一行代码Post-Train任意长序列!360智脑开源360-LLaMA-FactoryAIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
01-06港科大开源VideoVAE+,视频重建质量全面超越最新模型港科大团队开源高效视频压缩重建模型VideoVAE+,该模型在保持时间一致性和运动恢复的同时,实现了对大幅运动视频的高效压缩与精准重建。AIxiv专栏持续报道全...
-
01-05低精度只适用于未充分训练的LLM?腾讯提出LLM量化的scaling lawsAIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
12-31把RLHF带给VLA模型!通过偏好对齐来优化机器人策略,代码已开源GRAPE:通过偏好对齐提升机器人策略泛化能力AIxiv专栏持续报道全球顶尖AI研究成果。本文介绍一篇来自北卡罗来纳大学教堂山分校、华盛顿大学及芝加哥大学的研究...

