新闻中心
-
06-04ICML2025高分!魔改注意力,让小模型能打两倍大的模型改进Transformer核心机制注意力,让小模型能打两倍大的模型!ICML+2024高分论文,彩云科技团队构建DCFormer框架,替代Transformer...
-
05-07微调和量化竟会增加越狱风险!Mistral、Llama等无一幸免大模型又又又被曝出安全问题!近日,来自EnkryptAI的研究人员发表了令人震惊的研究成果:量化和微调竟然也能降低大模型的安全性!论文地址:https://ar...
-
05-06ICLR 2025 Spotlight | NoiseDiffusion: 矫正扩散模型噪声,提高插值图片质量作者|PengfeiZheng单位|USTC,HKBUTMLRGroup近年来,生成AI的迅猛发展为文本到图像生成、视频生成等令人瞩目的领域注入了强大的动力。这...
-
04-22超越BEVFusion!DifFUSER:扩散模型杀入自动驾驶多任务(BEV分割+检测双SOTA)写在前面&笔者的个人理解目前,随着自动驾驶技术的越发成熟以及自动驾驶感知任务需求的日益增多,工业界和学术界非常希望一个理想的感知算法模型,可以同时完成三...
-
04-22CVPR 2025 | 字节提出新一代数据集COCONut,比COCO粒度分割更密集AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
04-13改变LoRA的初始化方式,北大新方法PiSSA显著提升微调效果随着大模型的参数量日益增长,微调整个模型的开销逐渐变得难以接受。因此,北京大学的研究团队提出了一种名为PiSSA的参數高效微调方法,在主流数据集上都超过了目前广...

