新闻中心
-
12-15Mamba带火的SSM受到苹果和康奈尔的关注:抛弃注意力分散模型康奈尔大学与苹果最新研究得出结论:为了用更少的算力生成高分辨率图像,可以不使用注意力机制众所周知,注意力机制是Transformer架构的核心组件,对于高质量的...
-
12-14新标题:实时渲染进化!基于射线的三维重建创新方法图片论文链接:https://arxiv.org/pdf/2310.19629代码链接:https://github.com/vLAR-group/RayDF主...
-
12-14扩散一切?3DifFusionDet:扩散模型杀进LV融合3D目标检测!笔者的个人理解近年来,扩散模型在生成任务上非常成功,自然而然被扩展到目标检测任务上,它将目标检测建模为从噪声框(noisyboxes)到目标框(objectbo...
-
12-05不到1000行代码,PyTorch团队让Llama 7B提速10倍PyTorch团队亲自教你如何加速大模型推理。在过去的一年里,生成式AI发展迅猛,在这当中,文本生成一直是一个特别受欢迎的领域,很多开源项目如llama.cpp...
-
12-04新标题:北京大学开创新纪元:类别级6D物体位姿估计新范式在NeurIPS 2025取得最新最佳结果北京大学的研究人员提出了一种新的类别级6D物体位姿估计方法,这是一个基础且重要的问题,广泛应用于机器人、虚拟现实和增强现实等领域。他们在这篇论文中取得了新的SO...
-
12-04不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了这是作者SebastianRaschka经过数百次实验得出的经验,值得一读。增加数据量和模型的参数量是公认的提升神经网络性能最直接的方法。目前主流的大模型的参数...

