新闻中心
-
05-03Transformer要变Kansformer?用了几十年的MLP迎来挑战者KANMLP(多层感知器)用了几十年了,真的没有别的选择了吗?多层感知器(MLP),也被称为全连接前馈神经网络,是当今深度学习模型的基础构建块。MLP的重要性无论怎样...
-
04-24CVPR 2025 | 基于MoE的通用图像融合模型,添加2.8%参数完成多项任务AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
04-23牛津大学最新!Mickey:3D中的2D图像匹配SOTA!(CVPR'24)写在前面项目链接:https://nianticlabs.github.io/mickey/给定两张图片,可以通过建立图片之间的对应关系来估计它们之间的相机姿态...
-
04-23基于Transformer的高效单阶段短时RGB-T单目标跟踪方法引言如图1所示,现有的三阶段RGB-T单目标跟踪网络通常采用两个独立的特征提取分支,分别负责提取两个模态的特征。然而,相互独立的特征提取分支会导致两个模态在特征...
-
04-18综述!深度模型融合(LLM/基础模型/联邦学习/微调等)23年9月国防科大、京东和北理工的论文“DeepModelFusion:ASurvey”。深度模型融合/合并是一种新兴技术,它将多个深度学习模型的参数或预测合并...
-
04-18Meta无限长文本大模型来了:参数仅7B,已开源谷歌之后,Meta也来卷无限长上下文。Transformers的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力力和状态空间模型等次二次解...

