新闻中心
-
03-27详解Latte:去年底上线的全球首个开源文生视频DiT随着Sora发布成功,视频DiT模型引起了广泛关注和讨论。设计稳定的超大规模神经网络一直是视觉生成领域研究的重点。DiT模型的成功为图像生成的规模化带来了新的可...
-
03-11用AI短视频「反哺」长视频理解,腾讯MovieLLM框架瞄准电影级连续帧生成在视频理解这一领域,尽管多模态模型在短视频分析上取得了突破性进展,展现出了较强的理解能力,但当它们面对电影级别的长视频时,却显得力不从心。因而,长视频的分析与理...
-
03-07ADMap:抗干扰在线高精地图新思路写在前面&笔者的个人理解很高兴受邀参加自动驾驶之心的活动,我们将分享在线重建矢量化高精度地图的抗扰动方法ADMap。你可以在https://github...
-
02-07无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式背景大语言模型(LLMs)虽展现出了强大的能力,但也可能产生不可预测和有害的输出,例如冒犯性回应、虚假信息和泄露隐私数据,给用户和社会造成伤害。确保这些模型的行...
-
01-29多个异构大模型的融合带来惊人效果随着LLaMA、Mistral等大语言模型的成功,许多公司开始创建自己的大语言模型。然而,从头训练新的模型成本高昂,且可能存在能力冗余。近日,中山大学和腾讯AI...
-
01-22BERT模型中使用了多少个Transformer层?BERT是一种使用Transformer作为网络结构的预训练语言模型。相较于循环神经网络(RNN),Transformer可以并行计算,能够有效处理序列数据。在...

