新闻中心
-
01-13减少Transformer秩数以提高性能,同时保持移除特定层90%以上组件LLM不减少麻省理工学院和微软进行了联合研究,发现不需要额外的训练即可提升大型语言模型的任务性能,并减小其大小在大型模型时代,Transformer以其独特的能力支撑起整个...
-
01-12基于双任务的端到端无模板反应预测模型重新排版|X本文旨在介绍西南交通大学杨燕/江永全团队在《应用智能》杂志上发表的研究成果,其中的第一作者是胡昊哲,一位硕士生论文链接:https://doi.or...
-
01-12顺着网线爬过来成真了,Audio2Photoreal通过对话就能生成逼真表情与动作当你和朋友隔着冷冰冰的手机屏幕聊天时,你得猜猜对方的语气。当Ta发语音时,你的脑海中还能浮现出Ta的表情甚至动作。如果能视频通话显然是最好的,但在实际情况下并不...
-
01-11阿里mPLUG-Owl新升级,鱼与熊掌兼得,模态协同实现MLLM新SOTAOpenAIGPT-4V和GoogleGemini都展现了非常强的多模态理解能力,推动了多模态大模型(MLLM)快速发展,MLLM成为了现在业界最热的研究方向。...
-
01-10超越SOTA的MapEX:令人惊叹的性能提升和无图感知技术写在前面&笔者的个人理解看完这篇文章,会有一种无图感知到头了的错觉???刚刚出炉的MapEX,迫不及待的吸取了一波文章精华,顺便分享给大家。MapEX的...
-
01-08新技术Repaint123:高效地生成优质的单视图3D,仅需2分钟!将一幅图像转换为3D的方法通常采用ScoreDistillationSampling(SDS)的方法,尽管结果令人印象深刻,但仍然存在多个不足之处,包括多视角不...

