新闻中心
-
11-20「无需配对数据」就能学习!浙大等提出连接多模态对比表征C-MCR多模态对比表示(MCR)旨在将来自不同模态的输入编码到一个语义对齐的共享空间中随着视觉-语言领域中CLIP模型的巨大成功,越来越多的模态对比表征开始出现,并在许...
-
11-15S-LoRA:一个GPU运行数千大模型成为可能一般情况下,大型语言模型的部署通常采用"预训练-微调"的方式。然而,当对多个任务(如个性化助手)进行基础模型的微调时,训练和服务的成本会变得...
-
11-14ProAgent:OpenAI引领下的智能代理解放人力,清华等高校发布项目地址:https://github.com/OpenBMB/ProAgent论文地址:https://github.com/OpenBMB/ProAgent...
-
11-13全新近似注意力机制HyperAttention:对长上下文友好、LLM推理提速50%Transformer已经在自然语言处理、计算机视觉和时间序列预测等领域的各种学习任务中取得成功。虽然取得了成功,但是这些模型仍然面临着严重的可扩展性限制。原因...
-
11-10UniPAD:通用自动驾驶预训练模式!各类感知任务都可支持最近,新论文推陈出新的速度着实太快有点读不过来的感觉。可以看到的是,语言视觉多模态大模型融合已经是业界共识了,UniPad这篇文章就比较有代表性,多模态的输入,...
-
11-09开发者「第二大脑」来袭,GitHub Copilot更新,人类开发参与进一步减少是什么让AndrejKarpathy感慨,人类在软件开发过程中直接编写代码的贡献将越来越小,直接输入和监督作用将更加抽象化。最终,人类的角色将仅仅是进行基本的审...

