新闻中心
-
11-1813B模型在与GPT-4的全面对决中占据优势?背后是否存在某些不寻常的情况?一个参数量为13B的模型竟然能击败顶级的GPT-4?就像下图所示,为了确保结果的有效性,这项测试还遵循了OpenAI的数据去噪方法,并且没有发现任何数据污染的证...
-
11-18实时文生图速度提升5-10倍,清华LCM/LCM-LoRA爆火,浏览超百万、下载超20万生成式模型进入「实时」时代?使用文生图和图生图已经不再是一件新鲜事了。然而,在使用这些工具的过程中,我们发现它们常常运行缓慢,导致我们需要等待一段时间才能获取生...
-
11-17谷歌推出Mirasol:30亿参数,将多模态理解扩展至长视频11月16日消息,谷歌公司近日发布新闻稿,介绍了小型人工智能模型Mirasol,可以回答有关视频的问题并创造新的记录。AI模型目前很难处理不同的数据流,如果要让...
-
11-15S-LoRA:一个GPU运行数千大模型成为可能一般情况下,大型语言模型的部署通常采用"预训练-微调"的方式。然而,当对多个任务(如个性化助手)进行基础模型的微调时,训练和服务的成本会变得...
-
11-14NeRF与自动驾驶的前世今生,近10篇论文汇总!神经辐射场(NeuralRadianceFields)自2020年被提出以来,相关论文数量呈指数增长,不但成为了三维重建的重要分支方向,也逐渐作为自动驾驶重要工...
-
11-13让大型AI模型自主提问:GPT-4打破与人类对话的障碍,展现更高水平的表现在最新的人工智能领域动态中,人工生成的提示(prompt)质量对大语言模型(LLM)的响应精度有着决定性影响。OpenAI提出的建议指出,精确、详细且具体的问题...

