新闻中心
-
01-04A800显著超越Llama2推理RTX3090与4090,表现优异的延迟和吞吐量大型语言模型(LLM)在学界和业界都取得了巨大的进展。但训练和部署LLM非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速LLM预训练、微调和推...
-
01-03探索空中出租车:NASA无人机测试自动飞行技术通过在小型无人机上测试大型载客空中出租车的自动飞行技术,我们可以观察它们如何避开彼此和其他障碍物,这是一种更安全和经济的做法。我们可以在小型无人机上安装软件,用...
-
01-02扩散模型与NeRF结合,清华文生提出3D新方法达到SOTA用文字合成3D图形的AI模型,又有了新的SOTA!近日,清华大学刘永进教授课题组提出了一种基于扩散模型的文生3D新方式。无论是不同视角间的一致性,还是与提示词的...
-
12-28Transformer模型降维减少,移除90%以上特定层的组件时,LLM性能保持不变在大型模型时代,Transformer独自支撑起了整个科研领域。自从发布以来,基于Transformer的语言模型在各种任务上展现出了出色的性能,在自然语言建模...
-
12-21CMU进行详细比较研究,发现GPT-3.5比Gemini Pro更优,确保公平透明可重复性谷歌Gemini的实力究竟如何?卡内基梅隆大学进行了一项专业客观的第三方比较为保证公平,所有模型使用相同的提示和生成参数,并且提供可重复的代码和完全透明的结果。...
-
12-20对Gemini进行全面评估:从CMU到GPT 3.5 Turbo,Gemini Pro失利谷歌的Gemini到底有多重?和OpenAI的GPT模型相比如何表现?CMU这篇论文对此有清楚的测量结果前段时间,谷歌发布了对标OpenAIGPT模型的竞品&a...

