新闻中心
-
04-19六年种方式快速体验最新发布的 Llama 3!昨晚Meta发布了Llama38B和70B模型,Llama3指令调整模型针对对话/聊天用例进行了微调和优化,在常见基准测试中优于许多现有的开源聊天模型。比如,G...
-
04-18Meta无限长文本大模型来了:参数仅7B,已开源谷歌之后,Meta也来卷无限长上下文。Transformers的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力力和状态空间模型等次二次解...
-
03-15Meta新增两大万卡集群,投入近50000块英伟达H100 GPUMeta日前推出两个功能强大的GPU集群,用于支持下一代生成式AI模型的训练,包括即将推出的Llama3。据报道,这两个数据中心都配备了高达24,576块GPU...
-
01-31小扎官宣Code Llama重量级更新,新增70B版本,但还有能力限制功能更强大的CodeLlama70B模型来了。今天,Meta正式发布CodeLlama70B,这是CodeLlama系列有史以来最大、性能最好的型号。我们正在开...
-
01-23自我奖励下的大型模型:Llama2通过Meta学习自行优化,超越GPT-4的性能人工智能的反馈(AIF)要代替RLHF了?大模型领域中,微调是改进模型性能的重要一步。随着开源大模型逐渐变多,人们总结出了很多种微调方式,其中一些取得了很好的效...
-
11-22PyTorch团队重新实现“分割一切”模型,速度比原始实现提升八倍从年初到现在,生成式AI发展迅猛。但很多时候,我们又不得不面临一个难题:如何加快生成式AI的训练、推理等,尤其是在使用PyTorch的情况下。本文PyTorch...

