新闻中心
-
04-18Meta无限长文本大模型来了:参数仅7B,已开源谷歌之后,Meta也来卷无限长上下文。Transformers的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力力和状态空间模型等次二次解...
-
04-11编程的“Devin AI 时代”,软件开发者的喜与忧作者|KeithPitt编译|伊风出品|51CTO技术栈(微信号:blog51cto)这篇文章的作者基思-皮特(KeithPitt),是一家软件开发公司Buil...
-
04-07二次元专用超分AI模型APISR:在线可用,入选CVPR动漫作品如《龙珠》、《神奇宝贝》、《新世纪福音战士》等上个世纪开播的动漫是许多人童年回忆的一部分,它们曾给我们带来了充满了热血、友情与梦想的视觉之旅。某些时候,...
-
02-04史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训多年来,语言模型一直是自然语言处理(NLP)技术的核心。鉴于模型背后的商业价值巨大,最先进模型的技术细节一直未公开。现在,真·完全开源的大模型来了!来自艾伦人工...
-
01-31大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增大型语言模型(LLM)通常拥有数十亿参数,经过数万亿token的数据训练。然而,这样的模型训练和部署成本都非常昂贵。为了降低计算需求,人们常常采用各种模型压缩技...
-
01-26ICLR为什么没有接受Mamba论文?AI社区掀起了大讨论2023年,AI大模型领域的统治者Transformer的地位开始受到挑战。一种新的架构名为「Mamba」崭露头角,它是一种选择性状态空间模型,在语言建模方面与...

