新闻中心
-
04-16极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
04-13直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争不知Gemini1.5Pro是否用到了这项技术。谷歌又放大招了,发布下一代Transformer模型Infini-Transformer。Infini-Tran...
-
04-09CVPR 2025 | 分割一切模型SAM泛化能力差?域适应策略给解决了第一个针对「SegmentAnything」大模型的域适应策略来了!相关论文已被CVPR2024接收。引言大语言模型(LLMs)的成功激发了计算机视觉领域探索分...
-
04-08通义千问开源320亿参数模型,已实现7款大语言模型全开源4月7日消息,阿里云通知千问开源320亿参数模型Qwen1.5-32B,可最大限度兼顾性能、效率和内存占用的平衡,为企业和开发者提供更高性价比的模型选择。目前,...
-
03-30Attention isn’t all you need!Mamba混合大模型开源:三倍Transformer吞吐量Mamba时代来了?自2017年开创性研究论文《AttentionisAllYouNeed》问世以来,transformer架构就一直主导着生成式人工智能领域。...
-
03-29Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文之前引爆了AI圈的Mamba架构,今天又推出了一版超强变体!人工智能独角兽AI21Labs刚刚开源了Jamba,世界上第一个生产级的Mamba大模型!Jamba...

