新闻中心
-
02-19撞车DeepSeek NSA,Kimi杨植麟署名的新注意力架构MoBA发布,代码也公开月之暗面发布MoBA注意力机制,高效处理超长文本!近日,月之暗面团队公开了一种名为MoBA(MixtureofBlockAttention,块注意力混合)的全新...
-
02-17AI无法攻克的235道谜题!让o1、Gemini 2.0 Flash Thinking集体挂零最新研究揭示大语言模型推理能力的局限性:ENIGMAEVAL基准测试结果ScaleAI、CenterforAISafety和MIT的研究人员联合发布了新的多模态...
-
02-17首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight加州大学伯克利分校吴梓阳博士及其团队提出了一种新型Transformer架构——TokenStatisticsTransformer(ToST),其核心是线性时...
-
02-16真假难辨!阿里升级AI人像视频生成,表情动作直逼专业水准阿里巴巴通义实验室的最新研究成果EMO2,实现了仅需一张肖像照片和任意长度音频,即可生成高度逼真、感染力十足的AI人像视频。该技术突破了以往音频驱动人像视频生成...
-
02-15DeepSeek R1不编程就能生成GPU内核,比熟练工程师好,惊到了英伟达英伟达利用DeepSeek-R1自动生成优化GPU内核,引发AI社区热议。这项研究利用推理时扩展技术,让DeepSeek-R1模型在推理过程中分配额外计算资源,...
-
02-15炒菜、雕刻、绘画、汽车人变形!MakeAnything用扩散Transformer解锁多任务过程生成新加坡国立大学ShowLab的研究成果MakeAnything,让AI学会了分步骤创作!这项突破性研究,通过巧妙结合DiffusionTransformer(D...

