新闻中心
-
08-08错误率从10%降至0.01%,领英全面分享LLM应用落地经验随着大型语言模型(LLM)技术日渐成熟,各行各业加快了LLM应用落地的步伐。为了改进LLM的实际应用效果,业界做出了诸多努力。近期,领英(LinkedIn)团队...
-
08-0570倍极致压缩!大模型的检查点再多也不怕AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
08-01arXiv论文可以发「弹幕」了,斯坦福alphaXiv讨论平台上线,LeCun点赞干杯!当论文讨论细致到词句,是什么体验?最近,斯坦福大学的学生针对arXiv论文创建了一个开放讨论论坛——alphaXiv,可以直接在任何arXiv论文之上发布...
-
08-01CMU&清华新作:让LLM自己合成数据来学习,特定任务性能同样大幅提升AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
07-28ECCV 2025|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
07-25TPAMI 2025 | ProCo: 无限contrastive pairs的长尾对比学习AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...

