新闻中心
-
04-29小红书从记忆机制解读信息检索,提出新范式获得 EACL Oral近日,来自小红书搜索算法团队的论文《GenerativeDenseRetrieval:MemoryCanBeaBurden》被自然语言处理领域国际会议EACL2...
-
04-24自然语言处理(NLP)的工作原理本文早在揭开语言模型的神秘面纱,阐明其处理原始文本数据的基本概念和机制。它涵盖了几种类型的语言模型和大型语言模型,重点关注基于神经网络的模型。语言模型定义语言模...
-
04-24云端部署大模型的三个秘密编译|星璇出品|51CTO技术栈(微信号:blog51cto)在过去的两年里,我更多地参与了使用大型语言模型(LLMs)的生成AI项目,而非传统的系统。我开始怀...
-
04-12一文搞懂Tokenization!语言模型是对文本进行推理的,文本通常是字符串形式,但模型的输入只能是数字,因此需要将文本转换成数字形式。Tokenization是自然语言处理的基本任务,根据特...
-
03-07AI4Science的基石:几何图神经网络,最全综述来了!人大高瓴联合腾讯AI lab、清华、斯坦福等发布编辑|XSNature在2023年11月发表了两项重要研究成果:蛋白质合成技术Chroma和晶体材料设计方法GNoME。这两项研究都采用了图神经网络作为处理科学...
-
03-04模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分在目前的模型训练范式中,偏好数据的的获取与使用已经成为了不可或缺的一环。在训练中,偏好数据通常被用作对齐(alignment)时的训练优化目标,如基于人类或AI...

