新闻中心
-
05-27全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐LLM方面,一种有效的方法是根据人类反馈的...
-
05-27DiffMap:首个利用LDM来增强高精地图构建的网络论文标题:DiffMap:EnhancingMapSegmentationwithMapPriorUsingDiffusionModel论文作者:PeijinJ...
-
05-25Meta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTAGPT-4o的横空出世,再次创立了一个多模态模型发展的新范式!为什么这么说?OpenAI将其称为「首个『原生』多模态」模型,意味着GPT-4o与以往所有的模型,...
-
05-24HuggingFace教你怎样做出SOTA视觉模型前有OpenAI的GPT-4o,后有谷歌的系列王炸,先进的多模态大模型接连炸场。其他从业者在震撼之余,也再次开始思考怎么追赶这些超级模型了。在这篇Hugging...
-
05-24Karpathy称赞,从零实现LLaMa3项目爆火,半天1.5k star一个月前,Meta+发布了开源大模型llama3系列,在多个关键基准测试中优于业界SOTA模型,并在代码生成任务上全面领先。此后,开发者们便开始了本地部署和实现...
-
05-24谷歌Gemini 1.5技术报告:轻松证明奥数题,Flash版比GPT-4 Turbo快5倍今年2月,谷歌上线了多模态大模型Gemini1.5,通过工程和基础设施优化、MoE架构等策略大幅提升了性能和速度。拥有更长的上下文,更强推理能力,可以更好地处理...

