新闻中心
-
03-05Claude3给GPT4上了一课!Open AI最强对手深夜炸弹,附全图解析!出品|51CTO技术栈(微信号:blog51cto)深夜,OpenAI最强对手Anthropic一口气发布了三个SOTA新品,其中包括:Claude3Haiku...
-
02-15三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5该团队的新模型在多个基准测试中都与GeminiPro、GPT-3.5相媲美。如果你经常读AI大模型方向的论文,YiTay想必是一个熟悉的名字。作为前谷歌大脑高级...
-
02-07通义千问再开源,Qwen1.5带来六种体量模型,性能超越GPT3.5赶在春节前,通义千问大模型(Qwen)的1.5版上线了。今天上午,新版本的消息引发了AI社区关注。新版大模型包括六个型号尺寸:0.5B、1.8B、4B、7B、1...
-
02-07无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式背景大语言模型(LLMs)虽展现出了强大的能力,但也可能产生不可预测和有害的输出,例如冒犯性回应、虚假信息和泄露隐私数据,给用户和社会造成伤害。确保这些模型的行...
-
01-26回顾NeurIPS 2025: 清华ToT推动大型模型成为焦点近日,作为美国前十的科技博客,LatentSpace对于刚刚过去的NeurIPS2023大会进行了精选回顾总结。在NeurIPS会议中,共有3586篇论文被接受...
-
01-23自我奖励下的大型模型:Llama2通过Meta学习自行优化,超越GPT-4的性能人工智能的反馈(AIF)要代替RLHF了?大模型领域中,微调是改进模型性能的重要一步。随着开源大模型逐渐变多,人们总结出了很多种微调方式,其中一些取得了很好的效...

