新闻中心
-
02-07无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式背景大语言模型(LLMs)虽展现出了强大的能力,但也可能产生不可预测和有害的输出,例如冒犯性回应、虚假信息和泄露隐私数据,给用户和社会造成伤害。确保这些模型的行...
-
02-06三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法常用的优化语义分割模型的损失函数包括SoftJaccard损失、SoftDice损失和SoftTversky损失。然而,这些损失函数与软标签不兼容,因此无法支持...
-
02-04不分割成token,直接从字节中高效学习,Mamba原来还能这样用在定义语言模型时,常常使用基本的分词方法,将句子分为词、子词或字符。子词分词法一直以来都是最流行的选择,因为它在训练效率和处理词汇表外单词的能力之间取得了平衡。...
-
02-04图感知对比学习提升多变量时间序列分类效果这篇AAAI2024中的论文由新加坡科技研究局(A*STAR)和新加坡南洋理工大学合作发表,提出了一种利用图感知对比学习来改善多变量时间序列分类的方法。实验结果...
-
02-04像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍现有的大模型对齐方法包括基于示例的监督微调(SFT)和基于分数反馈的强化学习(RLHF)。然而,分数只能反应当前回复的好坏程度,并不能明确指出模型的不足之处。相...
-
02-01将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B大型视觉语言模型(LVLM)可以通过扩展模型来提高性能。然而,扩大参数规模会增加训练和推理成本,因为每个token的计算都会激活所有模型参数。来自北京大学、中山...

