新闻中心
-
06-20吴恩达团队新作:多模态多样本上下文学习,无需微调快速适应新任务AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传...
-
01-31大模型时代,南大周志华埋头做学件,最新论文上线机器学习在各个领域都取得了巨大的成功,并且不断涌现出大量优质的机器学习模型。然而,对于普通用户来说,要找到适合自己任务的模型并不容易,更不用说从零开始构建新模型...
-
01-23PEFT参数优化技术:提高微调效率的探索PEFT(ParameterEfficientFine-tuning)是一种优化深度学习模型微调过程的参数高效技术,旨在在有限的计算资源下实现高效微调。研究人员...
-
01-22无模型元学习算法——MAML元学习算法元学习(Meta-learning)是指探索学习如何学习的过程,通过从多个任务中提取共同特征,以便快速适应新任务。与之相关的模型无关的元学习(Model-Agn...
-
01-22大型语言模型训练中的迁移学习应用及常见技术大型语言模型是指参数超过一亿的自然语言处理模型。由于其庞大的规模和复杂性,训练这样的模型需要大量计算资源和数据。因此,迁移学习成为训练大型语言模型的重要方法,通...
-
01-22理解迁移学习的策略、步骤、区别和概念迁移学习是一种利用已有机器学习任务中的训练模型来解决新任务的方法。它通过将已有模型的知识迁移到新任务中,能够减少新任务所需的训练数据量。近年来,迁移学习在自然语...

