新闻中心
-
01-18RoSA: 一种高效微调大模型参数的新方法随着语言模型扩展到前所未有的规模,对下游任务进行全面微调变得十分昂贵。为了解决这个问题,研究人员开始关注并采用PEFT方法。PEFT方法的主要思想是将微调的范围...
-
01-14利用知识图谱增强RAG模型的能力和减轻大模型虚假印象在使用大型语言模型(LLM)时,幻觉是一个常见问题。尽管LLM可以生成流畅连贯的文本,但其生成的信息往往不准确或不一致。为了防止LLM产生幻觉,可以利用外部的知...
-
01-05对大规模机器学习中幻觉缓解技术的综合研究大型语言模型(LLMs)是具有大量参数和数据的深度神经网络,能够在自然语言处理(NLP)领域实现多种任务,如文本理解和生成。近年来,随着计算能力和数据规模的提升...
-
12-14微软首次推出27亿参数的Phi-2模型,性能超过许多大型语言模型微软发布了一款名为Phi-2的人工智能模型,该模型表现出了不凡的能力,其性能可媲美甚至超越规模是其25倍的、更大、更成熟的模型。最近微软在一篇博文中宣布Phi-...
-
12-05不仅仅依赖庞大模型,构建生成式人工智能的要求更多生成式人工智能(GenAI)的迅速崛起使得企业争相寻找新的创新方法来利用这项技术在商业应用中的力量。许多企业认为,大型语言模型(LLM)已经重塑了人工智能驱动的...
-
11-30使用Accelerate库在多GPU上进行LLM推理大型语言模型(llm)已经彻底改变了自然语言处理领域。随着这些模型在规模和复杂性上的增长,推理的计算需求也显著增加。为了应对这一挑战利用多个gpu变得至关重要。...

