新闻中心
-
03-26使用GaLore在本地GPU进行高效的LLM调优训练大型语言模型(llm)是一项计算密集型的任务,即使是那些“只有”70亿个参数的模型也是如此。这种级别的训练需要的资源超出了大多数个人爱好者的能力范围。为了弥...
-
03-01可视化FAISS矢量空间并调整RAG参数提高结果精度随着开源大型语言模型的性能不断提高,编写和分析代码、推荐、文本摘要和问答(QA)对的性能都有了很大的提高。但是当涉及到QA时,LLM通常会在未训练数据的相关的问...
-
03-01让GenAI提供更好答案的诀窍GenAI作为一种界面具有巨大的潜力,可以让用户以独特的方式查询数据,获取满足他们需求的答案。例如,作为一个查询助手,GenAI工具可以帮助客户通过简单的问答格...
-
03-01英伟达CEO呼吁建立主权AI基础设施人工智能(AI)的兴起推动了英伟达(Nvidia)的股价创下历史新高。英伟达的GPU作为支持人工智能工作负载的重要硬件发挥着关键作用。黄仁勋作为英伟达创始人兼首...
-
02-29英伟达、Hugging Face和ServiceNow发布用于代码生成的新StarCoder2 LLM这些模型目前有三种不同的大小,已经在600多种编程语言(包括低资源语言)上进行了培训,以帮助企业在其开发工作流中加速各种与代码相关的任务,它们是在开放的BigC...
-
01-25使用SPIN技术进行自我博弈微调训练的LLM的优化2024年是大型语言模型(LLM)迅速发展的一年。在LLM的训练中,对齐方法是一个重要的技术手段,其中包括监督微调(SFT)和依赖人类偏好的人类反馈强化学习(R...

