新闻中心
-
04-07OpenAI发布新的AI微调工具:“绝大多数组织将开发定制模型”OpenAI宣布了对其微调API的重大增强,以及其定制模型程序的扩展。这些更新将赋予开发者前所未有的控制权,以微调AI模型,并为构建特定业务需求的定制模型提供新...
-
03-01LLaMa 3或将推迟到7月发布,剑指GPT-4,从Gemini吸取教训过去的图像生成模型经常因为主要呈现白人形象而受到批评,而谷歌的Gemini模型则因为极端的矫枉过正而陷入困境。它的生成图像结果变得过分谨慎,与历史事实出现显著偏...
-
02-26打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞扩散模型,迎来了一项重大新应用——像Sora生成视频一样,给神经网络生成参数,直接打入了AI的底层!这就是新加坡国立大学尤洋教授团队联合UCB、MetaAI实验...
-
02-20谷歌加速修复 AI 助手 Gemini 问题,拒绝响应比例减半谷歌最近对其人工智能项目进行了重大更新,将Bard更名为Gemini并推出了许多新功能,包括移动端支持。不过,Gemini发布初期并不完美,由于推出速度缓慢,部...
-
02-07斯坦福和OpenAI提出meta-prompting,最强零样本prompting技术诞生了最新一代语言模型(如GPT-4、PaLM和LLaMa)在自然语言处理和生成方面取得了重要的突破。这些大规模模型能够应对各种任务,从创作莎士比亚风格的十四行诗到概...
-
01-23PEFT参数优化技术:提高微调效率的探索PEFT(ParameterEfficientFine-tuning)是一种优化深度学习模型微调过程的参数高效技术,旨在在有限的计算资源下实现高效微调。研究人员...

