新闻中心
-
05-30微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉大型语言模型(LLM)是在巨大的文本数据库上训练的,在那里它们获得了大量的实际知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在训练结束时...
-
03-01让Sora东京女郎唱歌、高启强变声罗翔,阿里人物口型视频生成绝了有了阿里的EMO,AI生成或真实的图像「动起来说话或唱歌」变得更容易了。最近,以OpenAISora为代表的文生视频模型又火了起来。除了文本生成视频,以人为中心...
-
01-23谷歌发布能让 AI 自主判断输出准确性的模型训练框架 ASPIRE谷歌近日发布新闻稿,宣布推出ASPIRE训练框架,专为大语言模型设计。该框架旨在提升AI模型的选择性预测能力。谷歌提到,当下大语言模型在自然语言理解和生成内容方...
-
01-16谷歌用大型模型训练机器狗理解模糊指令,激动不已准备去野餐人类和四足机器人之间简单有效的交互是创造能干的智能助理机器人的途径,其昭示着这样一个未来:技术以超乎我们想象的方式改善我们的生活。对于这样的人类-机器人交互系统...
-
11-27新型的注意力机制Meta,使得大型模型更加类似于人脑,自动过滤掉与任务无关的信息,从而提高准确率27%Meta在大型模型的注意力机制方面进行了新的研究通过调整模型的注意力机制,过滤掉无关信息的干扰,新的机制使得大型模型的准确率进一步提高而且这种机制不需要微调或训...
-
10-19猿编程:做好应对未来人工智能时代的教育10月17日,2023GET教育科技大会在北京开幕,猿编程受邀参展,创始人李翊发表了主题为《培养人工智能时代下的科技少年》的演讲。他强调在当今信息科技和人工智能...

