新闻中心
-
01-29何恺明和谢赛宁团队成功跟随解构扩散模型探索,最终创造出备受赞誉的去噪自编码器去噪扩散模型(DDM)是目前广泛应用于图像生成的一种方法。最近,XinleiChen、ZhuangLiu、谢赛宁和何恺明四人团队对DDM进行了解构研究。通过逐步...
-
01-17微软“改名部”出手:AI 生图工具 Image Creator 移除 Bing 前缀微软于2021年3月发布了BingImageCreator服务,该功能使用了OpenAI旗下的DALL-E模型。据称,该功能可以根据用户提供的上下文内容和艺术风...
-
01-16即将到来的One UI 6.1更新将为三星S23等设备带来S24 AI功能三星将于1月17日正式发布S24系列手机,这款手机是三星首次搭载自主研发的生成式AI功能,被称为“GalaxyAI”。这一AI功能将带来多种新特性,例如通话时的...
-
01-14网友盛赞:Transformer引领年度论文的简化版本来了从大模型的根源开始优化。Transformer架构可以说是近期深度学习领域许多成功案例背后的主力军。构建深度Transformer架构的一种简单方法是将多个相同...
-
01-13减少Transformer秩数以提高性能,同时保持移除特定层90%以上组件LLM不减少麻省理工学院和微软进行了联合研究,发现不需要额外的训练即可提升大型语言模型的任务性能,并减小其大小在大型模型时代,Transformer以其独特的能力支撑起整个...
-
12-28Transformer模型降维减少,移除90%以上特定层的组件时,LLM性能保持不变在大型模型时代,Transformer独自支撑起了整个科研领域。自从发布以来,基于Transformer的语言模型在各种任务上展现出了出色的性能,在自然语言建模...

