新闻中心
-
02-16手把手教你,从零开始实现一个稀疏混合专家架构语言模型(MoE)本文介绍了实现一个稀疏混合专家语言模型(MoE)的方法,详细解释了模型的实施过程,包括采用稀疏混合专家取代传统的前馈神经网络,实现top-k门控和带噪声的top...
-
02-077B开源数学模型干翻千亿GPT-4,中国团队出品7B开源模型,数学能力超过了千亿规模的GPT-4!它的表现可谓是突破了开源模型的极限,连阿里通义的研究员也感叹缩放定律是不是失效了。无需借助任何外部工具,它就能...
-
02-07斯坦福和OpenAI提出meta-prompting,最强零样本prompting技术诞生了最新一代语言模型(如GPT-4、PaLM和LLaMa)在自然语言处理和生成方面取得了重要的突破。这些大规模模型能够应对各种任务,从创作莎士比亚风格的十四行诗到概...
-
01-24使用AI技术修复老照片的实现方法(附示例和代码解析)老照片修复是利用人工智能技术对老照片进行修复、增强和改善的方法。通过计算机视觉和机器学习算法,该技术能够自动识别并修复老照片中的损坏和缺陷,使其看起来更加清晰、...
-
01-22高效网络结构:EfficientNetEfficientNet是一种自动模型缩放的高效、可扩展的卷积神经网络结构。其核心思想是在一个高效的基础网络结构上,通过增加网络的深度、宽度和分辨率来提高模型的...
-
01-22BERT模型中使用了多少个Transformer层?BERT是一种使用Transformer作为网络结构的预训练语言模型。相较于循环神经网络(RNN),Transformer可以并行计算,能够有效处理序列数据。在...

