新闻中心
-
07-29基于PaddlePaddle2.0-构建长短期记忆网络本文介绍用PaddlePaddle2构建长短期记忆网络模型。先讲引入时间步的单隐藏层、多隐藏层模型,说明隐藏层输出与输入及前一时间步输出的关系;再阐述长短期记忆...
-
07-29基于全色影像引导数据分布变化的高光谱全色融合网络-Pgnet本文提出基于PaddlePaddle的Pgnet网络,用于大比例(ratio=16)高光谱与全色影像融合。该网络从纠正数据分布角度,设计PDIN子网络,结合多层...
-
07-25『NLG学习』(一)教你用seq2seq训练一个chatbot本文介绍seq2seq模型,由编码器与解码器组成,用于端到端序列学习。编码器将源语句编码为上下文向量,解码器据此生成目标语句。还详述模型实现,包括数据预处理、各...
-
07-18浅析 Swin Transformer本文围绕Swin Transformer展开,介绍其作为通用视觉骨干网,采用层次化结构与移位窗口机制提升效率。解读其解决CV挑战的创新点,展示代码构造,包括ML...
-
07-18PaddleNLP2.0:BERT模型在文本分类任务上的应用BERT是预训练语言表征模型,采用双向 Transformer 和掩码语言模型(MLM)生成深层双向语言表征。其嵌入层含 Token、Segment、Posit...
-
07-12ChatGPT 如何实现连续对话 上下文管理技术剖析ChatGPT能记住对话内容的核心在于上下文管理技术,而非真正记忆。它通过Transformer架构和注意力机制分析输入文本中各部分的重要性,实现对上下文的理解...

