Seq2seq

机器学习——序列到序列学习(seq2seq)

我们将使用两个循环神经网络的编码器和解码器, 并将其应用于序列到序列(sequence to sequence,seq2seq)类的学习任务。 编码器 由于这里使用的是门控循环单元, 所以在最后一个时间步的多层隐状态的形状是 (隐藏层的数量,批量大小,隐藏单元的数量)。 如果使用长短期记忆网络,st ......
序列 seq 机器 seq2seq 2seq

聊聊RNN与seq2seq

seq2seq模型也称为Encoder-Decoder模型。顾名思义,这个模型有两个模块——Encoder(编码器)和Decoder(解码器)。编码器对输入数据进行编码,解码器对被编码的数据进行解码。此时编码器编码的信息浓缩了翻译所必需的信息,解码器基于这个浓缩的信息生成目标文本。 这里的数据一般指 ......
seq seq2seq 2seq seq2 RNN

《动手学深度学习 Pytorch版》 9.7 序列到序列学习(seq2seq)

循环神经网络编码器使用长度可变的序列作为输入,将其编码到循环神经网络编码器固定形状的隐状态中。 为了连续生成输出序列的词元,独立的循环神经网络解码器是基于输入序列的编码信息和输出序列已经看见的或者生成的词元来预测下一个词元。 要点: “<eos>”表示序列结束词元,一旦输出序列生成此词元,模型就会停 ......
序列 seq 深度 Pytorch seq2seq

文本翻译,机器翻译序列(Seq2seq)

# Seq2seq # 进行机器翻译 import collections import math import os import torch from torch import nn from d2l import torch as d2l import matplotlib.pyplot as ......
序列 文本 机器 Seq2seq 2seq

seq2seq+attention的个人理解

[toc] ## RNN 经典的RNN结构: ![image](https://img2023.cnblogs.com/blog/2560090/202307/2560090-20230714165034348-527906121.png) 这是经典的RNN结构,输入向量是: ![image](ht ......
seq attention seq2seq 个人 2seq

N7、seq2seq翻译实战-Pytorch复现

🍨 本文为🔗365天深度学习训练营 中的学习记录博客 🍖 原作者:K同学啊 | 接辅导、项目定制 🚀 文章来源:K同学的学习圈子 📌 本周任务: 请根据N5、N6周内容,为解码器添加上注意力机制 数据:链接 一、前期准备工作¶ 0、导入包¶ In [ ]: from __future__ ......
实战 seq seq2seq Pytorch 2seq

N6、seq2seq翻译实战-Pytorch复现

🍨 本文为🔗365天深度学习训练营 中的学习记录博客 🍖 原作者:K同学啊 | 接辅导、项目定制 📌 本周任务: 结合训练中N5周的内容理解本文代码 数据:链接 一、前期准备工作¶ 0、导入包¶ In [1]: from __future__ import unicode_literals, ......
实战 seq seq2seq Pytorch 2seq

N5、seq2seq详解

📌 本周任务: - 了解seq2seq是什么? - 基于RNN的seq2seq模型如何处理文本/长文本序列? - seq2seq模型处理长文本序列有哪些难点? - 基于RNN的seq2seq模型如何结合attention来改善模型效果? - 可以先尝试着自己编写代码(下周更新) ## 一、seq2 ......
seq seq2seq 2seq seq2

seq2seq中的注意力机制

seq2seq中的注意力机制解决了长期梯度消失的问题,LSTM只解决了一部分长短期问题。 transformer中采用的自注意力机制多少借鉴该方法,其最核心的公式如下图所示。 Attention机制详解(一)——Seq2Seq中的Attention - 知乎 (zhihu.com) Q、K、V分别代 ......
注意力 seq 机制 seq2seq 2seq
共9篇  :1/1页 首页上一页1下一页尾页