seq2seq(4)
-
[seq2seq + Attention] 불어-영어 번역 모델 PyTorch로 구현하기
https://pytorch.org/tutorials/intermediate/seq2seq_translation_tutorial.html NLP From Scratch: Translation with a Sequence to Sequence Network and Attention — PyTorch Tutorials 1.4.0 documentation Note Click here to download the full example code NLP From Scratch: Translation with a Sequence to Sequence Network and Attention Author: Sean Robertson This is the third and final tutorial on doing “N..
2020.02.10 -
seq2seq 모델 PyTorch로 구현하기 번역 및 정리
https://github.com/bentrevett/pytorch-seq2seq/blob/master/1%20-%20Sequence%20to%20Sequence%20Learning%20with%20Neural%20Networks.ipynb bentrevett/pytorch-seq2seq Tutorials on implementing a few sequence-to-sequence (seq2seq) models with PyTorch and TorchText. - bentrevett/pytorch-seq2seq github.com 독일어를 영어로 번역하는 모델 PyTorch로 구현하기 - Encoder-Decoder LSTM(=seq2seq) 모델은 RNN을 이용해 input을 feature vector..
2020.02.09 -
Intro to Encoder-Decoder LSTM(=seq2seq) 번역 및 정리
출처 1) Encoder-Decoder Long Short-Term Memory Networks 2) A Gentle Introduction to LSTM Autoencoders 3) Step-by-step Understanding LSTM Autoencoder layers Encoder-Decoder LSTM (=seq2seq) - input도 sequencial 데이터, output도 sequencial 데이터 - (문제) input과 output의 sequence 길이가 다를 수 있음 - (해결) Encoding : 여러 길이의 input을 고정 길이 벡터로 변환 → Decoding : 이 고정 길이 벡터를 해독하여 출력 프린트 - 특히 input sequence가 반전되었을 때 성능 좋았음 LST..
2020.02.08 -
밑바닥부터 시작하는 딥러닝 2권 : Chapter 7-8 [seq2seq와 어텐션] 2020.02.02