Intro to Encoder-Decoder LSTM(=seq2seq) 번역 및 정리
출처 1) Encoder-Decoder Long Short-Term Memory Networks 2) A Gentle Introduction to LSTM Autoencoders 3) Step-by-step Understanding LSTM Autoencoder layers Encoder-Decoder LSTM (=seq2seq) - input도 sequencial 데이터, output도 sequencial 데이터 - (문제) input과 output의 sequence 길이가 다를 수 있음 - (해결) Encoding : 여러 길이의 input을 고정 길이 벡터로 변환 → Decoding : 이 고정 길이 벡터를 해독하여 출력 프린트 - 특히 input sequence가 반전되었을 때 성능 좋았음 LST..
2020.02.08