Spicy Tuna Sushi
본문 바로가기
부스트캠프 AI Tech

RNN, LSTM, GRU

by 말린malin 2022. 10. 12.

<RNN>

Notice: The same function and the same set of parameters are used at every time step

우하하 발로 그렸습니다

 

 

<Types of RNNs>

One to one
- Standard Neural Networks
One to many

- Image Captioning
Many to one
- Sentiment Classification
Sequence to sequence
- Machine Translation
- Video classification on frame level

 

<Character level Language Model>

ex) "hello"

voca : [h,e,l, o] 이를 one-hot 벡터로 나타냄

- 'hell'이 주어졌을 때, 끝에 있는 'll'에서 첫 번째 'l'은 'l'을 예상, 두 번째 'l'은 'o'를 예상하도록 학습해야 함

- 예측값을 다음 입력값으로 활용

- 주식값 예측에 활용 가능

 

-Backpropagation through time (BPTT)

 

-RNN is excellent, but...

Multiplying the same matrix at each time step during backpropagation causes gradient vanishing or exploding

 

<실습>

1. 주어진 데이터를 RNN에 넣을 수 있는 형태로 만듦
2. 기본적인 RNN 사용법 및 적용법
3. PackedSquence의 필요성 및 적용법 실습

 

RNN 모델 및 초기 hidden state를 정의
RNN에 batch data를 넣으면 얻는 output
- hidden_states: 각 time step에 해당하는 hidden state들의 묶음.
- h_n: 모든 sequence를 거치고 나온 마지막 hidden state.
마지막 hidden state를 이용하여 text classification task에 적용

 

- PackedSquence

padding전 원래 길이 기준으로 정렬 - padding 무시 효과

pack_padded_sequence를 이용하여 PackedSquence object 사용

 

<LSTM>

Core Idea: pass cell state information straightly without any transformation

Solving long term dependency problem!

 

 

전 스텝에서 넘어오는 정보

1) Ct-1 : 완전한 정보를 포함하고 있음 

2) ht-1 : cell state를 가공해서 노출할 필요가 있는 필터링된 정보를 포함하고 있음

https://wegonnamakeit.tistory.com/7

 

[논문리뷰] RNN :: LSTM(Long Short Term Memory) 톺아보기

이 블로그 글은 딥러닝 공부를 목적으로, 최성준 박사님 강의와 여러 자료들을 참고하여 LSTM의 개념에 대해 정리하였습니다. 기존의 인공 신경망의 은닉층에는 맥락이 고려되지 않은 단순

wegonnamakeit.tistory.com

참고!

 

<GRU>

- LSTM에서 사용하는 ht, ct를 ht라는 한 가지 정보로!

- ft, it 두 개의 독립된 게이트 -> 하나의 게이트만으로 계산. 경량화

 

<실습>

LSTM - cell state 추가

GRU - cell state 없이 RNN과 동일하게 사용

 

'부스트캠프 AI Tech' 카테고리의 다른 글

Beam Search and BLEU score  (0) 2022.10.23
Seq2Seq  (0) 2022.10.23
Word Embedding: Word2Vec, GloVe  (0) 2022.10.11
22-10-11 깃헙특강  (0) 2022.10.11
Bag-of-Words, NaiveBayes Classifier  (0) 2022.10.11

댓글