RNN와 LSTM, GRU에 대한 단상
RNN의 태동 RNN은 단일 셀에서 동일한 연산에 대해 동일한 가중치를 반복사용함으로서 가중치를 공유한다.즉, CNN이 지역성을 토대로 연산량을 줄였다면 RNN은 시계(Time-Step)를 토대로 연산량을 줄였다고 볼 수 있다. RNN의 연산은 크게 어렵지 않다.일반적인 연산에서 이전 은닉층의 정보를 추가하기만 하면 된다.그 결과 연산은… Read moreRNN와 LSTM, GRU에 대한 단상
A Common C.S. Researcher
RNN의 태동 RNN은 단일 셀에서 동일한 연산에 대해 동일한 가중치를 반복사용함으로서 가중치를 공유한다.즉, CNN이 지역성을 토대로 연산량을 줄였다면 RNN은 시계(Time-Step)를 토대로 연산량을 줄였다고 볼 수 있다. RNN의 연산은 크게 어렵지 않다.일반적인 연산에서 이전 은닉층의 정보를 추가하기만 하면 된다.그 결과 연산은… Read moreRNN와 LSTM, GRU에 대한 단상