728x90
    
    
  반응형
    
    
    
  RNN: 순환신경망



하이퍼볼릭탄젠트 > 손실이 적음
분류 > 소프트맥스

tanh대신 relu사용 상관x
But 시퀀스가 길수록 많은 손실을 야기한다. > tanh 사용
LSTM 모델
>>링크



All gates use the same inputs and activation functions, but different weights
Output gate: How much of the previous output should contribute?


GRU
Time Series
dbtkeh->
딥러닝 시 추세, 계절성 등을 고려하지 않아도 ㄷ된다
(복잡한 패턴을 포착)

728x90
    
    
  반응형
    
    
    
  'Deep Learning' 카테고리의 다른 글
| [DL] 신경망 (Neural Network) (수정중) (0) | 2023.08.14 | 
|---|---|
| [DL] AutoGrad (수정중) (0) | 2023.08.13 | 
| [DL] CNN_2 (0) | 2023.08.10 | 
| [DL] CNN (0) | 2023.08.09 | 
| [DL] 딥러닝 개요_2 (0) | 2023.08.08 | 
 
                    
                   
                    
                  