본문 바로가기
728x90
반응형

Deep Learning15

[DL] 신경망 (Neural Network) (수정중) Perceptron ; 초기의 인공신경망으로 다수의 입력으로부터 하나의 결과를 내보내는 알고리즘 퍼셉트론은 우리의 실제 뇌를 구성하는 신경세포 뉴런의 동작과 유사하다. 신경세포 뉴런의 그림을 보면 가지돌기로 신호를 받아들이고, 이 신호가 일정치 이상의 크기를 가지면 축삭돌기를 통해서 신호를 전달한다. 단층 퍼셉트론 실제 퍼셉트론은 여러 뉴런으로 구성되어 있다. 하나의 뉴런이 어떻게 이루어져 있는지 위 그림으로 살펴볼 수 있다. x는 입력값을 의미하며, w는 가중치 (weight), b는 편향값 (bias), y는 출력값이다. 그림 가운데의 +원은 인공 뉴런에 해당된다. x 입력값이 뉴런으로 들어가는데 이때 각 입력마다 가중치가 곱해진다. 이때 가중치의 값이 크면 클수록 해당 입력값이 중요하다는 것을 의미.. 2023. 8. 14.
[DL] AutoGrad (수정중) 배경신경망(NN: Neural Network)은 입력에 대해 실행되는 함수들의 모음이다. 이 함수들은 Tensor로 저장되는, 가중치(Weight)와 편향(Bias)으로 구성된 매개변수들로 정의된다.  신경망 학습 (2단계)- Forward Propagation ( 순전파 ) : 신경망은 최선의 추측을 위해 입력데이터를 각 함수들에서 실행- Backward Propagation ( 역전파 ) : 추측한 값에서 발생한 오류에 비례하여 (틀린 예측에 더 큰 가중치를) 매개변수들을 조절. 출력으로부터 역방향으로 이동하면서 오류에 대한 함수들의 매개변수의 미분값(gradient)을 수집하고, 경사하강법(gradient descent)을 사용하여 매개변수들을 최적화 2023. 8. 13.
[DL] rnn 과 lstm (수정중) RNN: 순환신경망하이퍼볼릭탄젠트 > 손실이 적음분류 > 소프트맥스tanh대신 relu사용 상관xBut 시퀀스가 길수록 많은 손실을 야기한다. > tanh 사용    LSTM 모델>>링크All gates use the same inputs and activation functions, but different weightsOutput gate: How much of the previous output should contribute?     GRU    Time Seriesdbtkeh-> 딥러닝 시 추세, 계절성 등을 고려하지 않아도 ㄷ된다(복잡한 패턴을 포착) 2023. 8. 10.
[DL] CNN_2 DEPTH를 길게 사이즈를 빨리줄이는게 목표  원본이미지224X224X3convolution 거치면 224x224x64max pooling 거치면 down sampling 됨 > 112x112x128... max pooling...depth를 길게 하기 위해 flatten  이미지 transfer learning(전이학습)을 많이 사용 > 성능이 좋음!사이즈를 줄이고 activation map?을 ~       semi-지도학습 : 비지도학습먼저, 나중에 지도학습을 한다     텐서형태의 입력값을 줄여(인코더를 통해?)디코더를 통해 generative learning 하여 reconstructed data로 변환> 미세하게 변화 O (laternt?? vector 2023. 8. 10.
728x90
반응형