728x90 반응형 Deep Learning12 [CV] 색공간 (수정중) 3차원의 색 공간> 세가지 주요소가 선형조합으로 이루어져 있다.> 조명의 밝기와 색상을 표현할 때 '색온도'의 개념을 사용한다. RGB (R- Red, G- Green, B- Blue)RGB 3개의 평균을 y라고 할때, RGB 와 y 의 상관계수를 구할 수 있다.correllation이 서로 0이어야 독립벡터로 사용할 수 있는데, 그렇지 못하다.HSV ( Hue, Saturation, Value)H는 색상, S는 채도, V는 명도를 나타낸다.RGB는 독립벡터로 사용할 수 없다는 점을 HSV는 보완된다.> correllation이 서로 거의 0이다. 2023. 8. 17. [DL] 신경망 (Neural Network) (수정중) Perceptron ; 초기의 인공신경망으로 다수의 입력으로부터 하나의 결과를 내보내는 알고리즘 퍼셉트론은 우리의 실제 뇌를 구성하는 신경세포 뉴런의 동작과 유사하다. 신경세포 뉴런의 그림을 보면 가지돌기로 신호를 받아들이고, 이 신호가 일정치 이상의 크기를 가지면 축삭돌기를 통해서 신호를 전달한다. 단층 퍼셉트론 실제 퍼셉트론은 여러 뉴런으로 구성되어 있다. 하나의 뉴런이 어떻게 이루어져 있는지 위 그림으로 살펴볼 수 있다. x는 입력값을 의미하며, w는 가중치 (weight), b는 편향값 (bias), y는 출력값이다. 그림 가운데의 +원은 인공 뉴런에 해당된다. x 입력값이 뉴런으로 들어가는데 이때 각 입력마다 가중치가 곱해진다. 이때 가중치의 값이 크면 클수록 해당 입력값이 중요하다는 것을 의미.. 2023. 8. 14. [DL] AutoGrad (수정중) 배경신경망(NN: Neural Network)은 입력에 대해 실행되는 함수들의 모음이다. 이 함수들은 Tensor로 저장되는, 가중치(Weight)와 편향(Bias)으로 구성된 매개변수들로 정의된다. 신경망 학습 (2단계)- Forward Propagation ( 순전파 ) : 신경망은 최선의 추측을 위해 입력데이터를 각 함수들에서 실행- Backward Propagation ( 역전파 ) : 추측한 값에서 발생한 오류에 비례하여 (틀린 예측에 더 큰 가중치를) 매개변수들을 조절. 출력으로부터 역방향으로 이동하면서 오류에 대한 함수들의 매개변수의 미분값(gradient)을 수집하고, 경사하강법(gradient descent)을 사용하여 매개변수들을 최적화 2023. 8. 13. [DL] rnn 과 lstm (수정중) RNN: 순환신경망하이퍼볼릭탄젠트 > 손실이 적음분류 > 소프트맥스tanh대신 relu사용 상관xBut 시퀀스가 길수록 많은 손실을 야기한다. > tanh 사용 LSTM 모델>>링크All gates use the same inputs and activation functions, but different weightsOutput gate: How much of the previous output should contribute? GRU Time Seriesdbtkeh-> 딥러닝 시 추세, 계절성 등을 고려하지 않아도 ㄷ된다(복잡한 패턴을 포착) 2023. 8. 10. 이전 1 2 3 다음 728x90 반응형