728x90 반응형 분류 전체보기100 [CV] 색공간 (수정중) 3차원의 색 공간> 세가지 주요소가 선형조합으로 이루어져 있다.> 조명의 밝기와 색상을 표현할 때 '색온도'의 개념을 사용한다. RGB (R- Red, G- Green, B- Blue)RGB 3개의 평균을 y라고 할때, RGB 와 y 의 상관계수를 구할 수 있다.correllation이 서로 0이어야 독립벡터로 사용할 수 있는데, 그렇지 못하다.HSV ( Hue, Saturation, Value)H는 색상, S는 채도, V는 명도를 나타낸다.RGB는 독립벡터로 사용할 수 없다는 점을 HSV는 보완된다.> correllation이 서로 거의 0이다. 2023. 8. 17. [DL] 신경망 (Neural Network) (수정중) Perceptron ; 초기의 인공신경망으로 다수의 입력으로부터 하나의 결과를 내보내는 알고리즘 퍼셉트론은 우리의 실제 뇌를 구성하는 신경세포 뉴런의 동작과 유사하다. 신경세포 뉴런의 그림을 보면 가지돌기로 신호를 받아들이고, 이 신호가 일정치 이상의 크기를 가지면 축삭돌기를 통해서 신호를 전달한다. 단층 퍼셉트론 실제 퍼셉트론은 여러 뉴런으로 구성되어 있다. 하나의 뉴런이 어떻게 이루어져 있는지 위 그림으로 살펴볼 수 있다. x는 입력값을 의미하며, w는 가중치 (weight), b는 편향값 (bias), y는 출력값이다. 그림 가운데의 +원은 인공 뉴런에 해당된다. x 입력값이 뉴런으로 들어가는데 이때 각 입력마다 가중치가 곱해진다. 이때 가중치의 값이 크면 클수록 해당 입력값이 중요하다는 것을 의미.. 2023. 8. 14. [DL] AutoGrad (수정중) 배경신경망(NN: Neural Network)은 입력에 대해 실행되는 함수들의 모음이다. 이 함수들은 Tensor로 저장되는, 가중치(Weight)와 편향(Bias)으로 구성된 매개변수들로 정의된다. 신경망 학습 (2단계)- Forward Propagation ( 순전파 ) : 신경망은 최선의 추측을 위해 입력데이터를 각 함수들에서 실행- Backward Propagation ( 역전파 ) : 추측한 값에서 발생한 오류에 비례하여 (틀린 예측에 더 큰 가중치를) 매개변수들을 조절. 출력으로부터 역방향으로 이동하면서 오류에 대한 함수들의 매개변수의 미분값(gradient)을 수집하고, 경사하강법(gradient descent)을 사용하여 매개변수들을 최적화 2023. 8. 13. [선형대수학] 5주차 0812 (수정중) 수직 기저? Orthonormal Basis Ci = qi^(T) * Y (qi 벡터의 스칼라값) >> 선형결합 식에서 특정 벡터의 상수값을 구하고 싶을때, 그 특정 벡터를 양변에 내적해주면 스칼라값을 구할 수 있다. 그랑슈미트 ( Gran-Schmidt ) ; 정사영을 통한 프로제션한 벡터와 기존벡터간의 관계가 수직이다. => 길이가 뭐한걸 만들자? basis 벡터를 동일한 공간에서 추출한다고 해도 추출하는 순서가 다르면 다르다(?) (맨위 필기 Given a1, a2, a3, ... ) 함수공간 ( Funcion Space ) 내적 => Fourier Series! 판별식 ( Determinant ) Det(A) 가우스 소거법 후 이어지는 피봇팅의 곱?? [ 2 1 4 ] [ 0 -2 3] [ 2 1.. 2023. 8. 12. 이전 1 ··· 17 18 19 20 21 22 23 ··· 25 다음 728x90 반응형