본문 바로가기
728x90
반응형

분류 전체보기113

[선형대수학] 5주차 0812 (수정중) 수직 기저? Orthonormal Basis Ci = qi^(T) * Y (qi 벡터의 스칼라값) >> 선형결합 식에서 특정 벡터의 상수값을 구하고 싶을때, 그 특정 벡터를 양변에 내적해주면 스칼라값을 구할 수 있다. 그랑슈미트 ( Gran-Schmidt ) ; 정사영을 통한 프로제션한 벡터와 기존벡터간의 관계가 수직이다. => 길이가 뭐한걸 만들자? basis 벡터를 동일한 공간에서 추출한다고 해도 추출하는 순서가 다르면 다르다(?) (맨위 필기 Given a1, a2, a3, ... ) 함수공간 ( Funcion Space ) 내적 => Fourier Series! 판별식 ( Determinant ) Det(A) 가우스 소거법 후 이어지는 피봇팅의 곱?? [ 2 1 4 ] [ 0 -2 3] [ 2 1.. 2023. 8. 12.
[DL] rnn 과 lstm (수정중) RNN: 순환신경망하이퍼볼릭탄젠트 > 손실이 적음분류 > 소프트맥스tanh대신 relu사용 상관xBut 시퀀스가 길수록 많은 손실을 야기한다. > tanh 사용    LSTM 모델>>링크All gates use the same inputs and activation functions, but different weightsOutput gate: How much of the previous output should contribute?     GRU    Time Seriesdbtkeh-> 딥러닝 시 추세, 계절성 등을 고려하지 않아도 ㄷ된다(복잡한 패턴을 포착) 2023. 8. 10.
[DL] CNN_2 DEPTH를 길게 사이즈를 빨리줄이는게 목표  원본이미지224X224X3convolution 거치면 224x224x64max pooling 거치면 down sampling 됨 > 112x112x128... max pooling...depth를 길게 하기 위해 flatten  이미지 transfer learning(전이학습)을 많이 사용 > 성능이 좋음!사이즈를 줄이고 activation map?을 ~       semi-지도학습 : 비지도학습먼저, 나중에 지도학습을 한다     텐서형태의 입력값을 줄여(인코더를 통해?)디코더를 통해 generative learning 하여 reconstructed data로 변환> 미세하게 변화 O (laternt?? vector 2023. 8. 10.
[DL] CNN - data synthesize : 데이터를 더 생성시킴?- data augment: 원본이미지를 변형시켜 다양한 데이터를 확보- 미니 배치- 피처 스케일링(stand~, normal~, minmax)- dropout >>노드수에 맞게 일정노드를 제거함, 가중치도 약간 조정하는 역할도 한다- data shuffling: 배치가 순서대로 되어있으면 학습할때 연관해서 학습하기 때문에 순서에 관계없이 학습하도록 순서를 바꿔줌 batch normalization (배치정규화): dropout보다 좋은 효과를 냄, 학습시간이 짧음 layer build시 사용early stopping: 에러가 변화없는 경우, 가중치가 변하지 않는경우 > 학습이 다 되었다고 생각하고 model con 관찰 optimum 되는 지점을.. 2023. 8. 9.
728x90
반응형