728x90 반응형 Deep Learning12 [DL] CNN_2 DEPTH를 길게 사이즈를 빨리줄이는게 목표 원본이미지224X224X3convolution 거치면 224x224x64max pooling 거치면 down sampling 됨 > 112x112x128... max pooling...depth를 길게 하기 위해 flatten 이미지 transfer learning(전이학습)을 많이 사용 > 성능이 좋음!사이즈를 줄이고 activation map?을 ~ semi-지도학습 : 비지도학습먼저, 나중에 지도학습을 한다 텐서형태의 입력값을 줄여(인코더를 통해?)디코더를 통해 generative learning 하여 reconstructed data로 변환> 미세하게 변화 O (laternt?? vector 2023. 8. 10. [DL] CNN - data synthesize : 데이터를 더 생성시킴?- data augment: 원본이미지를 변형시켜 다양한 데이터를 확보- 미니 배치- 피처 스케일링(stand~, normal~, minmax)- dropout >>노드수에 맞게 일정노드를 제거함, 가중치도 약간 조정하는 역할도 한다- data shuffling: 배치가 순서대로 되어있으면 학습할때 연관해서 학습하기 때문에 순서에 관계없이 학습하도록 순서를 바꿔줌 batch normalization (배치정규화): dropout보다 좋은 효과를 냄, 학습시간이 짧음 layer build시 사용early stopping: 에러가 변화없는 경우, 가중치가 변하지 않는경우 > 학습이 다 되었다고 생각하고 model con 관찰 optimum 되는 지점을.. 2023. 8. 9. [DL] 딥러닝 개요_2 각 레이어의 노드 수: 입출력의 노드의 수는 차원을 가리킨다. 활성화 함수 x값이 0이상이 되면 1에 급격하게 가까워진다. RNN구성시 활성화함수를 사용한다. ReLU함수를 가장 많이 사용 >> 성능이 잘나와서..ㅎㅎ 확률이 낮을수록 정보량은 높아진다. KL 다이버전스 우도함수: 이유- 모델이 파라미터를 결정할때, 최대우도 추정함. 그래서 함수를 허용 세타가 정해져있을때, 최대값을 정하기 위해 함수 사용 이때 엔트로피 개념 사용 값이 너무 커서? 로그를 취함 -(마이너스) 도 엔트로피개념에서 나옴 엔트로피는 정보이론에서 파생됨 자주 발생하는 것은 확률 높음 드물게 발생하는 사건이 정보량이 높음 > 결과적으로 -log (kl은 참고만) 두개의 확률(p와 q) >> 교차 엔트로피= 크로스 엔트로피 네거티브 .. 2023. 8. 8. [DL] 딥러닝 개요_1 data science의 경우 가장 중심 -> 모든 조건을 고루 갖춰야 한다 지도학습과 비지도학습, 강화학습 teacher-student ; 선생님 모델이 승계시켜 학생모델이 사용할수 있도록 함 전이학습 시 사용 - dataset ~ - model ~ : 이미 학습된 모델 - 정형데이터 (EX. 엑셀, 스프레드시트) - 반정형데이터 ; KEY. VALUE 형태로 나타남. 반정형데이터를 parsing(규칙화)하면 정형데이터/ 텍스트데이터가 됨 - 비정형데이터 (EX. 이미지, 영상, 음성, 텍스트(문자열) ) ==> 딥러닝 이용! - 메타데이터 3차원 이미지 데이터 이미지 데이터는 3차원 데이터 >> 가로방향의 너비(Width), 세로방향의 높이(Height), 색상채널(Channel)로 구성 색상채널 >.. 2023. 8. 7. 이전 1 2 3 다음 728x90 반응형