본문 바로가기
728x90
반응형

전체 글100

1과목 - 2장 데이터 모델과 성능_1 성능 데이터 모델링 2023. 9. 7.
1과목 - 1장 데이터 모델링의 이해_2 식별자 ; 엔터티 내에서 인스턴스를 구분하는 구분자 식별자는 논리적, key는 물리적 데이터 모델링 단계에 사용 식별자의 특징 유일성 최소성 불변성 존재성: 주식별자가 지정되면 반드시 값이 들어와야 함 식별자의 분류 주식별자 보조식별자 내부식별자 외부식별자 단일식별자 복합식별자 본질식별자 인조식별자 주식별자 도출기준 해당 업무에서 자주 이용되는 속성임 명칭, 내역 등과 같이 이름으로 기술되는 것들은 x 복합으로 주식별자로 구성할 경우, 너무많은 속성 x > 너무 많으면 인조 식별자 생성한다 식별자 관계 주식별자 자식의 주식별자로 부모의 주 식별자 상속 부모로부터 받은 식별자를 자식엔터티의 주식별자로 이용 강한 연결관계 표현, 실선표기 식별자 관계로만 설정 시, 주식별자 증가로 오류 유발 비식별자 부모속성.. 2023. 9. 7.
1장 데이터 모델링의 이해_1 데이터 모델링의 중요성 및 유의점 중복: 같은시간 같은데이터 제공 비유연성: 사소한 업무변화에 데이터 모델이 수시로 변경되면 안됨. 데이터 정의를 사용프로세스와 분리 비일관성: 데이터 간 상호연관 관계에 대해 명확히 정의 데이터 모델링 개념적 데이터모델링 논리적 데이터모델링 - 개념스키마 (모든사용자 관점 전체DB) 변경 물리적 데이터모델링 - 내부스키마 (물리적장치에 데이터실제적저장) 변경 - 외부스키마 엔터티( Entity )의 특징 반드시 해당 업무에서 필요하고 관리하고자 함 유일한 식별자에 의해 식별 가능 (주인만 알아봄?) 두개 이상의 인스턴스의 집합 업무 프로세스에 의해 이용되어야 함 반드시 속성이 있어야 함 다른 엔터티와 최소1개 이상의 관계가 있어야 함 (통계성/코드성 엔티티는 관계 생략 .. 2023. 9. 4.
[선형대수] 0819 Eigen Value (고유벡터) Ax = λx 다른 고유값으로 부터의 선형독립인 고유벡터 >> 아이젠 벡터는 A의 컬럼스페이스의 한 벡터다 선형독립이면 그 벡터끼리 기저를 이룰 수 있다. (당연한 말인듯) n차원 공간의 충분한 정보 취득을 위해서는 고유벡터(=기저?)를 구할 때 까지 계속 더하는 연산을 해야한다? 빅데이터 > n개의 차원으로 구성, 벡터공간을 찾기 행의 개수는 그대로 이지만 열의 개수는 커진다? 대각화( Diagonalization of Anxn ) 대각선에 고유value(고유값)만 모아놓은 행렬을 Λ 라고 쓴다. (람다 λ의 대문자) Λ의 밑줄친 1과 0은 eigenvalue 이다. AT와 A형태에서 나오는 igenvalue 길이가 1인 벡터로 만들어주면 ORTHOGONAL이 아니라 .. 2023. 8. 19.
[CV] 색공간 (수정중) 3차원의 색 공간> 세가지 주요소가 선형조합으로 이루어져 있다.> 조명의 밝기와 색상을 표현할 때 '색온도'의 개념을 사용한다. RGB (R- Red, G- Green, B- Blue)RGB 3개의 평균을 y라고 할때, RGB 와 y 의 상관계수를 구할 수 있다.correllation이 서로 0이어야 독립벡터로 사용할 수 있는데, 그렇지 못하다.HSV ( Hue, Saturation, Value)H는 색상, S는 채도, V는 명도를 나타낸다.RGB는 독립벡터로 사용할 수 없다는 점을 HSV는 보완된다.> correllation이 서로 거의 0이다. 2023. 8. 17.
[DL] 신경망 (Neural Network) (수정중) Perceptron ; 초기의 인공신경망으로 다수의 입력으로부터 하나의 결과를 내보내는 알고리즘 퍼셉트론은 우리의 실제 뇌를 구성하는 신경세포 뉴런의 동작과 유사하다. 신경세포 뉴런의 그림을 보면 가지돌기로 신호를 받아들이고, 이 신호가 일정치 이상의 크기를 가지면 축삭돌기를 통해서 신호를 전달한다. 단층 퍼셉트론 실제 퍼셉트론은 여러 뉴런으로 구성되어 있다. 하나의 뉴런이 어떻게 이루어져 있는지 위 그림으로 살펴볼 수 있다. x는 입력값을 의미하며, w는 가중치 (weight), b는 편향값 (bias), y는 출력값이다. 그림 가운데의 +원은 인공 뉴런에 해당된다. x 입력값이 뉴런으로 들어가는데 이때 각 입력마다 가중치가 곱해진다. 이때 가중치의 값이 크면 클수록 해당 입력값이 중요하다는 것을 의미.. 2023. 8. 14.
[DL] AutoGrad (수정중) 배경신경망(NN: Neural Network)은 입력에 대해 실행되는 함수들의 모음이다. 이 함수들은 Tensor로 저장되는, 가중치(Weight)와 편향(Bias)으로 구성된 매개변수들로 정의된다.  신경망 학습 (2단계)- Forward Propagation ( 순전파 ) : 신경망은 최선의 추측을 위해 입력데이터를 각 함수들에서 실행- Backward Propagation ( 역전파 ) : 추측한 값에서 발생한 오류에 비례하여 (틀린 예측에 더 큰 가중치를) 매개변수들을 조절. 출력으로부터 역방향으로 이동하면서 오류에 대한 함수들의 매개변수의 미분값(gradient)을 수집하고, 경사하강법(gradient descent)을 사용하여 매개변수들을 최적화 2023. 8. 13.
[선형대수학] 5주차 0812 (수정중) 수직 기저? Orthonormal Basis Ci = qi^(T) * Y (qi 벡터의 스칼라값) >> 선형결합 식에서 특정 벡터의 상수값을 구하고 싶을때, 그 특정 벡터를 양변에 내적해주면 스칼라값을 구할 수 있다. 그랑슈미트 ( Gran-Schmidt ) ; 정사영을 통한 프로제션한 벡터와 기존벡터간의 관계가 수직이다. => 길이가 뭐한걸 만들자? basis 벡터를 동일한 공간에서 추출한다고 해도 추출하는 순서가 다르면 다르다(?) (맨위 필기 Given a1, a2, a3, ... ) 함수공간 ( Funcion Space ) 내적 => Fourier Series! 판별식 ( Determinant ) Det(A) 가우스 소거법 후 이어지는 피봇팅의 곱?? [ 2 1 4 ] [ 0 -2 3] [ 2 1.. 2023. 8. 12.
[DL] rnn 과 lstm (수정중) RNN: 순환신경망하이퍼볼릭탄젠트 > 손실이 적음분류 > 소프트맥스tanh대신 relu사용 상관xBut 시퀀스가 길수록 많은 손실을 야기한다. > tanh 사용    LSTM 모델>>링크All gates use the same inputs and activation functions, but different weightsOutput gate: How much of the previous output should contribute?     GRU    Time Seriesdbtkeh-> 딥러닝 시 추세, 계절성 등을 고려하지 않아도 ㄷ된다(복잡한 패턴을 포착) 2023. 8. 10.
728x90
반응형