본문 바로가기

728x90

분류 전체보기

(430)
CG - 2. 라이브러리 소개 1. OpenGL - computer graphics rendering library - modern openGL은 shader를 통해 programmable한 pipeline을 구현할 수 있다. - data들을 load할 buffer object와 shader programs를 직접 만들어야 한다. - shader program은 gpu에서 돌아가고 application은 cpu에서 돌아간다. - cpu에서 보내는 vertex color등을 gpu에서 받을 수 있도록 연결해줘야 한다. 2. Pipeline - application에서 primitives들을 gpu로 보낸다. - vertex shader를 통해 3차원 공간에서 정의되는 geomety primitive를 잡는다. (vertex의 posit..
DB - 5. Schema Diagram, Relational Algebra 1. Schema Diagram 분석 - 사각형 하나가 relation에 해당한다. - 각 relation들의 reference관계를 화살표로 나타내고 있다. - relation에서 밑줄이 그어진 column이 Primary key이다. - takes relation의 경우 (ID, course_id, sec_id, semester, year)가 primary key이다. 이 경우는 composite key이기도 하다. - 하나의 relation에서 다른 relation으로 foreign key를 통해 연결된다. 화살표가 출발하는 쪽이 foreign key, 화살표가 도착하는 곳이 primary key여야 한다. - 복수개의 column으로 이루어진 foreign key도 존재할 수 있다. 복수개의 co..
DB - 4. Keys (at relational DB) 1. Superkey - tuple의 고유식별자이다. - 고유식별성만 지니면 superkey가 된다. - id나 주민번호 등 단 하나의 튜플만 지니고 있는 column을 말한다. - table에서 하나의 colum이 key가 될 수도 있고 여러 column이 key가 될 수있다. - 여러 column이 key가 될때 합성키(composite key)라고 한다. - 즉 여러 column으로 단 하나의 튜플을 식별할 수 있다면 복수 column으로 구성된 superkey가 된다. - {ID}, {ID, name} 등 복수개가 존재할 수 있다. 2. candidate key - 후보키 - superkey중에서 minimal column으로만 구성할 수 있는 key를 말한다. - 마찬가지로 복수개가 존재할 수 ..
Deep Learning 1-4-2 - 하나의 layer만 떼서 forward, backward propagation을 구현을 해보자. - 우측으로 layer들을 거치면서 y^을 구한다. - 이제 cost를 가지고 왼쪽으로 layer들을 거치면서 각 weight, bias를 갱신한다. - 각 layer들의 계산 결과인 z, w, b를 cache에 저장해두면 나중에 backward propagation할때 유리하다. - deep neural network에서 backward propagation을 살펴보자. - 모든 과정을 정리하면 위와 같다. - w,b말고도 다른 parameter들이 필요하다. 이를 hyper parameter라고 한다. - learning rate alpha. activation function, #hidden laye..
Deep Learning 1-4-1 - 이제까지는 logistic regression, 1, 2 hidden layers만 살펴보았다. 이제부터는 더 deep한 hiden layers를 살펴보자 - deep neural network를 표현하는 notation을 살펴본다 - n[l] : l layer의 unit의 수 - a[l] : l layer에서 activation = g[l](z[l]) - deep neural network에서 forward propagation을 살펴보자. - 여기서 for loop는 layer수 만큼 발생한다. - 연산과정에서 matrix의 크기들이 맞는지 살펴보자. - w[l], dw[l] : (n[l], n[l-1]) - b[l], db[l] : (n[l], 1) - face regonition을 예로 들어 ..
Deep Learning 1-3-2 - 우리는 그동안 activation function으로 sigmoid 함수를 사용했었다. sgmoid 보다 더 나은 선택지들을 알아보자. - tanh function이 sigmoid보다는 더 좋은 성능을 보이지만 마지막 output layer에 대해서는 sigmoid를 사용한다. 왜냐하면 binary classification의 결과는 0 또는 1 이어야 하기 때문이다. - tan는 z가 커지거나 작아질때 기울기가 0에 가까워진다는 단점이 있다. - 그래서 다른 선택지로 ReLU가 있다. 가장 많이 쓰이는 activation function이다. - 그렇다면 왜 neural network는 non-linear activation function을 사용해야 할까? - 실제로 sigmoid(z)를 그냥 z..
컴퓨터통신 - 3. 표준구조, 인터넷 1. Standard Architectures (표준 구조) - OSI (Open Systems Interconnect) : 전세계 누구나 통신을 할 수 있도록 하기 위해 layer의 수, layer의 역할 등의 표준 구조를 정했다. - 컴퓨터 네트워크 설계/구현의 표준 - 통신에 필요한 모든 기능/기술 요소를 7계층 구조에 분배 - 각 호스트는 7계층 그리고 중간 노드는 3계층으로 되어있다. - host의 1,2,3계층은 중간 node와 peer가 된다. - peer간의 전달하는 데이터 unit을 PDU(Protocol Data Unit)이라고 한다. 2. 7계층 정의 *추상화->계층화를 통해 여러 계층이 각각 필요한 기능을 담당하여 전체 통신을 수행한다. Physical Layer(물리 계층, 1계층..
컴퓨터통신 - 2. 스위칭, 프로토콜 1. 패킷 스위칭 - 통계적 다중화는 한정된 자원인 링크를 노드들이 공유하는 방법이라고 했다. - 그렇게 여러 신호들이 하나의 링크를 타고 가다 서로 다른 목적지에 도달해야 할때는 어떻게 분류를 할까? - 패킷 스위칭은 "노드가 목적지를 향해 데이터를 전달하는 방법이다." - 여러 시작 노드들에서 패킷을 링크로 보내면 패킷 스위칭으로 스케쥴링을하고 링크를 나갈때는 대부분 통계적 다중화로 나간다. - 따라서 링크에 여러 패킷들이 섞여있는 상태가 된다. - 링크를 나가서 목적지로 도달하기 위해 패킷들이 경쟁을 하게 되는데 이 패킷들을 buffer에 저장하는 방법으로 안전성을 높인다. (buffering), - 버퍼보다 큰 크기로 시작 노드에서 데이터를 보낸다면 buffer overflow가 일어날 수 있다...

728x90