본문 바로가기

ComputerScience/Machine Learning

Deep Learning 1-4-2

728x90

 

- 하나의 layer만 떼서 forward, backward propagation을  구현을 해보자. 

- 우측으로 layer들을 거치면서 y^을 구한다.

- 이제 cost를 가지고 왼쪽으로 layer들을 거치면서 각 weight, bias를 갱신한다.

- 각 layer들의 계산 결과인 z, w, b를 cache에 저장해두면 나중에 backward propagation할때 유리하다.

- deep neural network에서 backward propagation을 살펴보자. 

- 모든 과정을 정리하면 위와 같다.

- w,b말고도 다른 parameter들이 필요하다. 이를 hyper parameter라고 한다.

- learning rate alpha. activation function, #hidden layer 등 최종 w,b를 조정하기위해 많은 매개변수들이 사용된다.

- 모델을 구축하는 과정은 empirical한 과정이다. 계속해서 경험적으로 최적의 output을 위해 hyper parameter들을 조정해보아야 한다.

- brain의 single biological neuron을 단순화하고 단순화한 모델과 logistic regression unit을 비교해보자.

- 아직은 human brain의 뉴런이 어떤 알고리즘으로 신호를 해석해서 전기신호로 흘려보내는지는 모르지만 직관적으로 유사한 면을 살펴볼 수 있다.

728x90
반응형

'ComputerScience > Machine Learning' 카테고리의 다른 글

AI - 4. 전문가 시스템  (0) 2021.09.17
AI - 3. 탐색 응용  (0) 2021.09.16
Deep Learning 1-4-1  (0) 2021.09.14
Deep Learning 1-3-2  (0) 2021.09.14
Deep Learning 1-3-1  (0) 2021.09.10