본문 바로가기

ComputerScience/Machine Learning

Deep Learning 1-3-1

728x90

 

 

- Neural Network는 이전 시간에서 배운 neuron(logistic regression unit)들을 쌓은 것이다.

- neuron에서 y^, 즉 a를 구하고 Loss를 계산했다.

- 그림에서의 neural network는 layer[1]에서 결과들을 가지고 layer[2]에서 한번더 계산해서 y^을 구한다.

- Loss를 가지고 backward하면서 gradient를 구한다.

- x1,x2,x3들이 input features이다. 이 layer를 input layer라고 부른다.

- hidden layer :  학습도중에 값들이 관찰되지 않기 때문에 hidden이라고 부른다.

- 결과값을 반환하는 layer를 output layer라고 한다. 

- 위 그림은 2 layer Neural Network이다. input layer는 세지 않는다. 

- Hiden Layer는 파라미터로 w[1],b[1] matrix를 갖는다. 크기는 (4,3)/(4,1)이다

- output layer는 파라미터로 w[2],b[2]를 갖는다. 크기는 (1,4), (1,1)이다

- hiden Layer 에서의 계산 식을 matrix equation으로 도출해본다. 

- z[1]을 구하고 sigmoid를 씌워 a[1]을 찾는다.

- 이번에는 output layer의 계산식을 살펴보자.

- a[1]으로 z[2]를 구하고 sigmoid를 씌워 a[2]를 구한다.

- 이제까지는 input이 x 벡터 하나인 예제만 살펴보았다.

- 이번에는 input x가 m개 있다고 생각해보자.

- 이제 vectorization으로 for문을 없애보자

728x90
반응형

'ComputerScience > Machine Learning' 카테고리의 다른 글

Deep Learning 1-4-1  (0) 2021.09.14
Deep Learning 1-3-2  (0) 2021.09.14
AI - 2. Search  (0) 2021.09.09
Deep Learning 1-2-2  (0) 2021.09.07
Deep Learning 1-2-1  (0) 2021.09.07