AI25 [미래연구소14기]11주차 미래연구소 AI, 인공지능 Deep Learning beginner 미래연구소 딥러닝 입문 스터디 / 모집인원 : 25명 (선착순 마감) 수강료 : 월 15만원 / (Coursera 강의 수강료 월 5만원 개인결제) futurelab.creatorlink.net Normalization Layers Normalization은 다 끝나고 하는 것이 아니라 중간에 하는 것. 1. Batch Normalization 분포가 평균이 0이고 분산이 1인 표준정규분포. Z에서 normalization이 일어난다. $$Z_{norm}^{(i)}=\frac{z^{(i)}-M}{\sqrt{\sigma^2+\epsilon}}\sim N(0,1^2)$$ BN은 batch에서 channer(D)별로 일어난다. 따라서 para.. 2020. 9. 19. [미래연구소 14기]10주차 미래연구소 AI, 인공지능 Deep Learning beginner 미래연구소 딥러닝 입문 스터디 / 모집인원 : 25명 (선착순 마감) 수강료 : 월 15만원 / (Coursera 강의 수강료 월 5만원 개인결제) futurelab.creatorlink.net The method for saving model 모델을 이루고 있는 껍데기들(layer가 몇 개고, layer node개수, activation fucntion은 무엇이고) weight 값들(parameter의 값들) def create_model():을 하면 둘 다 얻음. 문제는 Dense는 최적 layer가 아님. 따라서 weight값이 완전하지 않다. model 학습시킬 때 val_accuracy가 overfitting 될 수 있다. 이 .. 2020. 9. 13. [미래연구소 14기]9주차 미래연구소 AI, 인공지능 Deep Learning beginner 미래연구소 딥러닝 입문 스터디 / 모집인원 : 25명 (선착순 마감) 수강료 : 월 15만원 / (Coursera 강의 수강료 월 5만원 개인결제) futurelab.creatorlink.net Metreics 1. Regression $$MSE=\frac{\sum(y-\hat{y})^2}{m}$$ 이전에 배웠던 MSE는 값이 너무 크다. 1) meand basolute error $$MAE=\frac{\sum\left\vert y-\hat{y}\right\vert^2}{m}$$ 조금 더 직관적으로 값을 보여줄 수 있음. 특이값(outlier)에 robust(덜 영향받는다.) 절댓값을 취하기 때문에 차이를 직관적으로 느낄 수 있다. te.. 2020. 9. 6. (C1W3L03)Computing Neural Network Output Computing Neural Network Output logistic regression을 나타내는 이 원은 두 단계의 계산을 나타낸다. $z$를 $w^Tx+b$의 식으로 계산하고 activation $a$를 $\sigma(z)$로 계산한다. Neural Network에서는 위 식을 여러 번 반복한다(오른쪽 그림). 먼저 hidden layer의 노드 하나를 자세히 살펴보자. 앞으로의 표기 $$a^{[l]}_i$$ $l=layer$ $i=node-in-layer$ 위 NN에서 $z^{[l]}_i=w^{[l]T}_ix+b^{[l]}_i$의 식이 여러 번 반복된다(위 그림에서는 4차례 반복). 따라서 이 $z$를 vetorization 해 주겠다. vectorizing의 결과 matrix의 각 행은 위에.. 2020. 9. 1. (C1W3L02)Neural Network Representations Neural Network Representation input layer(입력층) 신경망의 입력이 있음. 입력값의 다른 표기로는 $a^{[0]}=x$로 표기 할 수 있음. 여기서 $a$는 activation value(활성값)를 의미하고, 신경망의 layer들이 다음 layer로 전달해주는 값을 의미한다. input layer는 $x$를 hidden layer로 전달해준다. $a^{[0]}$은 input layer의 activation value라 부른다. hidden layer(은닉층) hidden layer의 실제 값은 training set에 기록되어있지 않음. 즉, training set에서 무슨 값인지 볼 수 없다. hidden layer는 activation value $a^{[1]}$를 만.. 2020. 8. 31. (C1W3L01)Neural Network Overivew 강의영상 동그라미 하나에서 z값과 a값을 계산함. 신경망에서는 z와 a를 여러 번 계산해주고 마지막에 손실(loss)을 계산함. logistic regresion에서는 역방향 계산(backward calculation)을 통해 $da$값과 $dz$값을 구함. NN에서도 마찬가지로 역방향 계산으로 값을 구해준다. NN은 logistic regression을 두번 반복하는 것. 2020. 8. 31. 이전 1 2 3 4 5 다음