네이버 공유하기
728x90
[정리] 모두를 위한 딥러닝 02 - Linear Regression by 김성훈
강의 웹사이트 : http://hunkim.github.io/ml/
Lec = 강의 / Lab = 실습
먼저 가설을 세워야 한다.
우선 그 가설은 직선이다. (리니어 리그레션)
가설 (직선) 과 실제값 (그래프에서 X 로 표시된 값) 의 차이를 줄여야 한다.
가설값과 실제값과의 차이를 코스트 cost 또는 로스 loss 라고 한다.
차이가 양수일수도 있고 음수일수도 있으며, 차이가 크면 클수록 문제가 큰거니까 이 차이 (빨간선의 길이) 를 제곱한다.
이제 이 차이를 줄여야 한다.
코드에서 보면
# Our hypothesis XW+b
hypothesis = X * W + b
# cost/loss function
cost = tf.reduce_mean(tf.square(hypothesis - Y))
# Minimize
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01)
train = optimizer.minimize(cost)
이렇게 minimize(cost) 가 있는데, 바로 이게 차이를 최소로 줄인다는 의미이다.
반응형
'Tech > 머신러닝' 카테고리의 다른 글
[맥 MACOS] 딥러닝 개발환경 만들기 - TensorFlow + Jupyter 설치 (2) | 2018.01.14 |
---|---|
[정리] 모두를 위한 딥러닝 03 - cost 줄이기 (0) | 2018.01.11 |
[정리] 모두를 위한 딥러닝 00~01 (2) | 2018.01.10 |
파이썬 기본 문법 - edwith 최성준님 (0) | 2018.01.04 |
파이썬 실행 에러 - failed to create cublas handle (0) | 2018.01.03 |
네이버 공유하기