Tech/머신러닝
[정리] 모두를 위한 딥러닝 02 - Linear Regression
멋지다마라송
2018. 1. 11. 00:57
728x90
[정리] 모두를 위한 딥러닝 02 - Linear Regression by 김성훈
강의 웹사이트 : http://hunkim.github.io/ml/
Lec = 강의 / Lab = 실습
먼저 가설을 세워야 한다.
우선 그 가설은 직선이다. (리니어 리그레션)
가설 (직선) 과 실제값 (그래프에서 X 로 표시된 값) 의 차이를 줄여야 한다.
가설값과 실제값과의 차이를 코스트 cost 또는 로스 loss 라고 한다.
차이가 양수일수도 있고 음수일수도 있으며, 차이가 크면 클수록 문제가 큰거니까 이 차이 (빨간선의 길이) 를 제곱한다.
이제 이 차이를 줄여야 한다.
코드에서 보면
# Our hypothesis XW+b
hypothesis = X * W + b
# cost/loss function
cost = tf.reduce_mean(tf.square(hypothesis - Y))
# Minimize
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01)
train = optimizer.minimize(cost)
이렇게 minimize(cost) 가 있는데, 바로 이게 차이를 최소로 줄인다는 의미이다.
반응형