본문 바로가기

Tech/머신러닝

[정리] 모두를 위한 딥러닝 02 - Linear Regression

네이버 공유하기
728x90

[정리] 모두를 위한 딥러닝 02 - Linear Regression by 김성훈 


강의 웹사이트 : http://hunkim.github.io/ml/

Lec = 강의 / Lab = 실습


먼저 가설을 세워야 한다.

우선 그 가설은 직선이다. (리니어 리그레션)

가설 (직선) 과 실제값 (그래프에서 X 로 표시된 값) 의 차이를 줄여야 한다.

가설값과 실제값과의 차이를 코스트 cost 또는 로스 loss 라고 한다.

차이가 양수일수도 있고 음수일수도 있으며, 차이가 크면 클수록 문제가 큰거니까 이 차이 (빨간선의 길이) 를 제곱한다.


이제 이 차이를 줄여야 한다.

코드에서 보면

# Our hypothesis XW+b

hypothesis = X * W + b

# cost/loss function

cost = tf.reduce_mean(tf.square(hypothesis - Y))

# Minimize

optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01)

train = optimizer.minimize(cost)


이렇게 minimize(cost) 가 있는데, 바로 이게 차이를 최소로 줄인다는 의미이다.

반응형
네이버 공유하기


* 쿠팡 파트너스 활동을 통해 일정액의 수수료를 제공받을 수 있습니다.