loss (1) 썸네일형 리스트형 [정리] 모두를 위한 딥러닝 02 - Linear Regression [정리] 모두를 위한 딥러닝 02 - Linear Regression by 김성훈 강의 웹사이트 : http://hunkim.github.io/ml/Lec = 강의 / Lab = 실습 먼저 가설을 세워야 한다.우선 그 가설은 직선이다. (리니어 리그레션)가설 (직선) 과 실제값 (그래프에서 X 로 표시된 값) 의 차이를 줄여야 한다. 가설값과 실제값과의 차이를 코스트 cost 또는 로스 loss 라고 한다.차이가 양수일수도 있고 음수일수도 있으며, 차이가 크면 클수록 문제가 큰거니까 이 차이 (빨간선의 길이) 를 제곱한다. 이제 이 차이를 줄여야 한다.코드에서 보면# Our hypothesis XW+bhypothesis = X * W + b# cost/loss functioncost = tf.reduce.. 이전 1 다음 * 쿠팡 파트너스 활동을 통해 일정액의 수수료를 제공받을 수 있습니다.