본문 바로가기

모두를위한딥러닝

(10)
[정리] 모두를 위한 딥러닝 02 - Linear Regression [정리] 모두를 위한 딥러닝 02 - Linear Regression by 김성훈 강의 웹사이트 : http://hunkim.github.io/ml/Lec = 강의 / Lab = 실습 먼저 가설을 세워야 한다.우선 그 가설은 직선이다. (리니어 리그레션)가설 (직선) 과 실제값 (그래프에서 X 로 표시된 값) 의 차이를 줄여야 한다. 가설값과 실제값과의 차이를 코스트 cost 또는 로스 loss 라고 한다.차이가 양수일수도 있고 음수일수도 있으며, 차이가 크면 클수록 문제가 큰거니까 이 차이 (빨간선의 길이) 를 제곱한다. 이제 이 차이를 줄여야 한다.코드에서 보면# Our hypothesis XW+bhypothesis = X * W + b# cost/loss functioncost = tf.reduce..
[정리] 모두를 위한 딥러닝 00~01 [정리] 모두를 위한 딥러닝 00~01 by 김성훈 강의 웹사이트 : http://hunkim.github.io/ml/Lec = 강의 / Lab = 실습 Lec 00 : 머신러닝, 딥러닝 개요 유투브 동영상 : https://c11.kr/xuc인공지능 > 머신러닝 > 딥러닝 강의 목적 : 머신러닝에 관심이 있는 사람들이라면 누구든 이해하고 개발할 수 있도록 도와주기 위해.머신러닝 : 특정 입력을 기반으로 원하는 출력을 만드는 것. 알아서 배울 수 있다면 로직이 정해져있지 않아도 (학습을 할 수 있으면) 원하는 출력을 얻을 수 있다. (오!) Andrew Ng’s ML class : 앤드류 응 교수님 강의 (추천!)- https://www.coursera.org/learn/machine-learning (..


* 쿠팡 파트너스 활동을 통해 일정액의 수수료를 제공받을 수 있습니다.




반응형