본문 바로가기

2018/01/11

(3)
[정리] 모두를 위한 딥러닝 03 - cost 줄이기 [정리] 모두를 위한 딥러닝 03 - cost 줄이기 by 김성훈 강의 웹사이트 : http://hunkim.github.io/ml/Lec = 강의 / Lab = 실습 W=2 일때에도 계산해보자. 이걸 2차원 그래프로 나타내면 아래와 같다.W=1 이 정답이다. (Y = 1 * X) 이를 3차원 그래프로 나타내면 아래와 같다. W=1 인 값은 미분했을때 (접선의 기울기) 0 이 되는 곳이다. 이걸 파이썬을 이용해서 구현하면 아래와 같다. 초기값을 5 로 주고, 0.1 씩 곡선을 타고 내려가는데 GradientDescentOptimizer 라는 최적화 함수를 이용하면 된다.오, 6번만에 정답을 찾았다. 다른 예로, 초기값을 -3 으로 주고, 0.1 씩 곡선을 타고 내려간다.역시 6번만에 정답을 찾았다. 소스..
리눅스 설치후 커널 TCP 관련 파라미터 수정 리눅스 설치후 커널 TCP 관련 파라미터 수정 root@marasong.net:/proc/sys/net/ipv4# cat tcp_tw_reuse 0root@marasong.net:/proc/sys/net/ipv4# echo 1 > tcp_tw_reuse root@marasong.net:/proc/sys/net/ipv4# cat tcp_tw_reuse 1root@marasong.net:/proc/sys/net/ipv4# cat tcp_syncookies 1 맨날 다시 찾고 다시 찾고해서 정리해 둡니다 ~ 참고 : http://tech.kakao.com/2016/04/21/closewait-timewait/
[정리] 모두를 위한 딥러닝 02 - Linear Regression [정리] 모두를 위한 딥러닝 02 - Linear Regression by 김성훈 강의 웹사이트 : http://hunkim.github.io/ml/Lec = 강의 / Lab = 실습 먼저 가설을 세워야 한다.우선 그 가설은 직선이다. (리니어 리그레션)가설 (직선) 과 실제값 (그래프에서 X 로 표시된 값) 의 차이를 줄여야 한다. 가설값과 실제값과의 차이를 코스트 cost 또는 로스 loss 라고 한다.차이가 양수일수도 있고 음수일수도 있으며, 차이가 크면 클수록 문제가 큰거니까 이 차이 (빨간선의 길이) 를 제곱한다. 이제 이 차이를 줄여야 한다.코드에서 보면# Our hypothesis XW+bhypothesis = X * W + b# cost/loss functioncost = tf.reduce..


* 쿠팡 파트너스 활동을 통해 일정액의 수수료를 제공받을 수 있습니다.




반응형