달력

01

« 2018/01 »

  •  
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  •  
  •  
  •  

[정리] 모두를 위한 딥러닝 03 - cost 줄이기 by 김성훈 


강의 웹사이트 : http://hunkim.github.io/ml/

Lec = 강의 / Lab = 실습


W=2 일때에도 계산해보자.


이걸 2차원 그래프로 나타내면 아래와 같다.

W=1 이 정답이다. (Y = 1 * X)

이를 3차원 그래프로 나타내면 아래와 같다.


W=1 인 값은 미분했을때 (접선의 기울기) 0 이 되는 곳이다.


이걸 파이썬을 이용해서 구현하면 아래와 같다.


초기값을 5 로 주고, 0.1 씩 곡선을 타고 내려가는데 GradientDescentOptimizer 라는 최적화 함수를 이용하면 된다.

오, 6번만에 정답을 찾았다.


다른 예로, 초기값을 -3 으로 주고, 0.1 씩 곡선을 타고 내려간다.

역시 6번만에 정답을 찾았다.


소스코드 : https://github.com/hunkim/DeepLearningZeroToAll

Posted by 멋지다마라송

리눅스 설치후 커널 TCP 관련 파라미터 수정


root@marasong.net:/proc/sys/net/ipv4# cat tcp_tw_reuse 

0

root@marasong.net:/proc/sys/net/ipv4# echo 1 > tcp_tw_reuse 

root@marasong.net:/proc/sys/net/ipv4# cat tcp_tw_reuse 

1

root@marasong.net:/proc/sys/net/ipv4# cat tcp_syncookies 

1


맨날 다시 찾고 다시 찾고해서 정리해 둡니다 ~ 


참고 : http://tech.kakao.com/2016/04/21/closewait-timewait/

Posted by 멋지다마라송

[정리] 모두를 위한 딥러닝 02 - Linear Regression by 김성훈 


강의 웹사이트 : http://hunkim.github.io/ml/

Lec = 강의 / Lab = 실습


먼저 가설을 세워야 한다.

우선 그 가설은 직선이다. (리니어 리그레션)

가설 (직선) 과 실제값 (그래프에서 X 로 표시된 값) 의 차이를 줄여야 한다.

가설값과 실제값과의 차이를 코스트 cost 또는 로스 loss 라고 한다.

차이가 양수일수도 있고 음수일수도 있으며, 차이가 크면 클수록 문제가 큰거니까 이 차이 (빨간선의 길이) 를 제곱한다.


이제 이 차이를 줄여야 한다.

코드에서 보면

# Our hypothesis XW+b

hypothesis = X * W + b

# cost/loss function

cost = tf.reduce_mean(tf.square(hypothesis - Y))

# Minimize

optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01)

train = optimizer.minimize(cost)


이렇게 minimize(cost) 가 있는데, 바로 이게 차이를 최소로 줄인다는 의미이다.

Posted by 멋지다마라송


티스토리 툴바