본문 바로가기

함께 배워가는 학생개발자

검색하기
함께 배워가는 학생개발자
프로필사진 Hgrace

  • 분류 전체보기 (16)
    • 알고리즘 (0)
    • 머신러닝 (5)
      • 자연어처리 (1)
    • Language (0)
      • Python (0)
      • C++ (0)
      • C (0)
    • 일일코딩 (0)
    • OpenCV (3)
    • 아이디어 (0)
    • BOJ (2)
    • 현장실습 (5)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
Tags
  • Normalization
  • softmax
  • 머신러닝
  • matplotlib
  • MNIST
  • tensorflow
  • 모두를 위한 딥러닝
  • 정규화
  • 현장실습
  • 모두를위한딥러닝
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록softmax (1)

함께 배워가는 학생개발자

Softmax function

Softmax Function 식 : tensorflow 코드 : * cost 식 직접 구할 때hypothesis = tf.nn.softmax(tf.matmul(X,W)+b)cost = tf.reduce_mean(-tf.reduce_sum(Y * tf.log(hypothesis), axis = 1)optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.1).minimize(cost) * cost cross_entropy_with_logits 함수 사용할 때Y_one_hot = tf.one_hot(Y, nb_classes) # shape = (?, 1, 7)Y_one_hot = tf.reshape(Y_one_hot, [-1, nb_classes])..

머신러닝 2017. 5. 15. 00:55
Prev 1 Next

Blog is powered by kakao / Designed by Tistory

티스토리툴바