목록머신러닝 (5)
함께 배워가는 학생개발자
이 글은 개인적으로 공부한 것을 정리한 내용이며 위 블로그를 참고하였다. https://jamiekang.github.io/2017/05/28/faster-r-cnn/ Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks · Pull Requests to Tomorrow Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks 28 May 2017 | PR12, Paper, Machine Learning, CNN 이번 논문은 Microsoft Research에서 2015년 NIPS에 발표한 “Faster R-CNN: Towards Re..
글 내용은 밑바닥부터 시작하는 딥러닝2 책을 정리한 것입니다. 개인적으로 공부한 내용을 정리하는 용도로 적었습니다. Feed forward 신경망은 한 방향으로 흐름을 보내기 때문에 시계열 데이터 패턴을 잘 학습하지 못한다. 이를 보완하기 위해 순환 신경망 RNN이 등장했다. 5.1 확률과 언어모델 언어모델(Language Model)은 단어 나열에 확률을 정해주는 것이다. 특정 단어의 시퀀스에 대해서, 그다음 나올 단어가 얼마나 자연스러운 단어 순서인지를 확률로 평가해준다. I go to _____ 이 문장에서 ____에 나올 단어를 예상했을 때, home(0.099) cup(0.000009)라는 확률을 출력한다. 동시 확률은 사후 확률의 총 곱으로 나타낼 수 있다. P(W1, W2, ..., Wm) ..
MNIST 0 ~ 9 손글씨 데이터를 이용하여 인식률을 확인하고 그래프를 나타내는 프로그램주석으로 코드 설명했으니 참고하시기 바랍니다.import tensorflow as tf import matplotlib.pyplot as plt import random from tensorflow.examples.tutorials.mnist import input_data # data를 mnist 변수에 대입 # one_hot mnist = input_data.read_data_sets("MNIST_data/", one_hot = True) # classes가 10 -> 인식 할 숫자가 0 ~ 9 nb_classes = 10 # X, Y 생성 (?, 784) (?, 10) # 784는 픽셀 개수 (28 by 28)..
정규화(Normalization)아무리 learning_rate를 적절한 값을 넣어도 Input 데이터의 차이가 크다면 제대로 학습이 되지 않는다.이럴때는 정규화(Normalization)를 통해 값을 바꿔야 한다. 정규화 함수 중 하나인 MinMaxScaler() 함수 예시def MinMaxScaler(data): numerator = data - np.min(data, 0) denominator = np.max(data, 0) - np.min(data, 0) # noise term prevents the zero division return numerator / (denominator + 1e-7)xy = np.array([[828.659973, 833.450012, 908100, 828.349976..
Softmax Function 식 : tensorflow 코드 : * cost 식 직접 구할 때hypothesis = tf.nn.softmax(tf.matmul(X,W)+b)cost = tf.reduce_mean(-tf.reduce_sum(Y * tf.log(hypothesis), axis = 1)optimizer = tf.train.GradientDescentOptimizer(learning_rate = 0.1).minimize(cost) * cost cross_entropy_with_logits 함수 사용할 때Y_one_hot = tf.one_hot(Y, nb_classes) # shape = (?, 1, 7)Y_one_hot = tf.reshape(Y_one_hot, [-1, nb_classes])..