close_btn
로그인, 회원가입후 더 많은 혜택을 누리세요 로그인 회원가입 닫기

LSTM 막장 예제코드 입니다.

모두의연구소 2017.07.11 12:01 조회 수 : 643

막장이라 함은 일단 결과가 막장이고요 (...)

파라메터를 저렇게 쓰는게 아닐텐데 일단 텐서 사이즈만 맞춰서 돌아가게만 짜 놓은 코드입니다 ... ㅠㅠ

학습을 어떻게 시키는건지 전혀 모르고 있는 사람이 짜 놓은 코드이므로 그냥 API 이렇게 쓰는거다~ 하는거만 보시면 될 것 같고요... 

어찌보면 질문의 의도가 다분한 코드라고 하겠습니다.

RNN에서 말하는 steps, Batch size, classes, hidden layer 등의 파라메터들이 뭐가 어떻게 API로 들어가는지 모르겠습니다....

같이 생각해주실 스승님을 간절하게 찾고 있습니다 ㅠㅠㅠㅠ

집단지성을 믿습니다. 

아래는 작성해놓은 LSTM 코드에요 ㅋ....



import tensorflow as tf
import numpy as np


data =  [[ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19],
         [20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39]]

label = [[0], [1], [0], [0], [0]]

steps = 1
classes = 5
batch_size = 2
loss = 0.0


x = tf.placeholder(tf.float32, shape=[batch_size, 20])
y = tf.placeholder(tf.float32, shape=[classes,1])
x_input = tf.split(0, steps, x)

W = tf.Variable(tf.random_normal([classes, 2]))
b = tf.Variable(tf.random_normal([classes,1]))

lstm = tf.nn.rnn_cell.BasicLSTMCell(steps)
output, state = tf.nn.rnn(lstm, x_input, dtype=tf.float32 )

pred = tf.matmul(W, output[-1] ) + b

loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y))
optimizer = tf.train.AdamOptimizer(0.001).minimize(loss)

correct_pred = tf.equal( tf.argmax(pred,1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

init = tf.initialize_all_variables()

with tf.Session() as sess:
    feed_dict = {x: data, y:label}
    sess.run( init )

    for i in range(10000):
        sess.run(optimizer, feed_dict=feed_dict)
        if i % 100 == 0 :
            print sess.run( pred, feed_dict)
            print sess.run(accuracy, feed_dict)

    print sess.run( pred, feed_dict={x: data})
번호 제목 글쓴이 날짜 조회 수
공지 [공지] 논문 발표 리스트 음파선생 2018.01.26 1743
공지 게시판 자료 복구의 건 음파선생 2017.09.11 148
196 RNN 쉬운예제가 있었네요.. [1] 모두의연구소 2017.07.11 3983
195 [중급반/논문세미나] SSD : Single Shot MultiBox Detector [2] 모두의연구소 2017.07.11 2916
194 [논문반] Tacotron : Towards End-to-End Speech Synthesis file 음파선생 2018.04.16 787
193 [논문반] Deep Learning for Event-Driven Stock Prediction file 양종열 2017.11.20 749
192 [논문반] Generative Adversarial Networks: An Overview file ilguyi 2017.12.06 741
191 [중급반] Deep Metric Learning Using TripletNet Network file 모두의연구소 2017.07.11 740
190 지난번 mnist를 rnn으로 돌린 예제코드 재업 모두의연구소 2017.07.11 696
189 [논문반/논문세미나] Yolo 9000 file 모두의연구소 2017.07.12 689
188 [PR12] Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network file 음파선생 2017.08.13 664
187 [자율주행장난감] Hough Transform을 통한 차선 검출 [1] 모두의연구소 2017.07.11 655
» LSTM 막장 예제코드 입니다. 모두의연구소 2017.07.11 643
185 [논문반]A Tutorial on Deep Learning for Music Information Retrieval file 음파선생 2017.10.23 522
184 [논문반/논문세미나] Variational Auto-Encoder [1] file 모두의연구소 2017.07.12 479
183 [PR12] Conditional Generative Adversarial Nets file 음파선생 2017.12.03 475
182 [중급반] Deep Network with Stochastic Depth [1] 모두의연구소 2017.07.11 470
181 Densely Connected Convolutional Networks 입니다 file 이긍정 2017.08.01 468
180 [논문반] VNect::Real-time 3D Human Pose Estimation with a Single RGB Camera yun 2017.08.17 426
179 [영상인식팀] 관상 프로젝트 제작 과정 정리 모두의연구소 2017.07.11 399
178 [논문반/논문세미나] DiscoGAN file 모두의연구소 2017.07.12 365