close_btn
로그인, 회원가입후 더 많은 혜택을 누리세요 로그인 회원가입 닫기

LSTM 막장 예제코드 입니다.

모두의연구소 2017.07.11 12:01 조회 수 : 795

막장이라 함은 일단 결과가 막장이고요 (...)

파라메터를 저렇게 쓰는게 아닐텐데 일단 텐서 사이즈만 맞춰서 돌아가게만 짜 놓은 코드입니다 ... ㅠㅠ

학습을 어떻게 시키는건지 전혀 모르고 있는 사람이 짜 놓은 코드이므로 그냥 API 이렇게 쓰는거다~ 하는거만 보시면 될 것 같고요... 

어찌보면 질문의 의도가 다분한 코드라고 하겠습니다.

RNN에서 말하는 steps, Batch size, classes, hidden layer 등의 파라메터들이 뭐가 어떻게 API로 들어가는지 모르겠습니다....

같이 생각해주실 스승님을 간절하게 찾고 있습니다 ㅠㅠㅠㅠ

집단지성을 믿습니다. 

아래는 작성해놓은 LSTM 코드에요 ㅋ....



import tensorflow as tf
import numpy as np


data =  [[ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19],
         [20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39]]

label = [[0], [1], [0], [0], [0]]

steps = 1
classes = 5
batch_size = 2
loss = 0.0


x = tf.placeholder(tf.float32, shape=[batch_size, 20])
y = tf.placeholder(tf.float32, shape=[classes,1])
x_input = tf.split(0, steps, x)

W = tf.Variable(tf.random_normal([classes, 2]))
b = tf.Variable(tf.random_normal([classes,1]))

lstm = tf.nn.rnn_cell.BasicLSTMCell(steps)
output, state = tf.nn.rnn(lstm, x_input, dtype=tf.float32 )

pred = tf.matmul(W, output[-1] ) + b

loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y))
optimizer = tf.train.AdamOptimizer(0.001).minimize(loss)

correct_pred = tf.equal( tf.argmax(pred,1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

init = tf.initialize_all_variables()

with tf.Session() as sess:
    feed_dict = {x: data, y:label}
    sess.run( init )

    for i in range(10000):
        sess.run(optimizer, feed_dict=feed_dict)
        if i % 100 == 0 :
            print sess.run( pred, feed_dict)
            print sess.run(accuracy, feed_dict)

    print sess.run( pred, feed_dict={x: data})
번호 제목 글쓴이 날짜 조회 수
공지 [공지] 논문 발표 리스트 음파선생 2018.01.26 2377
공지 게시판 자료 복구의 건 음파선생 2017.09.11 201
214 RNN 쉬운예제가 있었네요.. [1] 모두의연구소 2017.07.11 5612
213 [중급반/논문세미나] SSD : Single Shot MultiBox Detector [2] 모두의연구소 2017.07.11 3768
212 [중급반] Deep Metric Learning Using TripletNet Network file 모두의연구소 2017.07.11 1159
211 [논문반] Tacotron : Towards End-to-End Speech Synthesis file 음파선생 2018.04.16 1002
210 [자율주행장난감] Hough Transform을 통한 차선 검출 [1] 모두의연구소 2017.07.11 918
209 [PR12] Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network file 음파선생 2017.08.13 907
208 지난번 mnist를 rnn으로 돌린 예제코드 재업 모두의연구소 2017.07.11 906
207 [논문반/논문세미나] Yolo 9000 file 모두의연구소 2017.07.12 855
206 [논문반] Generative Adversarial Networks ilguyi 2018.07.03 809
» LSTM 막장 예제코드 입니다. 모두의연구소 2017.07.11 795
204 [논문반] Generative Adversarial Networks: An Overview file ilguyi 2017.12.06 788
203 [논문반] Deep Learning for Event-Driven Stock Prediction file 양종열 2017.11.20 762
202 [PR12] Conditional Generative Adversarial Nets file 음파선생 2017.12.03 726
201 [중급반] Deep Network with Stochastic Depth [1] 모두의연구소 2017.07.11 695
200 [논문반/논문세미나] Variational Auto-Encoder [1] file 모두의연구소 2017.07.12 564
199 [논문반/논문세미나] Matching metwork for one shot learning [1] 모두의연구소 2017.07.12 559
198 [논문반]A Tutorial on Deep Learning for Music Information Retrieval file 음파선생 2017.10.23 556
197 Densely Connected Convolutional Networks 입니다 file 이긍정 2017.08.01 555
196 [논문반] VNect::Real-time 3D Human Pose Estimation with a Single RGB Camera yun 2017.08.17 537