close_btn
로그인, 회원가입후 더 많은 혜택을 누리세요 로그인 회원가입 닫기

LSTM 막장 예제코드 입니다.

모두의연구소 2017.07.11 12:01 조회 수 : 879

막장이라 함은 일단 결과가 막장이고요 (...)

파라메터를 저렇게 쓰는게 아닐텐데 일단 텐서 사이즈만 맞춰서 돌아가게만 짜 놓은 코드입니다 ... ㅠㅠ

학습을 어떻게 시키는건지 전혀 모르고 있는 사람이 짜 놓은 코드이므로 그냥 API 이렇게 쓰는거다~ 하는거만 보시면 될 것 같고요... 

어찌보면 질문의 의도가 다분한 코드라고 하겠습니다.

RNN에서 말하는 steps, Batch size, classes, hidden layer 등의 파라메터들이 뭐가 어떻게 API로 들어가는지 모르겠습니다....

같이 생각해주실 스승님을 간절하게 찾고 있습니다 ㅠㅠㅠㅠ

집단지성을 믿습니다. 

아래는 작성해놓은 LSTM 코드에요 ㅋ....



import tensorflow as tf
import numpy as np


data =  [[ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19],
         [20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39]]

label = [[0], [1], [0], [0], [0]]

steps = 1
classes = 5
batch_size = 2
loss = 0.0


x = tf.placeholder(tf.float32, shape=[batch_size, 20])
y = tf.placeholder(tf.float32, shape=[classes,1])
x_input = tf.split(0, steps, x)

W = tf.Variable(tf.random_normal([classes, 2]))
b = tf.Variable(tf.random_normal([classes,1]))

lstm = tf.nn.rnn_cell.BasicLSTMCell(steps)
output, state = tf.nn.rnn(lstm, x_input, dtype=tf.float32 )

pred = tf.matmul(W, output[-1] ) + b

loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y))
optimizer = tf.train.AdamOptimizer(0.001).minimize(loss)

correct_pred = tf.equal( tf.argmax(pred,1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

init = tf.initialize_all_variables()

with tf.Session() as sess:
    feed_dict = {x: data, y:label}
    sess.run( init )

    for i in range(10000):
        sess.run(optimizer, feed_dict=feed_dict)
        if i % 100 == 0 :
            print sess.run( pred, feed_dict)
            print sess.run(accuracy, feed_dict)

    print sess.run( pred, feed_dict={x: data})
번호 제목 글쓴이 날짜 조회 수
공지 [공지] 논문 발표 리스트 음파선생 2018.01.26 2956
공지 게시판 자료 복구의 건 음파선생 2017.09.11 249
218 RNN 쉬운예제가 있었네요.. [1] 모두의연구소 2017.07.11 7082
217 [중급반/논문세미나] SSD : Single Shot MultiBox Detector [3] 모두의연구소 2017.07.11 4515
216 [중급반] Deep Metric Learning Using TripletNet Network file 모두의연구소 2017.07.11 1549
215 [논문반] Tacotron : Towards End-to-End Speech Synthesis file 음파선생 2018.04.16 1210
214 [자율주행장난감] Hough Transform을 통한 차선 검출 [1] 모두의연구소 2017.07.11 1174
213 지난번 mnist를 rnn으로 돌린 예제코드 재업 모두의연구소 2017.07.11 1112
212 [PR12] Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network file 음파선생 2017.08.13 1102
211 [PR12] Conditional Generative Adversarial Nets file 음파선생 2017.12.03 953
210 [논문반/논문세미나] Yolo 9000 file 모두의연구소 2017.07.12 946
209 [중급반] Deep Network with Stochastic Depth [1] 모두의연구소 2017.07.11 897
208 [논문반] Generative Adversarial Networks ilguyi 2018.07.03 893
» LSTM 막장 예제코드 입니다. 모두의연구소 2017.07.11 879
206 [논문반] Generative Adversarial Networks: An Overview file ilguyi 2017.12.06 823
205 [논문반/논문세미나] Matching metwork for one shot learning [1] 모두의연구소 2017.07.12 780
204 [논문반] Deep Learning for Event-Driven Stock Prediction file 양종열 2017.11.20 775
203 [논문반] Self-Attention Generative Adversarial Networks file 음파선생 2018.07.09 722
202 [논문반] VNect::Real-time 3D Human Pose Estimation with a Single RGB Camera yun 2017.08.17 671
201 Densely Connected Convolutional Networks 입니다 file 이긍정 2017.08.01 630
200 [논문반/논문세미나] Variational Auto-Encoder [1] file 모두의연구소 2017.07.12 621