2016/07/02 機械学習 名古屋 第5回勉強会
abstract:
系列データ:
RNN(再帰型ニューラルネット): コンテキストを学習し、分類出来る。
コンテキスト(文脈):系列内の要素の並び、依存関係
要素の例:
RNN(再帰型ニューラルネット):
fig_7_3_a
fig_7_3_b
fig_7_4
誤差関数:(順伝播ネットワークと同様)
ただし $d^t_n$:$n$ 番目のサンプル ${\bf x}_n$ に対する、時刻 $t$ での目標出力
($(d^t_{n1}, d^t_{n2}, \dots , d^t_{nk})$ というベクトル)
双方向RNN:
データを 順方向 逆方向 両方の入力で与えるRNNを統合したもの。
《略》
《略》
※イメージ
gradient_vanishing_image()
LSTM(長・短期記憶):
RNNの拡張モデル(の1つ)。
RNNの中間層の各ユニットをメモリユニットと呼ぶ要素で置き換えた構造を持つ。
fig_7_7
TensorFlow には tf.nn.rnn_cell.BasicLSTMCell
というクラスが用意されており利用可能。
参照: class tf.nn.rnn_cell.BasicLSTMCell
cell = tf.nn.rnn_cell.BasicLSTMCell(size, forget_bias=0.5)
(cell_output, new_state) = cell(inputs, old_state)
《略》
《略》