Results on IWSLT (TED talk transcript) German to Englishmachine translation task. Interpretability Deep learning models are often said to be “black boxes”: You feed data in, and results come out without a human-readable explanation of why the neuralnetwork decided to produce that particular output. In principle,it is always possible to attempt to understand the internal workings of a neuralnet

RNN「これってもしかして」CNN「わたしたちのモデルが・・・」 「「入れ替わってる~~~!?」」 というわけでQRNN、QUASI-RECURRENT NEURALNETWORKSとは、RNNの機構をCNNで「疑似的(QUASI)に」実装するというモデルです。これにより、既存のRNN(というかLSTM)が抱えていたいくつかの問題の解決を試みています。 元論文は以下となります。 QUASI-RECURRENT NEURALNETWORKS 作者によるブログ 作者の方のブログにChainerのサンプルコードがあったので、それを元にTensorFlowで実装してみました。早く動かしたい!という方はこちらを見てみてください。 icoxfog417/tensorflow_qrnn (Starを頂ければ励みになります m(_ _)m)本記事では、この研究のモチベーションとそのアプローチについ

1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く