エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ここにツイート内容が記載されますhttps://b.hatena.ne.jp/URLはspanで囲んでください
Twitterで共有ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
はじめに 特徴空間でデータの変換を見る データの準備 行列で変換してみる シグモイド活性化関数を通し...はじめに 特徴空間でデータの変換を見る データの準備 行列で変換してみる シグモイド活性化関数を通してみる ReLU活性化関数を通してみる 多層のパーセプトロン ReLUを用いた2層のパーセプトロンにしてみる 誤差逆伝搬法 はじめに 活性化関数のグラフを$y=f(x)$のグラフとして見るのはよくやることです。私のブログでも以下の記事でそれを取り扱っています。 www.hellocybernetics.tech ところで、ニューラルネットワークと言えば、 $$ z = Wx $$ という線形変換と、適当な非線形の活性化関数を用いて $$ y = f(z) $$ を組み合わせて使います。もしも活性化関数を使わずに、単に線形変換を何度もするだけでは多層にする意味が無くなってしまうからです。 $$ y = W_5W_4W_3W_2W_1x $$ なんてものを考えてみたって、$W=W_5W_4W_3