From left, Yann LeCun, Geoffrey Hinton and Yoshua Bengio. The researchers worked on key developments for neuralnetworks, which are reshaping how computer systems are built.Credit...From left, Facebook, via Associated Press; Aaron Vincent Elkaim for The New York Times; Chad Buchanan/Getty Images SAN FRANCISCO — In 2004, Geoffrey Hinton doubled down on his pursuit of atechnological idea called a n


Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに NIPS2018に参加して,昨日,日本へ帰国しました.5日間にわたり本当に沢山の方々の話を聞くことができ,とても有意義な時間を過ごしました.多くの講演や議論の中で,機械学習・人工知能分野には,2018年現在において,以下の3つの大きな流れがあるように感じました. (1) 現状の機械学習パラダイムの不備を認識し,対策しようとする流れ (2) アルゴリズムレベル,ツールレベルの漸進的改善を進める流れ (3)機械学習と神経科学の相互リンクを生み出そうとする流れ 記憶が新鮮なうちに,これら3つの潮流についてまとめておきます.NIPS

��5 ��脳科学若手の会という団体のイベントで0�� ��Honda Research Instituteの�0a ��島崎秀昭先生に点過程によるニューロンの発火時系列の生成と推定に関するワークショップを依頼した。 ニューロンは発火活動という膜電位の急激な変化を通して互いに情報を伝達しあっている。 その発火系列は各時刻ごとに発火or非発火のバイナリで表される時系列データのため、点過程という統計的手法を用いてモデリングを行うことができる。 ワークショップではニューロンの発火時系列の解析の基礎となる点過程について島崎先生からご講演いただき、プログラミング言語�~m ��Juliaを用いて参加者が各自コーディングに取り組んだ。 自分は運営スタッフとしてワークショップのコーディング部分のチューターを担当し、サンプルコードの作成とコーディングの補助を行った。 ここではその内容を備忘録として簡単に記
こんにちは、スマートニュースの徳永です。深層学習業界はGANだとか深層強化学習だとかで盛り上がっていますが、今日は淡々と、ニューラルネットワークの量子化の話をします。 TL;DR パラメータだけを量子化するのであれば、ほぼ精度を落とさずに、パラメータのデータ容量は1/16程度にまで削減できる パラメータ、アクティベーション、勾配のすべてを量子化し、推論だけでなく学習までもビット演算だけで実現する研究が進んできている 現在は深層学習 =GPU必須というぐらいの勢いがあるけど、量子化の研究が進むと、今後はどうなるかわからないよ はじめに 情報理論における量子化とは、アナログな量を離散的な値で近似的に表現することを指しますが、本稿における量子化は厳密に言うとちょっと意味が違い、十分な(=32bitもしくは16bit)精度で表現されていた量を、ずっと少ないビット数で表現することを言います。 ニュ

新しいニューラルネットワークのアーキテクチャがその時々で誕生するため、それら全部を把握することは困難です。全ての略語を覚えようとすると、最初はその数の多さに圧倒されてしまうでしょう(DCIGNやBiLSTM、DCGANを知っている人はいますか?)。 そんなわけで、これらのアーキテクチャの多くを盛り込んだチートシートを作ることにしました。そのほとんどはニューラルネットワークです。しかし、中には全く異なるアーキテクチャも潜んでいます。どれも独特で目新しいアーキテクチャばかりですが、ノードの構造を描くことで基本的な関係が分かりやすくなってきます。 これらをノードマップとして描くことの問題点は、これらがどのように使われるかを明確に示していないという点です。例えば、変分オートエンコーダ(VAE)はオートエンコーダ(AE)と同じように見えますが、実際は訓練過程が全く異なりますし、訓練したネットワークの

Results on IWSLT (TED talk transcript) German to Englishmachine translation task. Interpretability Deep learning models are often said to be “black boxes”: You feed data in, and results come out without a human-readable explanation of why the neuralnetwork decided to produce that particular output. In principle,it is always possible to attempt to understand the internal workings of a neuralnet

Note: this is now a very old tutorial that I’m leaving up, but I don’t believe should be referenced or used. Better materials include CS231n course lectures, slides, andnotes, or the Deep Learning book. Hi there, I’m a CS PhD student at Stanford. I’ve worked on Deep Learning for a few years as part of my research and among several of my related pet projects is ConvNetJS - aJavascript library for
Advanced Research Seminar I/III Graduate School of Information Science Nara Institute of Science andTechnology January 2014 Instructor: Kevin Duh, ISBuilding Room A-705 Office hours: after class, or appointment byemail (x@is.naist.jp where x=kevinduh) Course Description Deep Learning is a family of methods that exploits using deep architectures to learn high-level feature representations from d
岡野原です。Deep Learningが各分野のコンペティションで優勝し話題になっています。Deep Learningは7、8段と深いニューラルネットを使う学習手法です。すでに、画像認識、音声認識、最も最近では化合物の活性予測で優勝したり、既存データ・セットでの最高精度を達成しています。以下に幾つか例をあげます。 画像認識 LSVRC 2012 [html] 優勝チームスライド [pdf], まとめスライド[pdf]Googleによる巨大なNeuralNetを利用した画像認識(猫認識として有名)[paper][slide][日本語解説] また、各分野のトップカンファレンスでDeep Learningのチュートリアルが行われ、サーベイ論文もいくつか出ました。おそらく来年以降こうした話が増えてくることが考えられます。 ICML 2012 [pdf] ACL 2012 [pdf] CVPR

平成24年6月29日 東京大学大学院教育学研究科 1.発表者 平島 雅也(東京大学大学院教育学研究科・助教) 野崎 大地(東京大学大学院教育学研究科・教授) 2.発表のポイント ◆どのような成果を出したのか 運動学習プロセスにおける「軽微な忘却」には、運動指令を最適化するという予想外の効果があることを理論的に証明しました。 ◆新規性(何が新しいのか) 脳における最適化計算の実態は謎に包まれていましたが、脳に生得的に備わっている忘却という機能がその役割を担っている可能性を初めて示しました。 ◆社会的意義/将来の展望 適度な休息(忘却)を取り入れた効率的な練習スケジュールの開発など、スポーツやリハビリテーション分野への応用につながることが期待されます。 3.発表概要 忘却というと、記憶を阻害するものとして悪いイメージを持つ人が多いかもしれません。しかし、今回、東京大学大学院教育学研究科 平島雅
科学技術振興機構(JST)と東京大学は1月20日、脳の神経回路が、回路を形成する神経細胞「ニューロン」(画像1)より小さく、「シナプス」の単位で正確に編まれることで機能を発揮することを明らかにしたと発表した。東京大学大学院薬学系研究科の池谷裕二准教授らの研究グループによる発見で、成果は米科学誌「Science」に米国東部時間1月20日に掲載された。 画像1。ニューロンとシナプスの基本構造。ニューロンは、樹状突起が広がる細胞体部分と、そこから長く伸びる軸索とで構成され、ほかのニューロンから受け取った情報を処理して、ほかのニューロンに伝えていく。シナプス部分では、神経伝達物質を使って情報をほかのニューロンに伝える 脳はニューロンと呼ばれる神経細胞からなり、各々のニューロンが、少しずつ情報を処理している。その処理結果は、ニューロン間の特殊な結合であるシナプスを介して、次のニューロンに伝えられる(

「意識による判断の7秒前に、脳が判断」:脳スキャナーで行動予告が可能 2008年4月17日 サイエンス・テクノロジー コメント: トラックバック (0) Brandon Keim この図は、被験者が実際に決定を下す前に、その決定が発現する脳の領域(緑の部分)を示している。 Photo:John-Dylan Haynes あなたは、自分がこの記事を読む決定をしたと思っているかもしれない。だが実際は、あなたが自分の決定を認知するずっと前に、脳が決定を下したのだ。 4月13日(米国時間)に『Nature Neuroscience』誌に発表された研究報告によると、脳スキャナーを使った研究者らは、被験者が自分で認識するより7秒も早く、彼らの決定を予測できたという。 今回調査されたのは、ボタンを左手と右手のどちらで押すかに関する判断であり、これは、人間の自己決定の感覚とより完全に結びついた複雑な選択
1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く