Movatterモバイル変換


[0]ホーム

URL:


4,267 views

Lecture univ.tokyo 2017_okanohara

Lecture at the Univ. of Tokyo, 2017.

Related topics:
実世界の人工知能自動運転、ロボットライフサイエンス、アートクリエーションPreferred Networks岡野原 大輔hillbig@preferred.jp2017/06/21 東京大学先端技術特別講義
会社紹介:Preferred Networks, Inc. (PFN) 設 立:2014年3月 所在地:東京都千代田区大手町(日本)、カリフォルニア州サンマテオ(米国) 取締役:西川 徹、岡野原 大輔、長谷川 順一 出資者:NTT(2014年)、Fanuc(2015年)、Toyota(2015年) 従業員:約90人 殆どが研究者、エンジニア ミッション:IoT時代に向けた分散知能を備える新しいコンピュータを創造する 事業内容: IoT(Internet of Things) + 分散機械学習⁃ 交通システム⁃ 産業用ロボット⁃ バイオヘルスケア2We are hiring!!
Preferred Networks’ positioning in AI: Industrial IoTHumanoid RobotConsumer IndustrialCloudDevicePhotoGameTextSpeechInfrastructureFactory RobotAutomotiveHealthcareSmart CityIndustry4.0Industrial IoT
Our Strategic Partners and Collaborators
5人工知能の話しの前に人工知能と飛行機(1/3) 飛行機は鳥や虫とは違う仕組みで実現されているが、「空を飛ぶ」という目的は達成している⁃ 鳥の羽、胸筋のような高機能なハードウェアはまだ作れない⁃ しかし、別の機構(プロペラ、ジェットエンジン)を使って鳥よりも速く遠くへ飛ぶことが可能⁃ 実現可能な機能、またその難易度は違う。例えば、ハチドリのように自由自在に飛び回ることはできない 人工知能も人の知能とは違う仕組みで実現されているが「知能」的なタスクを実現する目的は達成しつつある⁃ 必ずしも人の知能レベルを全て実現しなくても役に立つ⁃ 難易度が違うことを理解しなければいけない
6人工知能と飛行機(2/3) 今の人工知能は大雑把に言えば大人の知能と乳児の知能で構成される⁃ 機械は元々、記憶、数値計算、大量のシミュレーションといった能力は優れている(大人の知能)⁃ 一方、深層学習により人間が無意識で解き、(演繹的なアプローチで実現が難しかった)タスクも2〜3歳児程度は実現されるようになった(乳児の知能)⁃ 大人の知能と乳児の知能が混載している 実現している仕組みが違うため、人にとって難しい問題を容易に解き、易しい問題を逆に解くことができない⁃ これを理解した上で実用化をしないといけない
7人工知能と飛行機(3/3) 飛行機は現在の飛行機の登場(ライト兄弟 1903年)から約10年で定期旅客機が登場し、航空機業界が誕生した⁃ 現在年間のべ25億人が搭乗し、鳥と同様に空を飛び回っている⁃ 鳥のように飛ぶロボットもようやく登場しつつある 人工知能も同様に、今後数年で新しい分野を生み出し、人間の可能性を大きく伸ばしていくことが期待される⁃ 実用化(=一般の人が当たり前のように利用する)までの時間は短くなっている⁃ 人の知能の解明にはもう少し時間はかかりそう
人工知能の仕組み
9代表的な学習手法 教師あり学習⁃ 入力xから出力yへの写像 y=f(x)を獲得する⁃ 学習データは正解のペア{(x, y)} 教師なし学習⁃ データの隠れた構造を獲得する⁃ 学習データはデータの集合{(xi)} 強化学習⁃ 環境において将来期待報酬を最大化する行動を獲得する⁃ 学習データは自分がとった状態とその時の報酬{(x, ri)} [Doya 99]
ディープラーニング(深層学習)とは 層が深く、幅も広いニューラルネットワークを利用した機械学習手法 2012年の大ブレーク以来、研究コミュニティのみならず産業界に多く使われてきた 画像認識、音声認識、強化学習、自然言語処理などで劇的な精度向上を果たし、その多くが既に実用化されている102014年の一般画像認識コンテストで優勝した22層からなるのGoogLeNetの例 [Google 2014]*http://memkite.com/deep-learning-bibliography/
ディープラーニングの基本計算11 下層の入力xを重み付きで足しあわせた後に活性化関数hをかけて出力– Wiがモデルパラメータであり、重みと呼ばれるx1x2x3+1w1w2w3w4h = a(x1w1+x2w2+x3w3+w4)haの例 ReLU: h(x) = max(0, x)a : 活性化関数バイアス項 活性化関数には、ReLUなど勾配消失問題を回避できる区分線形関数が多く使われる
ディープラーニングの基本計算12 先ほどの基本計算を何層にも繰り返して出力yを求めるx1x2x3+1+1+1y深いレイヤーはパーツを組み合わせた総合的かつ抽象的な情報
例: 入力でみると、各層毎に入力が変形されていく13https://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
ディープラーニングの学習 (1/4) 正解ラベルとの違いからエラーlを求める⁃ 例:回帰:l(y, y*)= (y – y*)2 目標:Iが小さくなるように各パラメータ{wi}を調整する 問題:各重みをどのように調整すればよいか? → 誤差逆伝播法x1x2x3+1+1 +1 正解の出力lyy*
15ディープラーニングの学習 (2/4)歯車の例(誤差逆伝播法を理解するため) 問: Aを1回転させるとDは何回転するか? Cを1回転させるとDは16/12回転⁃ これを dD / dC = 16/12 と書く(Cをd動かすとDは16/12d動く) Bを1回転させると,dC / dB = 8/16のため,dD/dB =(16/12)(8/16)=8/12 dD/dA = (dD/dC)*(dC/dB)*(dB/dA) =10/12 答え: 10/12回転AB C歯の数が10816D12
ディープラーニングの学習 (3/4) 誤差逆伝播法 出力からエラーの勾配をデータの流れとは逆に流す– 出力を変えたら、最終目標lがどのように変わるか– 各パラメータについての勾配を正確に求められるx1x2x3+1r slyy*yを動かしたらlがどのように変わるのかsを動かしたらlがどのように変わるのかwを動かしたらlがどのように変わるのかw=r
17ディープラーニングの学習 (4/4)確率的勾配降下法 目的関数L(θ)のθについての勾配 v = ∂L(θ)/∂θは誤差逆伝播法で効率的に求められる⁃ Lはタスクを間違えた時に正の値、正しい時0をとる関数⁃ -vはL(θ)を最も急激に小さくできる方向 データ毎に θt+1 := θt – αvt と更新⁃ α>0 は学習率⁃ 曲率などを考慮したAdamやRMSPropなどが使われるパラメータ空間目的関数の等高線-αv1θ1θ2
18誤差逆伝播法は強力 誤差逆伝播法は最終的な目的関数の各パラメータや入力についての勾配を正確に求められる⁃ ある目的関数の値を変えるために各パラメータをどれだけ動かせばよいのかが正確にわかる 誤差逆伝播法は前向き計算と同じ計算量⁃ パラメータ数に対して計算量は線形 どれだけ複雑な計算グラフであっても計算できる⁃ 1000層を超えても,ループがあっても、分岐があっても大丈夫 確率層,つまり確率変数のサンプリングを含んでも誤差逆伝播法を使って勾配を求められる⇒次章以降
なぜディープラーニングがうまくいくのか? 解明されていない謎が徐々に解けつつある NNの最適化問題は非凸であり極小解にはまる→大きなNNでは殆ど全ての極小解は最適解 [Nguyen+ 17] なぜDNNの汎化性能が高いか?パラメータ数が学習事例に対し多いのに過学習しないのか→SGDによる最適化はベイズ最適化に対応し良い汎化性能を持つ[Hoffman+ 17]SGDにより見つかる解はMDLに対応 [Hinton+ 93], [Hochreiter+ 97]GDにより見つかる解は核型ノルムが最少 [Gunasekar+ 17] 自然界にみられるデータが備える特徴とDNNのモデルが一致する[Lin+ 16]⁃ 低次性、局所相互作用性、対称性、マルコフ性19/50
深層学習 = 表現学習、一貫学習(end-to-end学習) データをどのように表現するか(表現学習) 全モジュールを誤差逆伝播法で一貫して学習⁃ モジュール毎の局所最適化の問題がない⁃ 信用割り当て問題(誰に間違った責任があるか)を自然に解く20/50特徴設計ルール・プログラムタスクの学習ルールベース浅い機械学習(決定木、RF、SVM、ロジスティク回帰など)深層学習タスクの学習表現学習(特徴設計)人手 データから自動獲得一貫学習
深層学習の特徴マルチモーダル、マルチタスク学習が容易に マルチモーダル*˗ 異なる種類の入力を統合˗ 統合の仕方はNNが学習する マルチタスク˗ 異なるタスクを一緒に扱う˗ 共通する特徴を学習できる画像 テキスト ゲノム 入力データタスクA B C*注:データで全モーダルが揃っている必要はない c.f. DropOut
急激に複雑化するニューラルネットワーク2012年〜2014年22AlexNet, Kryzyevsky+, 2012 ImageNet winner(8層)GoogLeNet, Szegedy+, 2014
形は可変、多様な計算手法、つながり方2015年〜現在x_1 h y_1x_2 h y_2x_3 h y_3t=1t=2t=3x_4 h y_4t=4BPTT length = 3Input word OutputRecurrent stateStochastic Residual Net, Huang+, 2016Recurrent NNFractalNet, Larsson+, 2016RoR, Zhang+, 2016 23Dense CNN, Huang+, 2016
自動車
ロボット
26認識の問題は解けつつある Occlusionがある場合や、対象が小さくても検出できるように APCでも画像認識が重要だった
異常検知
28異常検知の難しさ:単一手法で様々な種類の正常状態と異なるタイプの異常パターンに対応するのが困難 基本:特定の異常を見つけるために手法の選択や設定が必要⁃ 注目する特徴量⁃ センサー値の大小、周波数成分の大小、分布 人でもセンサの意味を理解したり異常を定義するのは難しい 疑問:もっと汎用的に使える異常検知手法はないか?⁃ 例:下記異常を全て検出し、右の正常ケースでは無反応正常ケース(2)異常を含むケース(3)numenta/NABの人工ベンチマーク時系列データセットスパイク異常振動立ち上がり失敗
提案異常検知手法の特徴 正常なデータのみから異常検知モデルを作れる⁃ 故障データは必要ない,教師なし学習⁃ 異常を検知後、実際の故障が発生するタイミングを予測するには故障データが必要 生の高次元データをそのまま利用可能⁃ 人間による特徴設計は必要ない.特に周波数解析後のスペクトルや画像などが利用可能 正規化された異常度スコア(尤度)を出力する⁃ システムが正常だった場合に、そのセンサデータがどのぐらいの確率で観測されるかを出力する 複数センサを組み合わせた異常検知が可能29
実例:FANUC減速器のセンサー異常検知30異常な部分を抽出するディープラーニング技術異常は発見されない異常を検出正常時の波形 異常時の波形実際の減速機から得られたセンサデータ
31既存手法で検出が遅かった異常を事前に検出提案手法経過時間異常スコア故障の約40日前に故障予兆を捉える判定閾値既存手法経過時間ロボット故障ロボット故障 15日前故障直前までスコアがほぼ反応しない
バイオ・ヘルスケア
乳がん検査の精度90%99%80%マンモグラフィーリキッドバイオプシー(血液中のmicroRNA)[Shimomura+ Cancer Science 2016]リキッドバイオプシー+Deep Learning33
ディープラーニングmiRNA診断のさらなる可能性 さらなるデータにより、13種のがんを一挙に正確に予測 良性、悪性のがんを見分ける がんのステージ予測 miRNAはガンのみならず、様々な疾患を診断することが可能アルツハイマー、心筋梗塞、脳卒中などの診断・予測 血中miRNA分析により、治療方針の決定や最適治療薬の選定など個別化医療の強力な手法になりうる がん向けの創薬につながる⁃ どのmiRNAやその組み合わせの変化が、がんに影響を与えるか
「人工知能(AI)を活用した統合的がん医療システム開発プロジェクト開始」2016/11/29with 国立がん研究センター, 産総研AIセンター臨床情報、マルチオミックスデータ、医用画像,、疫学データを利用しPrecision Medicineの実現を目指す35
ゲノム解析によるガンの診断、治療にフォーカス なぜゲノム解析なのか⁃ 客観的な情報で、データに基づく医療を実現できる⁃ 情報量が多く、これまで見えなかった情報に基づいた診断ができる特に、RNA解析,miRNA解析 なぜガンなのか⁃ もっともゲノム解析がインパクトを与える領域、ゲノム変異がガンの本質であり、それを解析することで診断、治療を大きく改善できる⁃ 最も、個人化医療が進む、個人事にガン特異的変異は異なるまた、ガン免疫の場合、個人毎にMHCも変わってくる36
ディープラーニングによるガン診断の高度化 ゲノム情報に基づくガン診断,及び分子標的薬の効果予測の高度化⁃ ガンマーカー検出とフェーズの判定⁃ 治療効果の予測と治療方法の提案⁃ 従来の統計分析、機械学習では実現不可能だった少数サンプルからの推定c.f. パラメータ数に対してサンプル数が少ない問題(新NP問題) ディープラーニングの利用によって見込まれる効果⁃ ディープラーニングは、半教師あり学習が可能である。→教師無しデータを使ってゲノム情報の表現を獲得する⁃ ディープラーニングは、高次元データを扱える。→非常に高次元なゲノム情報であっても、機械学習のための特徴設計が可能である。37
PFNがん研究所 (PCRI) 東京大学産業連携プラザ内に設立 PCRIでは、次世代シークエンサーを利用したウェットラボを立ち上げ、最新最先端のAIとバイオテクノロジーの研究・産業化を進めている特に次の分野に注力1)新規がん診断法の確立2)ゲノム分析によるがん治療方針の決定、最適治療薬の選択や術後の予測、3)それぞれの患者に適応した個別化創薬382016年10月3日設立
コミュニケーション
40社内での対話システムの実験の様子からの抜粋(bot-elikaが対話システム)直前の言葉に反応できている文の意味や文脈は理解できていない
41偶然それらしい会話になることもある。
クリエーター
画像の自動生成 Chainer-gophhttps://github.com/mattya/chainer-gogh 深層学習は画像も生成できる 左の画像からスタイルだけを抽出し、ネコの画像を生成43
chainer-DCGAN 学習30分後画像を0から生成するNN https://github.com/mattya/chainer-DCGAN44
学習2時間後45
学習1日後46
GANによる花の生成例47
48LSGANによる教会の生成例 [Mao+ 16]
49GANによる生成例http://mtyka.github.io/machine/learning/2017/06/06/highres-gan-faces.html
50自然画像はまだ難しい現在のVAEやGANは1発で生成しているが複数物体、前景/背景が含まれる場合は困難か
51PaintsChainer (#PaintsChainer) 線画に着色する学習をしたNN U-Net+絵の拡大の学習 1日あたり最初は20〜30万枚、現在でも2〜3万枚の線画が着色されている http://free-illustrations.gatag.net/2014/01/10/220000.html
52PaintsChainerの例(風景画像) @munashihciさんのtweetより引用
53
今後の展望PFNの取り組みより
今後の競争は様々なところでおきる0101011100011学習データ 計算リソース 学習済みモデル学習アルゴリズム学習理論実装(DNNフレームワーク)55
今後の競争は様々なところでおきる0101011100011学習データ 計算リソース 学習済みモデル学習アルゴリズム学習理論実装(DNNフレームワーク)56
57学習データをどのように集めるか 重要で大量のデータをいかに集めるか ライフサイエンスの事例:Grail⁃ Illumina発のスタートアップ、GoogleX, Illumina取締役のJeff HuberがCEO、アドバイザに各分野の重要人物⁃ $900millionをシリーズBで調達し、がんの血液検査(Liquid Biopsy)による早期発見を実現するために数十万人の患者のゲノムデータを集める 技術を組み合せ工夫して、データの数を増やせるか?⁃ 例えばiPS細胞+ゲノム編集+Single Cell+次世代シーケンサを使った疾病モデルの網羅解析 時間解像度をどのようにあげられるか?⁃ 現状多くのライフサイエンスデータはスナップショット
今後の競争は様々なところでおきる0101011100011学習データ 計算リソース 学習済みモデル学習アルゴリズム学習理論実装(DNNフレームワーク)58
59今後の機械学習/深層学習が必要とする計算リソース1E〜100E Flops自動運転車1台あたり1日 1TB10台〜1000台, 100日分の走行データの学習バイオ・ヘルスケア音声認識 ロボット/ドローン10P〜 Flops1万人の5000時間分の音声データ人工的に生成された10万時間の音声データを基に学習 [Baidu 2015]100P 〜 1E Flops一人あたりゲノム解析で約10M個のSNPs100万人で100PFlops、1億人で1EFlops10P(画像) 〜 10E(映像) Flops学習データ:1億枚の画像 10000クラス分類数千ノードで6ヶ月 [Google 2015]画像/映像認識1E〜100E Flops1台あたり年間1TB100万台〜1億台から得られたデータで学習する場合自動運転10PF 100EF100PF 1EF 10EFP:PetaE:ExaF:Flops機械学習、深層学習は学習データが大きいほど高精度になる現在は人が生み出したデータが対象だが、今後は機械が生み出すデータが対象となる各種推定値は1GBの学習データに対して1日で学習するためには1TFlops必要だとして計算学習を1日で終わらせるのに必要な計算リソース
PFNも独自の計算インフラを構築中 現状の計算環境⁃ 現在トータル2ペタflops程度(200GPU)@さくらインターネット高火力⁃ 今年に10ペタflops(1000GPU)相当まで拡大する想定⁃ 参考:京コンピュータ 10ペタ Flops(倍精度, 2012年)Baidu Minwa 0.6ペタ Flops (2015年)Googleは現在数万GPU(>100PF)を使っていると推定 深層学習専用チップを開発中⁃ 2019年頃にトータルで1エクサ DL opsを目指す クラウド環境か?自分で構築するか?⁃ 現状GPU+分散計算はHPCに近くクラウド環境からは遠い60
今後の競争は様々なところでおきる0101011100011学習データ 計算リソース 学習済みモデル学習アルゴリズム学習理論実装(DNNフレームワーク)61
Chainer as an open-source project https://github.com/pfnet/chainer 101 contributors 2,128 stars & 564 fork 7,335 commits Active development & release⁃ v1.0.0 (June 2015) to v1.20.1 (January 2017)62Original developerSeiya Tokui
Popularity Growth63
Define-by-Run# 構築x = Variable(‘x’)y = Variable(‘y’)z = x + 2 * y# 評価for xi, yi in data:eval(z, (xi, yi))# 構築と評価が同時for xi, yi in data:x = Variable(xi)y = Variable(yi)z = x + 2 * yデータを見ながら違う処理をしてもよいDefine-and-Run Define-by-Run64
Chainer v2.0.0大幅なメモリ消費量削減、ユーザフィードバックを反映しAPIを整理https://cupy.chainer.orghttps://chainer.org65
Chainerの追加パッケージ分散深層学習・深層強化学習・コンピュータビジョンChainerMN: 分散深層学習用追加パッケージ高いスケーラビリティ(128GPUで100倍の高速化)ChainerRL: 深層強化学習ライブラリDQN, DDPG, A3C, ACER, NSQ, PCL, etc. OpenAI Gym サポートChainerCV: 画像認識アルゴリズム・データセットラッパーを提供Faster R-CNN, Single Shot Multibox Detector (SSD), SegNet, etc.MNRLCV分散学習強化学習画像認識
67ChainerMN マルチノード分散学習Imagenetの学習が20日超から4.4時間にChainerMNdeveloperTakuya Akiba
68分散・高速化しても精度は変わらない
今後の競争は様々なところでおきる0101011100011学習データ 計算リソース 学習済みモデル学習アルゴリズム学習理論実装(DNNフレームワーク)69
半教師あり学習VAT:仮想敵対事例学習[Miyato+ 16] 現在の半教師あり学習の最高精度*⁃ 大量の教師なしデータと少量の教師ありで学習Takeru Miyato* CIFAR-10, SVHNを含んだ実験結果は投稿準備中 70
教師なし学習 [Hu+ 17]IMSAT:VATにさらに情報量最大基準を組み合わせて離散値への教師なし符号化を行う現在の教師なしクラスタリング、Hash学習の最高精度2016夏 PFN Internでの成果71
学習アルゴリズム、学習理論 多くは論文としてコミュニティで共有されている⁃ 1日10〜30本、年間数千本〜1万本、主にarXivで見つかる⁃ インターンが様々な企業を渡り歩いて成果をあげてるのも特徴 実用化は様々な分野で同時多発的に起きている⁃ 実用化されている分野は技術、ノウハウの公開は限定的⁃ 公開されている研究技術よりかなり先に進んでいる分野も多い 論文にならないノウハウが急速に蓄積されている⁃ 現状、深層学習では様々なノウハウが差別化になっている例:GANの学習は非常に不安定⁃ ハイパーパラメータ、モデル選択、学習手法、選択など72
まとめ 深層学習・強化学習の進化は著しい⁃ 新しい理論、新しいアルゴリズム、新しいソフトウェア⁃ 世界中で同時多発的に進化が起きている 深層学習は様々な分野で利用されていく⁃ 想像しなかったアプリケーションも増えている⁃ 様々な分野で速く試行錯誤するのが大切 研究と実用化とビジネス化が同時に起こっている⁃ 実用レベルになってからビジネス化が速い(例 Amazon Alexa)⁃ 研究の段階から実用化、ビジネス化のチームが付き添うのが重要73

Recommended

PDF
aiconf2017okanohara
PDF
Session4:「先進ビッグデータ応用を支える機械学習に求められる新技術」/比戸将平
PDF
実世界の人工知能@DeNA TechCon 2017
PDF
基調講演:「多様化する情報を支える技術」/西川徹
PDF
Ibis2016okanohara
PDF
tut_pfi_2012
PDF
大規模データ時代に求められる自然言語処理
PDF
20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~
PDF
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
PDF
ディープラーニングが活かすIoT
PDF
ディープラーニングの産業応用とそれを支える技術
PDF
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
PDF
rcast_20140411
PPTX
深層学習とTensorFlow入門
PDF
Deep Learningを用いたロボット制御
PDF
ディープラーニングの最新動向
PDF
NIPS2015概要資料
PDF
「人工知能」をあなたのビジネスで活用するには
PDF
医療ビッグデータの今後を見通すために知っておきたい機械学習の基礎〜最前線 agains COVID-19
PDF
自然言語処理紹介(就職編)
PDF
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
PPTX
ディープラーニングで株価予測をやってみた
PDF
IIBMP2016 深層生成モデルによる表現学習
PDF
mlabforum2012_okanohara
PDF
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
PDF
イノベーションことはじめ
PPTX
「実ロボットの運動生成」
PDF
PBAI
PDF
20171024 DLLab#04_PFN_Hiroshi Maruyama
PDF
Chainer OpenPOWER developer congress HandsON 20170522_ota

More Related Content

PDF
aiconf2017okanohara
PDF
Session4:「先進ビッグデータ応用を支える機械学習に求められる新技術」/比戸将平
PDF
実世界の人工知能@DeNA TechCon 2017
PDF
基調講演:「多様化する情報を支える技術」/西川徹
PDF
Ibis2016okanohara
PDF
tut_pfi_2012
PDF
大規模データ時代に求められる自然言語処理
PDF
20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~
aiconf2017okanohara
Session4:「先進ビッグデータ応用を支える機械学習に求められる新技術」/比戸将平
実世界の人工知能@DeNA TechCon 2017
基調講演:「多様化する情報を支える技術」/西川徹
Ibis2016okanohara
tut_pfi_2012
大規模データ時代に求められる自然言語処理
20180305_ppl2018_演繹から帰納へ~新しいシステム開発パラダイム~

What's hot

PDF
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
PDF
ディープラーニングが活かすIoT
PDF
ディープラーニングの産業応用とそれを支える技術
PDF
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
PDF
rcast_20140411
PPTX
深層学習とTensorFlow入門
PDF
Deep Learningを用いたロボット制御
PDF
ディープラーニングの最新動向
PDF
NIPS2015概要資料
PDF
「人工知能」をあなたのビジネスで活用するには
PDF
医療ビッグデータの今後を見通すために知っておきたい機械学習の基礎〜最前線 agains COVID-19
PDF
自然言語処理紹介(就職編)
PDF
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
PPTX
ディープラーニングで株価予測をやってみた
PDF
IIBMP2016 深層生成モデルによる表現学習
PDF
mlabforum2012_okanohara
PDF
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
PDF
イノベーションことはじめ
PPTX
「実ロボットの運動生成」
PDF
PBAI
20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
ディープラーニングが活かすIoT
ディープラーニングの産業応用とそれを支える技術
【参考文献追加】20180115_東大医学部機能生物学セミナー_深層学習の最前線とこれから_岡野原大輔
rcast_20140411
深層学習とTensorFlow入門
Deep Learningを用いたロボット制御
ディープラーニングの最新動向
NIPS2015概要資料
「人工知能」をあなたのビジネスで活用するには
医療ビッグデータの今後を見通すために知っておきたい機械学習の基礎〜最前線 agains COVID-19
自然言語処理紹介(就職編)
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
ディープラーニングで株価予測をやってみた
IIBMP2016 深層生成モデルによる表現学習
mlabforum2012_okanohara
SSII2021 [SS1] Transformer x Computer Visionの 実活用可能性と展望 〜 TransformerのCompute...
 
イノベーションことはじめ
「実ロボットの運動生成」
PBAI

Viewers also liked

PDF
20171024 DLLab#04_PFN_Hiroshi Maruyama
PDF
Chainer OpenPOWER developer congress HandsON 20170522_ota
PDF
Deep Learning Lab: DIMo & Chainer
PPTX
PFN x Microsoft Alliance
PDF
【DLL3】20170904_AIガイドライン_PFN丸山宏
PDF
Deep Learning Practice and Theory
PDF
Dll講演資料 2017616
PDF
Gatsby kaken-2017-pfn okanohara
PDF
20170419PFNオープンハウス リサーチャーの仕事_公開用
PDF
comp_pfiseminar
PDF
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
PDF
20170419PFNオープンハウス インターンと採用 公開用
PDF
Introduction to Chainer
PDF
Pythonと機械学習によるWebセキュリティの自動化
PDF
IPAB2017 深層学習を使った新薬の探索から創造へ
PDF
10分でわかる主成分分析(PCA)
PPTX
分散システムについて語らせてくれ
PDF
Pycon2017
PPTX
猫でも分かるVariational AutoEncoder
PPTX
Deep parking
20171024 DLLab#04_PFN_Hiroshi Maruyama
Chainer OpenPOWER developer congress HandsON 20170522_ota
Deep Learning Lab: DIMo & Chainer
PFN x Microsoft Alliance
【DLL3】20170904_AIガイドライン_PFN丸山宏
Deep Learning Practice and Theory
Dll講演資料 2017616
Gatsby kaken-2017-pfn okanohara
20170419PFNオープンハウス リサーチャーの仕事_公開用
comp_pfiseminar
文法圧縮入門:超高速テキスト処理のためのデータ圧縮(NLP2014チュートリアル)
20170419PFNオープンハウス インターンと採用 公開用
Introduction to Chainer
Pythonと機械学習によるWebセキュリティの自動化
IPAB2017 深層学習を使った新薬の探索から創造へ
10分でわかる主成分分析(PCA)
分散システムについて語らせてくれ
Pycon2017
猫でも分かるVariational AutoEncoder
Deep parking

Similar to Lecture univ.tokyo 2017_okanohara

PDF
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
PDF
実社会・実環境におけるロボットの機械学習
PDF
[基調講演] Deep Learning: IoT's Driving Engine
PPTX
機械学習応用システムの開発技術 (機械学習工学) の現状と今後の展望
PDF
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
PDF
深層学習による製造業のスマート化と産業応用の将来展望(クオリティフォーラム2020講演資料)
PPTX
エッジヘビーコンピューティングと機械学習
PDF
20180729 Preferred Networksの機械学習クラスタを支える技術
PDF
実社会・実環境におけるロボットの機械学習 ver. 2
PDF
20181214 Semicon Japan Techspotセミナー:ディープラーニングを応用した製品不良検査ソフトウェアおよびピッキングロボットソリュ...
PDF
[Japan Tech summit 2017] MAI 001
PDF
Tutorial-DeepLearning-PCSJ-IMPS2016
PDF
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
PDF
fpgax #11+TFUG ハード部:DNN専用ハードについて語る会-2019-02-02 MN-coreについて 金子 紘也
PDF
20180110 AI&ロボット勉強会 Deeplearning4J と時系列データの異常検知について
PDF
20181018 CEATEC 製品不良検査ソフト & Picking Robot ソリューション
PDF
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
PDF
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
PPTX
Road damge ai
PDF
自動運転におけるCNNの信頼性
実世界の人工知能 〜交通,製造業,バイオヘルスケア〜
実社会・実環境におけるロボットの機械学習
[基調講演] Deep Learning: IoT's Driving Engine
機械学習応用システムの開発技術 (機械学習工学) の現状と今後の展望
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
深層学習による製造業のスマート化と産業応用の将来展望(クオリティフォーラム2020講演資料)
エッジヘビーコンピューティングと機械学習
20180729 Preferred Networksの機械学習クラスタを支える技術
実社会・実環境におけるロボットの機械学習 ver. 2
20181214 Semicon Japan Techspotセミナー:ディープラーニングを応用した製品不良検査ソフトウェアおよびピッキングロボットソリュ...
[Japan Tech summit 2017] MAI 001
Tutorial-DeepLearning-PCSJ-IMPS2016
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
fpgax #11+TFUG ハード部:DNN専用ハードについて語る会-2019-02-02 MN-coreについて 金子 紘也
20180110 AI&ロボット勉強会 Deeplearning4J と時系列データの異常検知について
20181018 CEATEC 製品不良検査ソフト & Picking Robot ソリューション
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
Road damge ai
自動運転におけるCNNの信頼性

More from Preferred Networks

PDF
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PDF
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
PDF
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
PDF
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
PDF
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
PDF
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
PDF
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
PDF
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
PPTX
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
PPTX
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PDF
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
PDF
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
PDF
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
PDF
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PDF
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
PDF
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
PDF
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
PDF
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
PDF
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
PDF
Topology Managerについて / Kubernetes Meetup Tokyo 50
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
Topology Managerについて / Kubernetes Meetup Tokyo 50

Lecture univ.tokyo 2017_okanohara


[8]ページ先頭

©2009-2025 Movatter.jp