Movatterモバイル変換


[0]ホーム

URL:


PDF, PPTX6,408 views

20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介

2018年2月27日開催のNTTコミュニケーションズ主催セミナーで講演した、Preferred Networks(PFN)土井裕介の講演資料を公開します。PFNの研究開発概要と、それを支えるプライベート・スパコン「MN-1」についてご紹介しています。

Download as PDF, PPTX
最先端のディープラーニング研究開発を支えるGPU計算機基盤「MN-1」のご紹介Preferred Networks 土井裕介doi@preferred.jp2018-02-27
TOC 今までの深層学習の研究内容のご紹介それぞれどのような計算を行っているのか? MN-1のご紹介 構成 MN-1 ベンチマーク実験の紹介 実際の社内での利用状況の紹介とまとめ
Preferred Networks, Inc. (PFN) 設 立:2014年3月 所在地:東京都千代田区大手町(日本)、カリフォルニア州バークレー(米国) 取締役:西川 徹、岡野原 大輔、長谷川 順一 出資者:NTT、Fanuc、Toyota、博報堂DYHD、日立製作所、みずほ銀行、三井物産 ミッション:IoT時代に向けた新しいコンピュータを創造するあらゆるモノに知能をもたせ、分散知能を実現する 事業内容: IoT(Internet of Things) + 分散機械学習 交通システム 産業用ロボット バイオヘルスケア3
Humanoid RobotPFNの注力領域:Industrial IoT に向けたAIを進めるConsumer IndustrialCloudDevicePhotoGameTextSpeechInfrastructureFactory RobotAutomotiveHealthcareSmart CityIndustry4.0Industrial IoT
自己紹介 土井裕介 (doi@preferred.jp) 2000/04-2016/07 大手電機会社 研究開発センター 主任研究員 コンピュータネットワーク、分散処理、IoTシステム等 2016/08-現在 株) Preferred Networks リサーチャー コンピュータネットワークシステムに関する研究開発 社内情報システム・クラスタの維持管理運用(情報システムチームリーダー)
6http://chainer.org
自動運転デモ (強化学習) CES 2016
典型的な計算負荷 入力 数十次元 例: 障害物までの距離 (32方向LIDARを想定) と現在の速度 出力 各行動 (前進、後退、左右ターン、停止) のそれぞれの確率 学習時間: 数時間 (1GPU)
カメラによる状況認識 (セグメンテーション)13
典型的な計算負荷: U-Netの場合 [Ronneburger+2015]NVIDIA TITAN で 10時間 (医療画像の2クラス分類)https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/ より引用
自然言語によるロボット制御 [Hatori+2017]
現実世界への対処 複合的な計算負荷 意図理解 画像認識 物体の区別 把持点の検出 行動決定
GAN(Generative Adversarial Net)敵対的生成モデル[Goodfellow+14] 二人のプレイヤーが競い合うことで学習する ニセモノを作る人(Generator) 目標はDiscriminatorを騙すこと 本物そっくりのお金を作るように学習されていく ニセモノを見破る人(Discriminator) 目標はGeneratorの嘘を見破ること ほんのわずかな違いも見抜けるように学習されていくGenerator本物のお金Discriminator本物かな ?偽物のお金1/2でどちらか選ばれる
Generatorによる画像生成例 生成の種となる値(z)を固定したまま、クラス(y)だけを変化 概念を保ったまま、クラスだけを変化 犬の頭とキノコの頭が対応している 犬の頭と塔が対応している
画像生成のマルチタスク学習 [Miyato+2018] 8GPU 1週間(1試行あたり)
さらに先へ: 深層学習における教師なし学習21
代表的な学習手法 教師あり学習 入力xから出力yへの写像 y=f(x)を獲得する 学習データは正解のペア{(x, y)} 強化学習 環境において将来期待報酬を最大化する行動を獲得する 学習データは自分がとった状態とその時の報酬{(x, ri)} 教師なし学習 学習データはデータの集合{(xi)}、教師シグナルはそれ以外無い 観測情報はいくらでも得られる[Doya 99]大脳基底核小脳大脳皮質
予測学習 次にどのようになるのかを予測する 予測結果が正しいかどうかの結果は時間差でタダで得られる 物体の属性、ダイナミクス、物理モデルなど多くのことを知っていないと予測できない?
教師なし学習/予測学習の情報量は非常に大きい Yann Lecunの講演資料より
MN-1: Deep Learning Computing Cluster
MN-1 構築・運用: NTT Communications / NTT PC Communications
MN-1
IBSwitchGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバ構成{ (GPUサーバ x 16 + IB SW x 2) x 2 } x 4 + IB SW x 2IBSwitchIBSwitchIBSwitchIBSwitchIBSwitchFDR (56Gbps)GPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバGPUサーバグループ
ベンチマーク LINPACK Benchmark https://www.preferred-networks.jp/ja/news/pr20171114「Preferred Networksのプライベート・スーパーコンピュータがTop 500リストのIndustry領域で国内1位に認定」 ImageNet in 15 min. https://www.preferred-networks.jp/ja/news/pr20171110「深層学習の学習速度において世界最速を実現」
機械学習によるLINPACKベンチマークの改善 LINPACK(HPL) 大規模行列計算(連立方程式の解を求める) 性能におおきな影響がある多数のパラメータ 計算の規模 (N) 計算の配置 (P, Q) ブロードキャストアルゴリズムやさまざまなスレッショルド パラメータの「勘と経験による調整」を自動化 Hyperopt[Bergstra+2011] 機械学習によるパラメータチューニングライブラリ 今回のLINPACKの最適化に適用 とはいえ、小規模から徐々に規模を増やしつつ探索範囲を狭めていかないと組み合わせ爆発+実行時間の拡大で大変なことになる それなりのノウハウは依然必要PFN鈴木
グループ内は早いがグループを出ると遅い グループ内 : 56Gbps x 2, full bisection b/w 要はIBスイッチ1つ グループをまたぐリンクは56Gbps x 2 のみ 最悪のケースでは、56Gbps x 16 x 2 が 56Gbps x 2に殺到する
HPL: High-Performance LINPACK Benchmark実行効率改善への長い道程 2017-09-13 1 GPU: 83% 8 GPUs: 68% 2017-10-04 1 GPU: 83% 8 GPUs: 72% 8 nodes (in a group): 57% 8 nodes (across two groups): 51% 52 nodes in 4 groups: 23%
チューニングの効果 52 nodes in 4 groups: 23% 仮に8グループ128ノード (RPeak 4.92PF = 5000兆flops弱) で10%まで効率が落ちたとすると0.49 PF → Top500(’17/11)圏外 23%を維持したとしても1.13PF → 127位と128位の間 最終的には28%, 1.39PFを達成して91位 (100位以内!) にランクイン
PFNにおけるGPUクラスタの活用ChainerMN: 並列深層学習ライブラリ 1024GPUをフル活用した場合の ImageNet (画像分類タスクのデータセット) 1000クラス分類の学習をベンチマークとして実施 90エポックの学習を15分で達成 2018年2月時点で、同条件で世界最短時間での学習T.AkibaK.FukudaS.SuzukiK.Uenishi8GPUによる学習時間を1(ベースライン)とした速度比 → 100倍以上
Sharp Minima [Keskar et.al, 2016]
バッチサイズ→大分散→小 1024GPU (仮に) 32サンプル/(GPU)バッチ 32kサンプル/(システム)バッチ 初期値近場の「谷」にまっしぐら 学習が安定しない
Accurate, Large Minibatch SGD: TrainingImageNet in 1 Hour [Goyal et.al 2017]With these simple techniques, our Caffe2-based system trains ResNet- 50with a minibatch size of 8192 on 256 GPUs in one hour, while matchingsmall minibatch accuracy. Using commodity hardware, ourimplementation achieves ∼90% scaling efficiency when moving from 8to 256 GPUs.
ImageNet in 15min. ポイント [Akiba et.al 2017] NVIDIA製NCCL2を利用 ノードをまたぐ集団通信アルゴリズムもオーバーヘッドが少ない 学習率の変更やチューニング Goyalとほぼ同じ方式 Optimizerを学習初期のRMSPropからスムーズにSGDに入れ替える 通信だけfp16 計算はfp32 32k sample/バッチ 1024GPUでも比較的順当にスケール
Ring Allreduce 古典的な? Allreduce手法 今時の有線ネットワークは全二重・バックプレーンは十分→ スタートポロジ上にリングを構築可能
GTC Japan Jensen氏講演でも言及
初期の経験からの学び 同じハードウェアを用いた計算であっても、やり方の善し悪しによって性能は大幅にかわる 性能が出るようなハードウェア構成、性能を出すためのソフトウェア構成およびチューニング、両方大切
まとめと今後の計画 深層学習手法の進化と計算力への要求増大 敵対的学習や教師なし学習など、くり返しモデルを更新する計算力が必要な学習方式が有望 さらに、動画からの学習なども検討すると、計算力の必要性は増加する一方 自社利用向け計算力強化は継続的な課題 計算力は遠からず不足 一方、チューニングにより実効計算力はおおきく変化しうる ボトルネック分析や利用効率の向上手法の研究・ノウハウ 高電力を消費する計算基盤の設置方法等も含めた検討も必要 OPEX/CAPEXの低減

Recommended

PDF
20170419PFNオープンハウス リサーチャーの仕事_公開用
PDF
fpgax #11+TFUG ハード部:DNN専用ハードについて語る会-2019-02-02 MN-coreについて 金子 紘也
PDF
Cloud operator days tokyo 2020講演資料_少人数チームでの機械学習製品の効率的な開発と運用
PDF
Deep Learning Lab: DIMo & Chainer
PDF
実用としての深層学習 ~深層学習の利用事例と展望~
PPTX
【2017年】ディープラーニングのフレームワーク比較
PDF
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
PDF
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
PDF
入門 Kubeflow ~Kubernetesで機械学習をはじめるために~ (NTT Tech Conference #4 講演資料)
PDF
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
PDF
Chainer meetup2016 03-19pub
PDF
進化するChainer
PDF
20171201 dll#05 名古屋_pfn_hiroshi_maruyama
PDF
ディープラーニング最新動向と技術情報
PDF
PFN 深層学習事例紹介、PFN/MSアライアンス テクノロジーアップデート
PDF
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
PDF
GTC 2016 基調講演からディープラーニング関連情報のご紹介
PDF
Deep Learning技術の最近の動向とPreferred Networksの取り組み
PDF
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
PPTX
Deep Learning Lab コミュニティ 企画概要
PPTX
多言語を一つの処理系でハイパフォーマンスに実行するGraalPythonの紹介
PDF
これから始める人の為のディープラーニング基礎講座
PDF
GTC 2017 ディープラーニング最新情報
PDF
DeNAにおける機械学習・深層学習活用
PPTX
深層学習 第4章 大規模深層学習の実現技術
PPTX
プログラムを自動生成する技術 ~ Programming by Example ~(NTTデータ テクノロジーカンファレンス 2020 発表資料)
PDF
20180729 Preferred Networksの機械学習クラスタを支える技術
PDF
GPUディープラーニング最新情報
PPTX
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
PDF
MII conference177 nvidia

More Related Content

PDF
20170419PFNオープンハウス リサーチャーの仕事_公開用
PDF
fpgax #11+TFUG ハード部:DNN専用ハードについて語る会-2019-02-02 MN-coreについて 金子 紘也
PDF
Cloud operator days tokyo 2020講演資料_少人数チームでの機械学習製品の効率的な開発と運用
PDF
Deep Learning Lab: DIMo & Chainer
PDF
実用としての深層学習 ~深層学習の利用事例と展望~
PPTX
【2017年】ディープラーニングのフレームワーク比較
PDF
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
PDF
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
20170419PFNオープンハウス リサーチャーの仕事_公開用
fpgax #11+TFUG ハード部:DNN専用ハードについて語る会-2019-02-02 MN-coreについて 金子 紘也
Cloud operator days tokyo 2020講演資料_少人数チームでの機械学習製品の効率的な開発と運用
Deep Learning Lab: DIMo & Chainer
実用としての深層学習 ~深層学習の利用事例と展望~
【2017年】ディープラーニングのフレームワーク比較
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜

What's hot

PDF
入門 Kubeflow ~Kubernetesで機械学習をはじめるために~ (NTT Tech Conference #4 講演資料)
PDF
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
PDF
Chainer meetup2016 03-19pub
PDF
進化するChainer
PDF
20171201 dll#05 名古屋_pfn_hiroshi_maruyama
PDF
ディープラーニング最新動向と技術情報
PDF
PFN 深層学習事例紹介、PFN/MSアライアンス テクノロジーアップデート
PDF
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
PDF
GTC 2016 基調講演からディープラーニング関連情報のご紹介
PDF
Deep Learning技術の最近の動向とPreferred Networksの取り組み
PDF
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
PPTX
Deep Learning Lab コミュニティ 企画概要
PPTX
多言語を一つの処理系でハイパフォーマンスに実行するGraalPythonの紹介
PDF
これから始める人の為のディープラーニング基礎講座
PDF
GTC 2017 ディープラーニング最新情報
PDF
DeNAにおける機械学習・深層学習活用
PPTX
深層学習 第4章 大規模深層学習の実現技術
PPTX
プログラムを自動生成する技術 ~ Programming by Example ~(NTTデータ テクノロジーカンファレンス 2020 発表資料)
入門 Kubeflow ~Kubernetesで機械学習をはじめるために~ (NTT Tech Conference #4 講演資料)
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
Chainer meetup2016 03-19pub
進化するChainer
20171201 dll#05 名古屋_pfn_hiroshi_maruyama
ディープラーニング最新動向と技術情報
PFN 深層学習事例紹介、PFN/MSアライアンス テクノロジーアップデート
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
GTC 2016 基調講演からディープラーニング関連情報のご紹介
Deep Learning技術の最近の動向とPreferred Networksの取り組み
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
Deep Learning Lab コミュニティ 企画概要
多言語を一つの処理系でハイパフォーマンスに実行するGraalPythonの紹介
これから始める人の為のディープラーニング基礎講座
GTC 2017 ディープラーニング最新情報
DeNAにおける機械学習・深層学習活用
深層学習 第4章 大規模深層学習の実現技術
プログラムを自動生成する技術 ~ Programming by Example ~(NTTデータ テクノロジーカンファレンス 2020 発表資料)

Similar to 20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介

PDF
20180729 Preferred Networksの機械学習クラスタを支える技術
PDF
GPUディープラーニング最新情報
PPTX
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
PDF
MII conference177 nvidia
PDF
深層学習向け計算機クラスター MN-3
PDF
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
PDF
NVIDIA ディープラーニング入門
PDF
Introduction to Chainer (LL Ring Recursive)
PDF
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
PDF
[基調講演] Deep Learning: IoT's Driving Engine
PDF
【A-1】AIを支えるGPUコンピューティングの今
PDF
GTC 2017 基調講演からディープラーニング関連情報のご紹介
PDF
ディープラーニング最近の発展とビジネス応用への課題
PPTX
機械学習 / Deep Learning 大全 (6) Library編
PDF
(公開版)Reconf研2017GUINNESS
PDF
研究を加速するChainerファミリー
PDF
[db analytics showcase Sapporo 2017] B14: GPU コンピューティング最前線 by エヌビディア 佐々木邦暢
PDF
20171128分散深層学習とChainerMNについて
PDF
20170421 tensor flowusergroup
PDF
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
20180729 Preferred Networksの機械学習クラスタを支える技術
GPUディープラーニング最新情報
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
MII conference177 nvidia
深層学習向け計算機クラスター MN-3
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
NVIDIA ディープラーニング入門
Introduction to Chainer (LL Ring Recursive)
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
[基調講演] Deep Learning: IoT's Driving Engine
【A-1】AIを支えるGPUコンピューティングの今
GTC 2017 基調講演からディープラーニング関連情報のご紹介
ディープラーニング最近の発展とビジネス応用への課題
機械学習 / Deep Learning 大全 (6) Library編
(公開版)Reconf研2017GUINNESS
研究を加速するChainerファミリー
[db analytics showcase Sapporo 2017] B14: GPU コンピューティング最前線 by エヌビディア 佐々木邦暢
20171128分散深層学習とChainerMNについて
20170421 tensor flowusergroup
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介

More from Preferred Networks

PDF
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PDF
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
PDF
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
PDF
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
PDF
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
PDF
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
PDF
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
PDF
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
PDF
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
PPTX
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PDF
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
PDF
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
PDF
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
PDF
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PDF
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
PDF
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
PDF
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
PDF
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
PDF
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
PDF
Topology Managerについて / Kubernetes Meetup Tokyo 50
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
Topology Managerについて / Kubernetes Meetup Tokyo 50

20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介


[8]ページ先頭

©2009-2025 Movatter.jp