連載目次 ※本稿には新バージョンがあります。2021年に向けてのアップデート記事(2020年12月16日公開)はこちらです。本稿は、ディープラーニング(深層学習)に関心があるビジネスマンから、これから始めてみたいというエンジニア、既に取り組んでいる実務経験者まで、幅広い人に向けて書いた。よって、初歩的な内容も含めつつ説明していくのでご了承いただきたい。 ディープラーニングを実装する場合、フルスクラッチでゼロからコードを書くのは非効率なため、専用のライブラリ/フレームワークが用いられるのが一般的だ。ディープラーニングが流行してから直近4年ほどの間に、次々と新しいフレームワークが登場した。現在、主要なものを挙げると、 TensorFlow: 2015年登場、Google製。一番有名で、特に産業界で人気PyTorch: 2016年登場、Facebook製。この中では新興だが、特に研究分野で人

from __future__ import print_function import time start_time = time.time() import keras from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout from keras.optimizers import RMSprop batch_size = 128 num_classes = 10 epochs = 20 # the data, shuffled and split between train and test sets (x_train, y_train), (x_test, y_test) = mnist.load_data() x_tr

はじめに 近年,機械学習の分野でディープラーニング(ディープニューラルネットワーク:DNN)に注目が集まっています.それに伴って様々なDNNライブラリが公開されていますが,それぞれどんな違いがあるのでしょうか(どれを使えば良いのだろう).本稿ではDNNのネットワーク構造を,各ライブラリでどのように記述するのか比較してみたいと思います.本稿で想定するのは,DNNについてはある程度知っているが,ライブラリについては知らないという方への説明です.各ライブラリのチュートリアルを読んで実際にコードを書いたことがある場合は,それ以上の内容はないです. ライブラリ 多数のライブラリが公開されていますが,本稿ではchainerとTensorFlowの2つを扱います.将来的には他のライブラリについても追加できればと思っていますが. 以下ではまず各ライブラリの簡単な基本情報だけまとめてみます.速度等の比較は

Kabukuエンジニアブログを始めます どうも、おはこんばんちわ、カブクの足立です。 カブクのエンジニアって何やっているのか分かりにくいね、と言われ続け、我々のことを知ってもらうためにエンジニアブログなどで発信していかねば。 と、一念発起してはや半年。 忙しさにかまけて先延ばしにし続けるあるある状況を打開すべくKabukuエンジニアブログを始めます! 会社のエンジニアブログは重厚長大で、会社ブランディングを意識し、自社が技術的に優れている事をアピールする風潮があります。我々はそこに風穴を空けるべく、重厚長大ではないブログも書いていこう! 重厚長大じゃなくても世の中のためになることはある。 もっとライトにエンジニアがオフィシャルブログで情報発信していってもいいじゃないか。 と、言い訳たっぷり、ハードルを地中に埋めたところで、記念すべき第一回は会社のビジネス活動に関係ないDeep Learni

1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く