Movatterモバイル変換


[0]ホーム

URL:


PDF, PPTX7,802 views

Surveyから始まる研究者への道 - Stand on the shoulders of giants -

自身のサーベイ力向上のために行った経験を基に,論文サーベイの大切さ,基本的なやり方等をまとめました.4月21日に中部大学名古屋キャンパスで行われる名古屋CV・PRML勉強会の発表資料です.

Download as PDF, PPTX
Surveyから始まる研究者への道- Stand on the shoulders of giants -中部大学大学院 工学研究科 情報工学専攻 博士前期課程荒木諒介12018/04/21 名古屋CV・PRML勉強会@中部大学 名古屋キャンパス
はじめに• 荒木 諒介 (Ryosuke Araki)– 機械知覚&ロボティクスグループ (MPRG)2DCNNによる把持位置検出SSDによる未知物体検出研究テーマ 趣味愛車: SUZUKI SWIFT RSZC72S ’13 5MT 91ps 1242cc愛馬: YAMAHA YBR125至尊天剣 ’15 5MT 10ps 124cc無謀な長距離運転鳥取砂丘↓↓大学 ・アマチュア無線・電子工作・DeskTopMusic@ryors_k
本題に入る前に3なぜ僕が論文サーベイについて語るのか?
本題に入る前に4なぜ僕が論文サーベイについて語るのか?その理由は2017年の11月末に遡る……
2017年11月下旬の出来事……5いろいろ落ち着いてだいぶ時間が出来たな~ていうかもうAdvent Calendarの時期か!なんか書きたかったな~
その数日後……6数日後人工知能エンジニアの年俸2000万円ってマジ?そういやTwitterでも誰かそんなこと言ってたな……この業界アツアツなのでは?2000万は流石に無理だけど……東洋経済オンライン,“いきなり年収2000万円!今アツい仕事の真実”[Online] http://toyokeizai.net/articles/-/105004 (2018年1月19日閲覧).
その数日後……7金欲しい
その数日後……8金欲しい強くなりたい
その数日後……9金欲しい強くなりたい強くなるために今の自分に足りないことは……?
今の自分に足りないことは……10世界水準の研究のためにサーベイは必須トレンドの把握だけでなく,自分の研究の立ち位置の確認にもなる……産総研 片岡さんhttps://www.slideshare.net/cvpaperchallenge/ss-72641629荒木はサーベイする力が弱いもっといろいろな論文を読んで自身の立ち位置を確認すべき……藤吉先生参考文献が少ないので研究の位置付けが曖昧です.……某学会誌の査読結果○○Netの手法はもう古いよ……山下先生
今の自分に足りないことは……11世界水準の研究のためにサーベイは必須トレンドの把握だけでなく,自分の研究の立ち位置の確認にもなる……産総研 片岡さんhttps://www.slideshare.net/cvpaperchallenge/ss-72641629荒木はサーベイする力が弱いもっといろいろな論文を読んで自信の立ち位置を確認すべき……藤吉先生参考文献が少ないので研究の位置付けが曖昧です.……某学会誌の査読結果○○Netの手法はもう古いよ……山下先生じゃあ……アレをやってみますか
刮目せよ12
刮目せよ13論文
刮目せよ14論文Solo
論文 Solo Advent Calendar• 12月中毎日,1日1本論文を読んでまとめる– 読めなかったら翌日2本– 2日連続読めなかったら終了• スタイルは論文読み会と同じ,またはもっと簡易に– 精読はせず,アブストラクト,図,手法,結果等を読む– 他の仕事を疎かにしないように簡単に読むだけ• 他の仕事……研究,睡眠,大掃除,ゲーム– 目標は「1本1時間で終わらせる!」• 気になった論文などは精読対象として後日精読– 後日研究室内で共有• 対象論文は特に定めない– 2017年のものじゃなくてもOKだけどできるだけ新しいものを15
そして宣言通り完走16SUN MON TUE WED THU FRI SAT1Robotic Pick-and-Place of NovelObjects in Clutterwith …2FCN-Based 6DRobotic Graspingfor ArbitraryPlaced Objects3Deep visionnetworks for real-time robotic graspdetection4Learning Hand-EyeCoordination forRobotic Graspingwith Deep …5Supersizing Self-supervision:Learning to Graspfrom 50K Tries …6End-to-EndTraining of DeepVisuomotor Policies7Real-Time ObjectDetection,Localization andVerification …8Grasping NovelObjects with DepthSegmentation9Robot graspdetection usingmultimodal deepconvolutional …10SSH: Single StageHeadless FaceDetector11R-FCN: ObjectDetection viaRegion-basedFully …12R-FCN-3000 at30fps: DecouplingDetection andClassification…13ProgressiveGrowing of GANsfor ImprovedQuality, Stability, …14Learning a RotationInvariant Detectorwith RotatableBounding Box15InteractivelyPicking Real-WorldObjects withUnconstrained …16Deep Object-CentricRepresentations forGeneralizable …17Single-ShotRefinement NeuralNetwork for ObjectDetection18Sushi Dish : Objectdetection andclassification fromreal images19MarrNet: 3D ShapeReconstruction via2.5D Sketches202D-Driven 3DObject Detection inRGB-D Images21Action TubeletDetector for Spatio-Temporal ActionLocalization22GenerativeAdversarialNetworksConditioned by …23SSD-6D: MakingRGB-Based 3DDetection and 6DPose Estimation …24UnsupervisedCreation ofParameterizedAvatars25Scene GraphGeneration fromObjects, Phrasesand Region …26UberNet : Traininga ‘Universal’ConvolutionalNeural Network …27Learning non-maximumsuppression28Annotating ObjectInstances with aPolygon-RNN29Multi-View 3DObject DetectionNetwork forAutonomous …30GuessWhat?!Visual objectdiscovery throughmulti-modal …31Cognitive Mappingand Planning forVisual Navigation
今日知って欲しいこと• どうして論文を読むのか– 論文サーベイの必要性,メリット• どうやって論文を探すのか– 効率的な論文の探し方• どうやって論文を読むのか– 効率的&簡易的な読み方– 便利なツール• 論文を読んだ後どうするのか– 論文のまとめ方– 自らの研究へコミット17
• どうして論文を読むのか– 論文サーベイの必要性,メリット• どうやって論文を探すのか– 効率的な論文の探し方• どうやって論文を読むのか– 効率的&簡易的な読み方– 便利なツール• 論文を読んだ後どうするのか– 論文のまとめ方– 自らの研究へコミット18
どうして論文を読む(サーベイする)のか• 世界水準の研究のために必須– 最新トレンドの把握– 自研究の立ち位置の確認– 新しい研究へのヒント– 他の先生や研究者との共通の話題19もっと知りたい方は……cvpaper.challenge片岡さんの資料をチェック「優れた問いを見つける」https://www.slideshare.net/cvpaperchallenge/ss-72641629「個人/グループサーベイ法」https://www.slideshare.net/cvpaperchallenge/ss-93460326
どうして論文を読む(サーベイする)のか• 自らが論文を書くときの参考– 手法に関する記述はもちろん– 論文の構成,文法,図の作り方,結果の見せ方も参考に201ページ目右上にわかりやすい図がある論文が多い大きい図は2カラムぶち抜く関連研究の文量は? 手法の説明は?どうやって段落分け?
慣れてくると……• 短時間で論文を簡単にまとめることができる– 1時間,早いと数十分– 精読するかはその後決定• 論文を読んでいると「よい・よくない論文」がわかる– 英文法が怪しい,簡単すぎる– 参考文献の書き方に問題– 構成がわかりにくい– 逆に,自分が論文を書く時は上記に注意• 英語力が上がる– よく使う文法・表現が“なんとなく”わかる• 有名な著者は名前を見るだけでわかる– 誰がどの分野に強いか等21
(逆に)サーベイをせずに研究すると• 既存研究と内容がかぶる– 他人と同じ研究をして出遅れる– それどころか既存手法の劣化コピーをドヤ顔で出してしまう• 論文を書く時に困る– 関連研究が全く書けない– 自分の研究の立ち位置を他人に説明できない– どういう文体や表現を用いれば良いかわからない• 方向性を見失う– トレンドが分からないので何をすればいいかわからなくなる22
• どうして論文を読むのか– 論文サーベイの必要性,メリット• どうやって論文を探すのか– 効率的な論文の探し方• どうやって論文を読むのか– 効率的&簡易的な読み方– 便利なツール• 論文を読んだ後どうするのか– 論文のまとめ方– 自らの研究へコミット23
論文の探し方• 知っている論文の関連研究や参考文献を見る– その論文に関係・その論文の理解に有益な論文が見つかる24関連研究の章この2段落だけで20近くの引用参考文献の一部タイトルや引用元の文を見て大まかな内容を確認
論文の探し方• 論文がまとめられているページや資料を探す– サーベイ論文も有益25SlideShareCVPR2017速報 – cvpaper.challengeQiita畳み込みニューラルネットワークの最新研究動向 (〜2017) – 内田さん
論文の探し方• Twitterアカウントを使う– 論文そのものをツイートするアカウントや内容を解説する方等26@icoxfog417さん@CVpaperChalleng@arxiv_cscv
論文の探し方• 検索サイトの活用• 先生や先輩から助言を受ける– どんなことが知りたいか思い切って聞いてみる27Google Scholar IEEE Xplore Digital Library
• どうして論文を読むのか– 論文サーベイの必要性,メリット• どうやって論文を探すのか– 効率的な論文の探し方• どうやって論文を読むのか– 効率的&簡易的な読み方– 便利なツール• 論文を読んだ後どうするのか– 論文のまとめ方– 自らの研究へコミット28
効率的な読み方(fhiro&ryorsk流)• 論文の大まかな内容を把握してから読む– まずはAbstract– 1章から読まない– 特に導入(Introduction)の最初の方や関連研究(Related work)は読まない• もう知ってることが書いてあるだけ• その分野に疎いなら読んでも良い• ここで作者の近況を書き出す変人も居る• 先に大まかな内容を確認してから読むと読みやすさが大きく違う29Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む関連研究等(ほとんど読まない)読む順番(ryorsk流)
大まかな流れを把握しやすい部分• 段落の最初のワードを見て確認– 「We proposed」「This work」「Our approach」等30Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)
大まかな流れを把握しやすい部分• 段落の最初のワードを見て確認– 「We proposed」「This work」「Our approach」等31Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)・CNNで把持位置検出・sliding window不要・GPUで13fps・最新手法より14%正確・RGB-D画像から把持位置検出・Cornell grasping datasetを使用・1枚の画像を1度だけネットワークに入力する・パフォーマンス向上把持位置の表現方法は従来手法と同じものを用いるsliding windowは計算コストが無駄だと考えている
大まかな流れを把握しやすい部分• 段落の最初のワードを見て確認– 「We proposed」「This work」「Our approach」等32Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)
大まかな流れを把握しやすい部分• 段落の最初のワードを見て確認– 「We proposed」「This work」「Our approach」等33Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)(Cornel grasping datasetの詳細)・250個の異なる物体・把持位置の教師信号・1物体につき複数の画像・1画像につき複数の教師信号
図や表,式とそのキャプション• 図を確認– キャプションおよび参照している文章も確認34Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)提案手法のネットワーク・データセットの画像・把持位置の付け方・把持位置の表現方法・中心座標と幅/高さ,角度から構成
図や表,式とそのキャプション• 図を確認– 見慣れない図は特に注意35Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)(見慣れない図……提案手法の肝?)・画像をNxNグリッドに分割,各グリッドをセルと呼ぶ・セルの中で1つの把持位置と「true grasp(=もっともらしい把持位置?)」を検出・true graspが最大の把持位置を最終的な把持位置とする
図や表,式とそのキャプション• 結果の図や表もあわせて確認– グラフがあれば表がわかりやすくなる場合も36Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)直接回帰での検出成功例(上)と失敗例(下)失敗例でも把持できそうな場合あり直接回帰では検出失敗するがMultiGrasp?ならば検出成功(上2)どちらの手法でも検出失敗する例(下2)
図や表,式とそのキャプション• 結果の図や表もあわせて確認– グラフがあれば表がわかりやすくなる場合も37Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)把持位置検出結果の表従来手法(上3)と提案手法(下3)直接回帰・回帰+分類,MultiGraspでの評価現状では何のことかよくわからないが,高速&高精度クラス分類結果の表
提案手法の説明を詳しく確認• 図4でわかったことを念頭に置いて読む38Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)
提案手法の説明を詳しく確認• 図4でわかったことを念頭に置いて読む39Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)Lenzらが提案した,Jiangらによる把持位置検出の簡略版
提案手法の説明を詳しく確認• 図4でわかったことを念頭に置いて読む40Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)把持位置を画像から直接推定(→sliding windowを行わない)・NNは6つの値を出力・回転角は角度の2倍の値の三角比を用いる(sin, cos)・学習中に教師信号を変更(過学習防止のため)Fig3(ネットワーク構成)の説明・AlexNetの拡大版・Conv x5・FC x3・ConvでNormalizationとPooling
提案手法の説明を詳しく確認• 図4でわかったことを念頭に置いて読む41Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)・出力層にユニットを追加して物体のカテゴリを検出することも可能・他の層は変更しないため検出速度は変わらないMultiGrasp(図4)の詳しい解説
実験概要の確認42Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)• よくある実験方法なら読まなくてもOK
実験概要の確認43Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)• よくある実験方法なら読まなくてもOK把持位置検出の評価方法・教師信号と30度以下の誤差かつ・以下の式を満たす𝐴 ∩ 𝐵𝐴 ∪ 𝐵> 0.25A: 検出領域B: 教師信号領域クロスバリデーション(5倍)で評価・画像ごとに分割(Image-wise)・物体ごとに分割(Object-wise)(同じ物体がいくつか存在するため)
実験概要の確認44Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)• よくある実験方法なら読まなくてもOKデータセットの画像にクラス分類を付与・クラス分類の評価のため・「ボトル」「靴」「スポーツ用品」など16種類・手動でつける(データセットには付随せず)・ImageNetでPreトレイン・距離画像を使う時はRGBのBチャンネルをDに
実験概要の確認45Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)• よくある実験方法なら読まなくてもOK学習の詳細・25epoch・学習率: 0.0005・decay: 0.001・Dropout: 50%・GPU: Tesla K20データの前処理とAugmentation・Depth値を0-255に正規化してBlueチャンネルと置き換え・各チャンネルから144を引く・クロップと回転・入力は224x224
結果の確認46Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)• 図表を中心に不明瞭な部分を紐解く感じ
結果の確認47Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)• 図表を中心に不明瞭な部分を紐解く感じ結果について記述・Image-wise/Object-wiseともに約85%の精度・従来手法より10%以上高精度・検出速度は13FPS・sliding windowが不要なためここまで速く出来た
結果の確認48Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)• 図表を中心に不明瞭な部分を紐解く感じ
結果の確認49Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)• 図表を中心に不明瞭な部分を紐解く感じ直接回帰の場合・ペンなど細いものは検出しやすい・皿や帽子などの大きいものは失敗する回帰+分類の場合・検出精度を犠牲にせずクラス分類可能MultiGraspの場合・直接回帰よりも優れた結果・同じように失敗する場合もある・同様な速度で検出可能
(必要であれば)もう一度詳しく読む• 必要ならばもう一度詳しく確認– わからない部分などを詳細に50Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)クラス分類を追加したら結局出力ユニットはいくつになるの?BlueチャンネルをDepthに置き換える動機は?直接回帰とMultiGraspのネットワークは異なる?
(必要であれば)導入部や関連研究• 導入部を確認する目的– 研究背景を知りたい– この手法がどこで役立つのか知りたい• 関連研究を確認する目的– 他の論文を読みたい– 論文中に知らない技術や手法があった51Abstract全体を流し見図や表や式およびそのキャプション提案手法の説明結果上記をもう一度詳しく読む導入や関連研究(ほとんど読まない)読む順番(ryorsk流)
便利なツール• Web翻訳– 王道のGoogle翻訳,エキサイト翻訳等– 使いすぎに注意• 僕は自分の解釈の「答え合わせ」に使ってます52
便利なツール• 論文管理ツール– Mendeley等53自分のライブラリから関連論文を教えてくれることもある論文タイトルや作者名,保存先PDFをリストで一元管理
• どうして論文を読むのか– 論文サーベイの必要性,メリット• どうやって論文を探すのか– 効率的な論文の探し方• どうやって論文を読むのか– 効率的&簡易的な読み方– 便利なツール• 論文を読んだ後どうするのか– 論文のまとめ方– 自らの研究へコミット54
論文のまとめ方(例)• 重要な情報だけ取捨選択してまとめる– 目的,手法,新規性,結果etc……• 上記を表形式でまとめる– 項目ごとにまとめる– どの部分が攻められていないかわかりやすい55
(まとめの例)Real-Time Grasp DetectionUsing Convolutional Neural NetworksJ. Redmon (University of Washington), A. Angelova (Google Research)56今日の日記:このテンプレはAdvent Calendarで使ったものと同じです.せっかく毎日やるので,下部に日記欄をつけてみました.ちょっとした遊び心ですね.https://pjreddie.com/media/files/papers/grasp_detection_1.pdfまとめの例
概要• DCNNを用いた把持位置検出– 単一のDCNNで検出可能• Sliding windowより高速• 高速かつ高精度– 速度:13FPS @GPU– 精度:最新手法より14%高精度• 把持位置矩形は「5次元」で表現– 中心座標(x,y)– 幅・高さ– 把持矩形回転角– 従来手法と同じ 57基本的にAbstractの内容わかりやすい画像があれば乗せる検出結果例把持位置表現方法まとめの例
手法・新規性• ネットワーク構成:AlexNetより大きめのNW– 入力画像はRed, Green, Depthの3ch– 把持位置情報と物体クラスを学習• 画像から複数の把持位置候補を検出(MultiGrasp)– 画像をNxNグリッドに分割,各グリッドをセルと呼ぶ– セルの中で1つの把持位置と「True grasp」を検出– True graspが最大の把持位置を最終的な把持位置とする58提案手法を解説特に,新しい部分をより詳細にネットワーク構成 検出方法まとめの例
結果59結果を簡単にまとめる図や表はなるべく説明をつけるまとめの例直接回帰では検出失敗するがMultiGraspならば検出成功(上2)どちらも検出失敗する例(下2)赤青:教師信号,黄緑:検出結果把持位置検出結果の表従来手法(上3)と提案手法(下3)直接回帰・回帰+分類・MultiGraspでの評価クラス分類結果の表※クロスバリデーションで評価Image-wise:画像ごとに分割Object-wise:物体ごとに分割
自らの研究へコミット• 論文読んだら次は研究!– せっかく読んだのだから研究に役立てなければ損• 具体的なコミットの例– 誰も攻めていない領域を探して攻め込む– よく使われているアイデアを自研究に取り込む– 似ている研究を探して合体できないか試す60
今日知って欲しいこと(再掲)• どうして論文を読むのか– 論文サーベイの必要性,メリット• どうやって論文を探すのか– 効率的な論文の探し方• どうやって論文を読むのか– 効率的&簡易的な読み方– 便利なツール• 論文を読んだ後どうするのか– 論文のまとめ方– 自らの研究へコミット61
おわりに• 今回紹介した方法はあくまで「一例」– 他の人に聞くと違うやり方がわかるかも– いろいろ試して自分のやりやすいやり方で• 効率的にたくさんの論文を読んで知識を増やそう62

Recommended

PDF
研究室における研究・実装ノウハウの共有
PPTX
論文に関する基礎知識2016
PPT
文献調査をどのように行うべきか?
PPTX
落合流先生流の論文要旨フォーマット
PDF
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
PPTX
論文の書き方・読み方
PPTX
論文に関する基礎知識2015
PPTX
論文の書き方入門 2017
PDF
研究効率化Tips Ver.2
PDF
【メタサーベイ】基盤モデル / Foundation Models
PDF
CV分野におけるサーベイ方法
PDF
研究分野をサーベイする
PDF
全力解説!Transformer
PDF
研究発表のためのプレゼンテーション技術
PDF
工学系大学4年生のための論文の読み方
PDF
AHC-Lab M1勉強会 論文の読み方・書き方
PDF
最適化超入門
PDF
BlackBox モデルの説明性・解釈性技術の実装
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
PPTX
【DL輪読会】Scaling Laws for Neural Language Models
PDF
最近のディープラーニングのトレンド紹介_20200925
PDF
SSII2018TS: 3D物体検出とロボットビジョンへの応用
 
PPTX
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
PDF
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
PPTX
強化学習における好奇心
PDF
研究発表を準備する
PDF
Optimizer入門&最新動向
PPTX
研究法(Claimとは)
PDF
コンピュータビジョン分野メジャー国際会議 Award までの道のり
PDF
論文 Solo Advent Calendar

More Related Content

PDF
研究室における研究・実装ノウハウの共有
PPTX
論文に関する基礎知識2016
PPT
文献調査をどのように行うべきか?
PPTX
落合流先生流の論文要旨フォーマット
PDF
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
PPTX
論文の書き方・読み方
PPTX
論文に関する基礎知識2015
PPTX
論文の書き方入門 2017
研究室における研究・実装ノウハウの共有
論文に関する基礎知識2016
文献調査をどのように行うべきか?
落合流先生流の論文要旨フォーマット
プレゼン・ポスターで自分の研究を「伝える」 (How to do technical oral/poster presentation)
論文の書き方・読み方
論文に関する基礎知識2015
論文の書き方入門 2017

What's hot

PDF
研究効率化Tips Ver.2
PDF
【メタサーベイ】基盤モデル / Foundation Models
PDF
CV分野におけるサーベイ方法
PDF
研究分野をサーベイする
PDF
全力解説!Transformer
PDF
研究発表のためのプレゼンテーション技術
PDF
工学系大学4年生のための論文の読み方
PDF
AHC-Lab M1勉強会 論文の読み方・書き方
PDF
最適化超入門
PDF
BlackBox モデルの説明性・解釈性技術の実装
PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
PPTX
【DL輪読会】Scaling Laws for Neural Language Models
PDF
最近のディープラーニングのトレンド紹介_20200925
PDF
SSII2018TS: 3D物体検出とロボットビジョンへの応用
 
PPTX
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
PDF
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
PPTX
強化学習における好奇心
PDF
研究発表を準備する
PDF
Optimizer入門&最新動向
PPTX
研究法(Claimとは)
研究効率化Tips Ver.2
【メタサーベイ】基盤モデル / Foundation Models
CV分野におけるサーベイ方法
研究分野をサーベイする
全力解説!Transformer
研究発表のためのプレゼンテーション技術
工学系大学4年生のための論文の読み方
AHC-Lab M1勉強会 論文の読み方・書き方
最適化超入門
BlackBox モデルの説明性・解釈性技術の実装
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
【DL輪読会】Scaling Laws for Neural Language Models
最近のディープラーニングのトレンド紹介_20200925
SSII2018TS: 3D物体検出とロボットビジョンへの応用
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
強化学習における好奇心
研究発表を準備する
Optimizer入門&最新動向
研究法(Claimとは)

Similar to Surveyから始まる研究者への道 - Stand on the shoulders of giants -

PDF
コンピュータビジョン分野メジャー国際会議 Award までの道のり
PDF
論文 Solo Advent Calendar
PDF
cvpaper.challenge -CVの動向とこれからの問題を作るために- (東京大学講演)
PDF
R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)
PDF
研究分野をサーベイする(情報処理学会第87回全国大会での基調講演スライド公開版)
PDF
CHAIN公開セミナー20200817吉田発表資料
PDF
Toward Research that Matters
PDF
WWW2018 論文読み会 Web Search and Mining
PDF
tut_pfi_2012
PDF
ソーシャルデザインパターン -評判と情報収集-
PPTX
CVPR 2017 報告
PDF
「デザイニング・インターフェース」勉強会 - 第7章
PPTX
20120629PRMU CVPR2012報告
PDF
Large Scale Data Mining of the Mobage Service - #PRMU 2011 #Mahout #Hadoop
PDF
cvpaper.challenge -サーベイの共有と可能性について- (画像応用技術専門委員会研究会 2016年7月)
PDF
CVPR2017/ICCV2017から見た研究動向(名古屋CV・PRML勉強会)
PDF
mlabforum2012_okanohara
PDF
コンピュータビジョンの今を映す-CVPR 2017 速報より- (夏のトップカンファレンス論文読み会)
PPTX
Infosta実習 発表ver
 
PDF
050830 openforum
コンピュータビジョン分野メジャー国際会議 Award までの道のり
論文 Solo Advent Calendar
cvpaper.challenge -CVの動向とこれからの問題を作るために- (東京大学講演)
R言語による アソシエーション分析-組合せ・事象の規則を解明する-(第5回R勉強会@東京)
研究分野をサーベイする(情報処理学会第87回全国大会での基調講演スライド公開版)
CHAIN公開セミナー20200817吉田発表資料
Toward Research that Matters
WWW2018 論文読み会 Web Search and Mining
tut_pfi_2012
ソーシャルデザインパターン -評判と情報収集-
CVPR 2017 報告
「デザイニング・インターフェース」勉強会 - 第7章
20120629PRMU CVPR2012報告
Large Scale Data Mining of the Mobage Service - #PRMU 2011 #Mahout #Hadoop
cvpaper.challenge -サーベイの共有と可能性について- (画像応用技術専門委員会研究会 2016年7月)
CVPR2017/ICCV2017から見た研究動向(名古屋CV・PRML勉強会)
mlabforum2012_okanohara
コンピュータビジョンの今を映す-CVPR 2017 速報より- (夏のトップカンファレンス論文読み会)
Infosta実習 発表ver
 
050830 openforum

Surveyから始まる研究者への道 - Stand on the shoulders of giants -


[8]ページ先頭

©2009-2025 Movatter.jp