Movatterモバイル変換


[0]ホーム

URL:


はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

はてなブックマーク

タグ

関連タグで絞り込む (5)

タグの絞り込みを解除

svmに関するstealthinuのブックマーク (6)

  • 機械学習の中身を理解する - Speaker Deck

    2018年12月5日 リクルートスタッフィングのイベントでの資料です。 「機械学習のエッセンス」の解説がメインになっています。

    機械学習の中身を理解する - Speaker Deck
    stealthinu
    stealthinu2018/12/06非公開
    ラグランジュ未定乗数法のところで付いてけなくなった。毎回SVMを理解しようとして途中でつまづく。カーネルトリック出てこなかった/マージン最大化どうやって解いてるか説明なんだ。それはわかった!
    • SVMの定番入門書「サポートベクターマシン入門(赤本)」の読み方 - EchizenBlog-Zwei

      SVMを学びたい人にとっては「サポートベクターマシン入門」通称「赤」は最適な入門書であるといえる。理論から実践までバランスよく解説されており、書を読むだけでSVMの実装が可能になる。 しかし書はSF小説を彷彿とさせる独特な翻訳の文体のため機械学習に不慣れな読者にとっては読みこなすのは苦しい戦いとなる。来なら原書をオススメしたいところだが、そうはいっても英語はちょっとという人も多いはず。 そこで記事では赤のオススメな読み方を紹介してみる。 1.「わかパタ」で準備運動をしよう 泳ぎのうまい人でもいきなり水に飛び込むのは危険。まずは準備運動をして体を温める。これには「わかりやすいパターン認識」がオススメ。とりあえず2章まで、余裕があれば3章まで読んでおけば充分。 2.赤を枕元において一晩寝よう さて準備運動が済んだら早速赤にトライ!したいところだが赤の放つ瘴気で心を蝕まれないよ

      SVMの定番入門書「サポートベクターマシン入門(赤本)」の読み方 - EchizenBlog-Zwei
      stealthinu
      stealthinu2011/09/01非公開
      『SF小説を彷彿とさせる独特な翻訳の文体』どんなんだ??『SVMとは「パーセプトロン」に「カーネル関数」と「マージン最大化」を加えたもの』ほんとこの理解で良いんだ。うーん、多層はだめな子なん?
      • 機械学習超入門IV 〜SVM(サポートベクターマシン)だって30分で作れちゃう☆〜 - EchizenBlog-Zwei

        ニーズがあるのかさっぱりわからない機械学習超入門だけどひっそり続けていきたい。 前回は識別関数の基礎であるパーセプトロンの簡単な説明とPerlによる実装を解説した。実はこの時点でかの有名なSVM(Support VectorMachine、サポートベクターマシン)もほぼ完成していたのだ!というわけで今回はSVMをPerlで作ってしまうお話。 参考: これからはじめる人のための機械学習の教科書まとめ - EchizenBlog-Zwei機械学習超入門 〜そろそろナイーブベイズについてひとこと言っておくか〜 - EchizenBlog-Zwei機械学習超入門II 〜Gmailの優先トレイでも使っているPA法を30分で習得しよう!〜 - EchizenBlog-Zwei機械学習超入門III 〜機械学習の基礎、パーセプトロンを30分で作って学ぶ〜 - EchizenBlog-Zwei さて

        機械学習超入門IV 〜SVM(サポートベクターマシン)だって30分で作れちゃう☆〜 - EchizenBlog-Zwei
        stealthinu
        stealthinu2011/06/28非公開
        え?SVMってこんな簡単なアルゴリズムでいいの?カーネルトリックとか全然理解できてないんだけど単に使っちゃっても良いんかな??あと1段でxorの学習も可能なの?か?
        • SVMにおける損失と正則化 - 射撃しつつ前転 改

          前に書いたSVMの記事で、「L1とかL2というのは間違えたときのペナルティをどう定義するかを意味しており」と書いていたが、L1とかL2って正則化項の話なんじゃないの、と疑問に思った。1ヶ月ほど時間をおいてのセルフツッコミである。確認しようとしてカーネル多変量解析を読むと、やはり正則化項についてはL1とL2の両方の説明が書いてあるが、損失に関しては普通のHinge Loss(=L1 Loss)しか書いてない。 と言う訳で、ああ、間違えちゃったなぁ、と暗澹たる気持ちで"A dual coordinate descent method for large-scalelinear SVM"を読み直してみたところ、やっぱりL1-SVMというのは損失が普通のHinge Lossで、L2-SVMというのはHinge Lossの2乗を損失とすると書いてあった。両方とも正則化項についてはL2正則化を使って

          SVMにおける損失と正則化 - 射撃しつつ前転 改
          stealthinu
          stealthinu2010/03/09非公開
          SVMでL1とL2どちらを使うのが良いかという話。難しくて理解できん…
          • しかしSVMも最近は速いらしい - 射撃しつつ前転 改

            Complement Naive BayesがSVMより速いよーと主張していたので、SVMもなんか最近は速くなってるらしいよ、という事を紹介してみたい。近年はSVMなどの学習を高速に行うという提案が行われており、実装が公開されているものもある。その中の一つにliblinearという機械学習ライブラリがある。ライブラリ名から推測できる通り、liblinearではカーネルを使うことが出来ない。しかし、その分速度が速く、大規模データに適用できるという利点がある。 liblinearを作っているのはlibsvmと同じ研究グループで、Chih-Jen Linがプロジェクトリーダーであるようだ。libsvmはかなり有名なライブラリで、liblinearにはそういった意味で安心感がある。(liblinearの方は公開されてしばらくは割とバグがあったらしいけど。) liblinearにはL1-SVM, L

            しかしSVMも最近は速いらしい - 射撃しつつ前転 改
            stealthinu
            stealthinu2008/12/22非公開
            カーネル使わないってことはカーネルトリック使わないってこと?なんか早くなるらしいが、原理はきっとさっぱりわからんことだろう。カーネルトリックだって良く分からないのに…
            • stealthinu
              stealthinu2008/09/24非公開
              svmはカーネルトリックが良くわからんのだよなあ。なんであれで高次に写像されるのかが理解できない。
              • 残りのブックマークを読み込んでいます1

              お知らせ

              公式Twitter

              • @HatenaBookmark

                リリース、障害情報などのサービスのお知らせ

              • @hatebu

                最新の人気エントリーの配信

              処理を実行中です

              キーボードショートカット一覧

              j次のブックマーク

              k前のブックマーク

              lあとで読む

              eコメント一覧を開く

              oページを開く

              はてなブックマーク

              公式Twitter

              はてなのサービス

              • App Storeからダウンロード
              • Google Playで手に入れよう
              Copyright © 2005-2025Hatena. All Rights Reserved.
              設定を変更しましたx

              [8]ページ先頭

              ©2009-2025 Movatter.jp