Movatterモバイル変換


[0]ホーム

URL:


はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

はてなブックマーク

  • はてなブックマーク
  • テクノロジー
  • 論文解説 Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer (MoE) - ディープラーニングブログ
  • Twitterでシェア
  • Facebookでシェア

気に入った記事をブックマーク

  • 気に入った記事を保存できます
    保存した記事の一覧は、はてなブックマークで確認・編集ができます
  • 記事を読んだ感想やメモを書き残せます
  • 非公開でブックマークすることもできます
適切な情報に変更

エントリーの編集

loading...

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。

タイトルガイドライン

このページのオーナーなので以下のアクションを実行できます

タイトル、本文などの情報を
再取得することができます
コメントを非表示にできますコメント表示の設定

ブックマークしました

ここにツイート内容が記載されますhttps://b.hatena.ne.jp/URLはspanで囲んでください

Twitterで共有

ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します

3usersがブックマークコメント1

    ガイドラインをご確認の上、良識あるコメントにご協力ください

    0/0
    入力したタグを追加

    現在プライベートモードです設定を変更する

    おすすめタグタグについて

      よく使うタグ

        論文解説 Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer (MoE) - ディープラーニングブログ

        ガイドラインをご確認の上、良識あるコメントにご協力ください

        0/0
        入力したタグを追加

        現在プライベートモードです設定を変更する

        おすすめタグタグについて

          よく使うタグ

            はてなブックマーク

            はてなブックマークで
            関心をシェアしよう

            みんなの興味と感想が集まることで
            新しい発見や、深堀りがもっと楽しく

            ユーザー登録

            アカウントをお持ちの方はログインページ

            記事へのコメント1

            • 注目コメント
            • 新着コメント
            sh19910711
            "MoE: 複雑な問題を分解して簡単なサブ問題を解決する戦略を志向したモデル + 起源は Geoffrey Hinton の研究グループが提案した混合エキスパート [Jacobs, 1991] / 各エキスパートは特定の構文や意味を処理する" / 2017

            その他
            mooz
            13万個のエキスパートからなる MoE まさに outrageously large だ

            その他

            注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

            リンクを埋め込む

            以下のコードをコピーしてサイトに埋め込むことができます

            プレビュー
            アプリのスクリーンショット
            いまの話題をアプリでチェック!
            • バナー広告なし
            • ミュート機能あり
            • ダークモード搭載
            アプリをダウンロード

            関連記事

              usersに達しました!

              さんが1番目にブックマークした記事「論文解説 Outrageo...」が注目されています。

              気持ちをシェアしよう

              ツイートする

              論文解説 Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer (MoE) - ディープラーニングブログ

              こんにちは Ryobot (りょぼっと) です.紙はICLR 2017 のポスターセッションでもっとも注目を集めた...こんにちは Ryobot (りょぼっと) です.紙はICLR 2017 のポスターセッションでもっとも注目を集めた論文である.写真の右側のGoogle Tシャツの男性が第一著者の Noam Shazeer,左側の女性が第二著者の Azalia Mirhoseini (ソース). この論文では傍若無人なほど巨大な (Outrageously Large) 混合エキスパートと少数のエキスパートを選択するゲーティングネットワークを用意し,ゲーティングで選択した少数のエキスパートのみ順/逆伝播を実行することで巨大なモデルであっても少ない時間で訓練できる.機械翻訳と言語モデルの SOTA を達成した. 著者にの概念で注目を集めた Quoc Le,深層学習のゴッドファーザー Geoffrey Hinton,分散システムの大御所 Jeffrey Dean が会している点でも注目を集めた. WM

                ブックマークしたユーザー

                • sh199107112024/02/17sh19910711
                • mooz2017/12/19mooz
                すべてのユーザーの
                詳細を表示します

                ブックマークしたすべてのユーザー

                同じサイトの新着

                同じサイトの新着をもっと読む

                いま人気の記事

                いま人気の記事をもっと読む

                いま人気の記事 - テクノロジー

                いま人気の記事 - テクノロジーをもっと読む

                新着記事 - テクノロジー

                新着記事 - テクノロジーをもっと読む

                同時期にブックマークされた記事

                いま人気の記事 - 企業メディア

                企業メディアをもっと読む

                はてなブックマーク

                公式Twitter

                はてなのサービス

                • App Storeからダウンロード
                • Google Playで手に入れよう
                Copyright © 2005-2025Hatena. All Rights Reserved.
                設定を変更しましたx

                [8]ページ先頭

                ©2009-2025 Movatter.jp