Movatterモバイル変換


[0]ホーム

URL:


はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

はてなブックマーク

  • はてなブックマーク
  • テクノロジー
  • OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ
  • Twitterでシェア
  • Facebookでシェア

気に入った記事をブックマーク

  • 気に入った記事を保存できます
    保存した記事の一覧は、はてなブックマークで確認・編集ができます
  • 記事を読んだ感想やメモを書き残せます
  • 非公開でブックマークすることもできます
適切な情報に変更

エントリーの編集

loading...

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。

タイトルガイドライン

このページのオーナーなので以下のアクションを実行できます

タイトル、本文などの情報を
再取得することができます
コメントを非表示にできますコメント表示の設定

ブックマークしました

ここにツイート内容が記載されますhttps://b.hatena.ne.jp/URLはspanで囲んでください

Twitterで共有

ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します

226usersがブックマークコメント26

    ガイドラインをご確認の上、良識あるコメントにご協力ください

    0/0
    入力したタグを追加

    現在プライベートモードです設定を変更する

    おすすめタグタグについて

      よく使うタグ

        OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ

        ガイドラインをご確認の上、良識あるコメントにご協力ください

        0/0
        入力したタグを追加

        現在プライベートモードです設定を変更する

        おすすめタグタグについて

          よく使うタグ

            はてなブックマーク

            はてなブックマークで
            関心をシェアしよう

            みんなの興味と感想が集まることで
            新しい発見や、深堀りがもっと楽しく

            ユーザー登録

            アカウントをお持ちの方はログインページ

            記事へのコメント26

            • 注目コメント
            • 新着コメント
            hobbiel55
            「多くの問題がどれだけお金を払えるかという問題に変わります」←また、資本家に富が集中する新たな可能性が開かれた。

            その他
            Ez-style
            要するに、レベルを上げて物理で殴ればいい、みたいな。

            その他
            schyzon
            資本力ある企業がAIベンチャーを駆逐する構図が思い浮かんで辛い

              その他
              geopolitics
              札束で殴る。札束は上限なし。

                その他
                mkusunok
                ゴールドラッシュと同じで、フロンティアが開拓された後は資本集約してスケールさせる展開に?

                  その他
                  otoan52
                  どの脳でもそれなり以上には機能している、という観測結果をうまく説明できる気がする。

                    その他
                    Cru
                    もはや旧聞になってしまったけど、ブクマしとこう

                    その他
                    enemyoffreedom
                    2021年1月の記事

                    その他
                    yefu
                    ディープラーニングの能力は計算資源のスケールに依存して向上し続ける

                    その他
                    hippy-hikky
                    サイズが大きければってことは、記憶できるパターンの数が多いほど精度が上がるみたいなことかな(よくわかってない)?だとしたら理解はできるけどあまり夢は持てないなー

                    その他
                    phare
                    “Scaling Lawを一言で説明するなら「Transformerの性能はたった3つの変数のべき乗則に支配されている」というものです”

                      その他
                      t1mvverr
                      正解にたどり着いた感

                      その他
                      mkusunok
                      mkusunokゴールドラッシュと同じで、フロンティアが開拓された後は資本集約してスケールさせる展開に?

                        2021/01/06リンク

                        その他
                        skypenguins
                        予算の規模がやばいな

                        その他
                        hihi01
                        すごいな、AIの性能限界もべき分布で、リソースの量のみによると。

                          その他
                          schyzon
                          schyzon資本力ある企業がAIベンチャーを駆逐する構図が思い浮かんで辛い

                            2021/01/05リンク

                            その他
                            zkzi3254
                            性能限界無いって凄いな

                              その他
                              mochitabesugi
                              Transformerの性能に限界がないのか。金に物を言わせて大量に良質のデータをかき集め、豊富な計算資源を用意すれば、いくらでも性能の高いものが作れるということか

                                その他
                                hatest
                                いろんな意味でスケールのでかい話

                                  その他
                                  Ez-style
                                  Ez-style要するに、レベルを上げて物理で殴ればいい、みたいな。

                                  2021/01/05リンク

                                  その他
                                  mysql8
                                  2021年プレ・シンギュラリティ(GPT-4 AGI)は近い パラメータ数が多い=ニューロンが多いほど頭がいいってことにならない?老化や萎縮でニューロンが減ると認知症やボケるってそうゆうことだよね?5000兆円あげるからAGI作って

                                    その他
                                    otoan52
                                    otoan52どの脳でもそれなり以上には機能している、という観測結果をうまく説明できる気がする。

                                      2021/01/05リンク

                                      その他
                                      knok
                                      コーパスが人間の一生分あればAGIに近づくだろうか?さすがにそれだけでは無理かな。他のモダリティ情報もないと

                                        その他
                                        denqueue
                                        "Transformer (言語モデル) の性能はパラメータ数N・データセットサイズD・計算予算Cを変数としたシンプルなべき乗則 (Power Law)1 に従うというものです."

                                          その他
                                          misshiki
                                          “1つはScaling Lawの有効範囲には上限がない可能性です.つまり,理論上は3つの変数を上げ続ければTransformerの性能は無限に上がり続けることを意味します.”

                                          その他
                                          stealthinu
                                          凄い論文。Scaling Lawは上限がなく規模により性能が無限に上がるのとあらゆるドメインに適用できる可能性を示唆。極端なこと言えば予算あれば現在でもシンギュラリティ可能ってことでは。

                                          その他
                                          aipacommander
                                          すごいけどお金。。。。

                                            その他
                                            Nyoho
                                            「Transformerの性能はたった3つの変数のべき乗則に支配されている」

                                            その他
                                            geopolitics
                                            geopolitics札束で殴る。札束は上限なし。

                                              2021/01/05リンク

                                              その他
                                              otori334
                                              “Transformer (言語モデル) の性能はパラメータ数N・データセットサイズD・計算予算Cを変数としたシンプルなべき乗則 (Power Law)1 に従うという” “性能に限界が存在しない可能性があります”

                                              その他
                                              hobbiel55
                                              hobbiel55「多くの問題がどれだけお金を払えるかという問題に変わります」←また、資本家に富が集中する新たな可能性が開かれた。

                                              2021/01/05リンク

                                              その他
                                              hirokiky
                                              すごい。夢しかない。

                                                その他

                                                注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

                                                リンクを埋め込む

                                                以下のコードをコピーしてサイトに埋め込むことができます

                                                プレビュー
                                                アプリのスクリーンショット
                                                いまの話題をアプリでチェック!
                                                • バナー広告なし
                                                • ミュート機能あり
                                                • ダークモード搭載
                                                アプリをダウンロード

                                                関連記事

                                                  usersに達しました!

                                                  さんが1番目にブックマークした記事「OpenAIが発見したS...」が注目されています。

                                                  気持ちをシェアしよう

                                                  ツイートする

                                                  OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ

                                                  OpenAIGPT-3の次の研究を始めています. 世間がGPT-3のデモに湧き上がる中,OpenAIはScaling Lawに関...OpenAIGPT-3の次の研究を始めています. 世間がGPT-3のデモに湧き上がる中,OpenAIはScaling Lawに関する2の論文をひっそりと公開しました. Scaling Lawを一言で説明するなら「Transformerの性能はたった3つの変数のべき乗則に支配されている」というものです. Scaling Lawはそれ単体だけなら興味深い話で終わるかもしれません.実際に英語圏でもあまり話題にあがっていません.しかし,この法則の当の凄さに気づいている研究者もいて,なぜ話題にならないのか困惑しています. I am curious why people are not talking more about theOpenAI scaling law papers. For me, they seem very significant. What I heard so far:

                                                  ブックマークしたユーザー

                                                  • propan-2-one2025/04/29propan-2-one
                                                  • pidekazu2023/12/30pidekazu
                                                  • proto_jp2023/12/11proto_jp
                                                  • Cru2023/08/20Cru
                                                  • techtech05212023/08/09techtech0521
                                                  • uehaj2023/04/12uehaj
                                                  • bosh2023/04/06bosh
                                                  • qinmu2023/03/30qinmu
                                                  • marutaku01312023/03/25marutaku0131
                                                  • takasago082023/03/24takasago08
                                                  • akiyoko2023/03/23akiyoko
                                                  • nakag07112023/03/22nakag0711
                                                  • enemyoffreedom2023/03/22enemyoffreedom
                                                  • gabill2023/03/10gabill
                                                  • yamada_k2023/03/06yamada_k
                                                  • TakayukiN6272023/02/21TakayukiN627
                                                  • idk2023/02/20idk
                                                  • zetta19852023/02/08zetta1985
                                                  すべてのユーザーの
                                                  詳細を表示します

                                                  ブックマークしたすべてのユーザー

                                                  同じサイトの新着

                                                  同じサイトの新着をもっと読む

                                                  いま人気の記事

                                                  いま人気の記事をもっと読む

                                                  いま人気の記事 - テクノロジー

                                                  いま人気の記事 - テクノロジーをもっと読む

                                                  新着記事 - テクノロジー

                                                  新着記事 - テクノロジーをもっと読む

                                                  同時期にブックマークされた記事

                                                  いま人気の記事 - 企業メディア

                                                  企業メディアをもっと読む

                                                  はてなブックマーク

                                                  公式Twitter

                                                  はてなのサービス

                                                  • App Storeからダウンロード
                                                  • Google Playで手に入れよう
                                                  Copyright © 2005-2025Hatena. All Rights Reserved.
                                                  設定を変更しましたx

                                                  [8]ページ先頭

                                                  ©2009-2025 Movatter.jp