Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「正則化」を含む日記RSS

はてなキーワード:正則化とは

2025-10-21

数学の分類はこんな感じか

フェミニズムの分類が多すぎると聞いて

anond:20251020210124

0. 基礎・横断

集合論

公理集合論(ZFC, ZF, GCH, 大きな基数)

記述集合論(Borel階層, Projective階層, 汎加法族)

強制法フォーシング),相対的一致・独立

理論理学

述語論理(完全性定理,コンパクト性)

モデル理論(型空間, o-極小, NIP, ステーブル理論

証明論(序数解析,カット除去,直観主義論理

再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)

圏論

関手自然変換, 極限/余極限

加群圏,アーベル圏,三角圏,派生

トポス論,モナド,アジュンクション

数学基礎論哲学

構成主義,直観主義,ユニバース問題,ホモトピー型理論(HoTT)

1.代数学

群論

組み合わせ群論(表示, 小石定理,自由群)

代数群/リー群表現, Cartan分解,ルート系)

幾何群論ハイパーリック群, Cayleyグラフ

環論

可換環論(イデアル,局所化,次元理論, 完備化)

可換環アルティン環, ヘルシュタイン環, 環上加群

体論・ガロア理論

体拡大, 分解体,代数独立, 有限体

表現

群・リー代数表現(最高ウェイト,カズダン–ルスティグ)

既約表現,調和解析との関連,指標

ホモロジー代数

射影/入射解像度, Ext・Tor,派生関手

K-理論

アルバースカルーア理論, トポロジカルK, 高次K

線形代数

ジョルダン標準形,特異値分解,クリフォード代数

計算代数

Gröbner基底,多項式時間アルゴリズム,計算群論

2. 数論

初等数論(合同, 既約性判定,二次剰余)

代数的数論(代数体, 整環,イデアル類群,局所体)

解析数論(ゼータ/ L-関数,素数定理,サークル法, 篩法)

p進数論(p進解析, Iwasawa理論, Hodge–Tate)

算術幾何楕円曲線, モジュラー形式,代数多様体の高さ)

超越論(リンマンヴァイエルシュトラス, ベーカー理論

計算数論(楕円曲線法,AKS素数判定, 格子法)

3. 解析

実解析

測度論・ルベーグ積分, 凸解析,幾何的測度論

複素解析

変数リーマン面, 留数, 近似定理

変数(Hartogs現象, 凸性, severalcomplex variables)

関数解析

バナッハ/ヒルベルト空間,スペクトル理論, C*代数, von Neumann代数

調和解析

フーリエ解析,Littlewood–Paley理論, 擬微分作用素

確率解析

マルチンゲール,伊藤積分, SDE,ギルサノフ, 反射原理

実関数論/特殊関数

ベッセル, 超幾何,直交多項式, Rieszポテンシャル

4.微分方程式力学系

常微分方程式(ODE)

安定性,分岐, 正準系,可積分系

偏微分方程式(PDE)

楕円型(正則性,変分法, 最小曲面)

放物型(熱方程式, 最大原理, Harnack)

双曲型(波動, 伝播, 散乱理論

非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)

幾何解析

リッチ流, 平均曲率流,ヤンミルズ,モノポールインスタント

力学系

エルゴード理論(Birkhoff, Pesin),カオス, シンボリック力学

ハミルトン力学,KAM理論,トーラス崩壊

5.幾何学・トポロジー

位相幾何

点集合位相,ホモトピーホモロジー, 基本群,スペクトル系列

幾何トポロジー

3次元多様体幾何化, 結び目理論,写像類群)

4次元トポロジー(Donaldson/Seiberg–Witten理論

微分幾何

リーマン幾何(曲率,比較幾何,有界幾何

シンプレクティック幾何(モーメント写像, Floer理論

複素/ケーラー幾何(Calabi–Yau, Hodge理論

代数幾何

スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間

有理幾何(MMP, Fano/一般型,代数曲線/曲面)

離散幾何・凸幾何

多面体, Helly/Carathéodory,幾何極値問題

6.組合せ論

極値組合せ論(Turán型, 正則性補題

ランダムグラフ/確率方法(Erdős–Rényi, nibble法)

加法組合せ論(Freiman, サムセット, Gowersノルム)

グラフ理論

彩色,マッチング,マイナー理論(Robertson–Seymour)

スペクトルグラフ理論,拡張グラフ

組合設計ブロック設計, フィッシャーの不等式)

列・順序・格子(部分順序集合, モビウス反転)

7.確率統計

確率論(純粋

測度確率, 極限定理, Lévy過程, Markov過程, 大偏差

統計

数理統計推定, 検定, 漸近理論,EM/MD/ベイズ

ベイズ統計MCMC, 変分推論, 事前分布理論

多変量解析(主成分, 因子,判別,正則化

ノンパラメトリックカーネル法, スプライン,ブーストラップ

実験計画/サーベイ,因果推論(IV,PS,DiD,SCM

時系列(ARIMA,状態空間, Kalman/粒子フィルタ

確率最適化/学習理論

PAC/VC理論,一般境界,統計学習

バンディット,オンライン学習,サンプル複雑度

8.最適化オペレーションリサーチ(OR)

凸最適化

二次計画, 円錐計画(SOCP,SDP),双対性,KKT

凸最適化

多峰性, 一階/二階法, 低ランク,幾何的解析

離散最適化

整数計画,ネットワークフロー, マトロイド, 近似アルゴリズム

確率的/ロバスト最適化

チャンス制約,分布ロバスト,サンプル平均近似

スケジューリング/在庫/待ち行列

Little法則, 重み付き遅延, M/M/1, Jackson網

ゲーム理論

ナッシュ均衡,進化ゲーム,メカニズムデザイン

9. 数値解析・計算数学科学計算

数値線形代数(反復法,直交化, プリコンディショニング)

常微分方程式の数値解法(Runge–Kutta,構造保存)

PDE数値(有限要素/差分/体積,マルチグリッド

誤差解析・条件数,区間演算,随伴

高性能計算HPC)(並列アルゴリズム,スパー行列

シンボリック計算(CAS,代数的簡約, 決定手続き

10.情報計算暗号(数理情報

情報理論

エントロピー,符号化(誤り訂正, LDPC,Polar), レート歪み

暗号理論

公開鍵RSA,楕円曲線, LWE/格子),証明可能安全性,MPC/ゼロ知識

計算複雑性

P vsNP,ランダム化・通信・回路複雑性,PCP

アルゴリズム理論

近似・オンライン確率的,幾何アルゴリズム

機械学習の数理

カーネル法, 低次元構造, 最適輸送, 生成モデル理論

11. 数理物理

古典/量子力学の厳密理論

C*代数量子論, 散乱, 量子確率

量子場の数理

くりこみ群,構成的QFT, 共形場理論CFT

統計力学の数理

相転移, くりこみ, Ising/Potts, 大偏差

可積分系

逆散乱法,ソリトン, 量子可積分モデル

理論幾何

鏡映対称性,Gromov–Witten, トポロジカル弦

12.生命科学医学社会科学への応用数学

数理生物学

集団動態,進化ゲーム, 反応拡散,系統樹推定

数理神経科学

スパイキングモデル,ネットワーク同期, 神経場方程式

疫学感染症数理

SIR系,推定制御, 非均質ネットワーク

計量経済金融工学

裁定,確率ボラ,リスク測度, 最適ヘッジ, 高頻度データ

社会ネットワーク科学

拡散, 影響最大化,コミュニティ検出

13.シグナル・画像データ科学

信号処理

時間周波数解析,スパー表現,圧縮センシング

画像処理/幾何処理

変動正則化, PDE法, 最適輸送, 形状解析

データ解析

多様体学習,次元削減, トポロジカルデータ解析(TDA

統計機械学習回帰/分類/生成,正則化, 汎化境界

14.教育歴史方法

数学教育学(カリキュラム設計, 誤概念研究,証明教育

数学史(分野別史,人物研究,原典講読)

計算支援定理証明

形式数学(Lean,Coq, Isabelle), SMT,自動定理証明

科学哲学数学実在論/構成主義,証明発見心理

Permalink |記事への反応(0) | 10:29

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-08

[日記]

ルームメイトが僕のホワイトボード勝手に消した。

僕が三週間かけて導出したp進弦理論局所ゼータ関数上の正則化項を書き直せると思ったら大間違いだ。

あの計算は、ウィッテンでも手を出さな領域、すなわち、p進版のAdS/CFT対応をde Sitter境界条件下で非可換ゲージ群に拡張する試みだ。

通常の複素解析上では発散する項を、p進体のウルトラトリック構造を利用して有限化することで、非摂動的な重力の相関関数再構成できる。

だが、問題はそこにある。p進距離三角不等式が逆転するので、局所場の概念定義できない。

これはまるで、隣人がパンケーキを焼くときに「ちょっと目分量で」と言うのと同じくらい非論理的だ。

朝食はいものように、オートミール42グラム蜂蜜5グラムカフェイン摂取量は80mgに厳密に制御した。

ルームメイトはまたしても僕のシリアルを間違って開けたが、僕はすでにこのような異常事態に備えて、バックアップとして同一銘柄を3箱ストックしてある。

僕が秩序を愛するのは強迫ではなく、宇宙の熱的死に抗うための小さな局所秩序の創出だ。

今日研究は、T^4コンパクト化されたIIb型超弦理論D3ブレーン上における非可換ゲージ理論自己双対性

通常、B場を導入することで非可換パラメータθ^{μν}が生成されるが、僕の考察では、θ^{μν}をp進値に拡張することで、通常のMoyal積が局所整数体上で閉じない代数構造を持つ。

これが意味するのは、物理空間が離散的p進層として現れるということ。言い換えれば、空間のものが「整数木構造」になっている。

ルームメイトが「木構造空間って何?」と聞いたが、僕は優しく、「君の社交スキルネットワークよりは連結性が高い」とだけ答えておいた。

午後は友人たちとゲームをした。タイトルエルデンリング。だが彼らのプレイスタイルには忍耐が欠けている。

僕がビルド純粋知力型にしてカーリア王笏を強化している間に、彼らは無計画に突っ込んではボスに殺されていた。

統計的に見ても、平均的なプレイヤーの死亡原因の82%は戦略ミスに起因する。

僕は「量子重力パス積分と違って、こっちはセーブポイントがあるんだ」と指摘したが、誰も笑わなかった。理解力が足りないのは罪だ。

夜、コミックを再読した。ウォッチメンドクターマンハッタン描写は、量子決定論詩的表現として未だに比類ない。

あの青い身体は単なる放射線象徴ではなく、観測者のない宇宙比喩だ。

僕が大学時代に初めて読んだとき、「ああ、これは弦の振動意識を持った姿だ」と直感した。

今日もそれを確かめるため、ドクターマンハッタン時間非線形認識するシーンを分析し、p進時空における時間関数t→|t|_pの不連続性との対応を試みた。

結果、彼の非時間意識は、実はp進的時間座標における不連続点の集積と一致する。つまりマンハッタンはp進宇宙に生きているのだ。

寝る前に歯を磨く時間は、時計23:00を指してから90秒以内に開始しなければならない。これは単なる習慣ではなく、睡眠周期を最大化するための生理学最適化だ。

音楽再生しない。音波は心拍数を乱すからだ。ただし、ゼルダの伝説 時のオカリナエンディングテーマだけは例外だ。あれは時間対称性を感じさせる旋律から

僕の一日は、非可換幾何と行動最適化連続体でできている。宇宙エントロピーが増大しても、僕の部屋の秩序は一定だ。つまり、少なくともこの半径3メートル範囲では、熱的死はまだ先の話だ。

Permalink |記事への反応(0) | 00:23

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-06

メンタリスト一般人SNSを使わないほうがいいことは科学的に証明されていまーす」

心理学で「科学的に」って言うと、個性無視した平均主義しかないし、プラグマティズム的な視点も完全に抜けてるんだよね。

ここには大きく分けて9つの観点がある。

SNS他人に影響を与えるための道具ではなく、自己内面観測して整合性を取る装置として使う。他人が発信して社会の森を動かす中で、自分観測者として内面を記録し、理解する。この二面性が情報空間全体の平衡を保つ。

Permalink |記事への反応(1) | 03:49

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-05

[日記]

昨日は、僕の週間ルーティンの中でも最も重要整合性検証日だった。つまり宇宙がまだ局所的に論理的であるかを確認する日だ。

朝7時ちょうどに起床し、ベッドの角度を壁と垂直に再測定した結果、誤差は0.03度。つまり宇宙はまだ僕を裏切っていない。

朝食の時間ルームメイトトースターを再び二枚焼きモードにしたが、今回は驚かなかった。僕は冷静に、バナッハ=タルスキ分割の話を持ち出してこう言った。

「君のパンは二枚に見えるが、集合論的には同一だ。したがって、君の誤りは物理ではなく測度論の問題だ。」

彼は黙ってパンをかじった。理解されることを期待するのは、もはやハイゼンベルク的非決定性と同義だ。

午前中は、僕の新しい理論ホモトピー圏上の自己参照的弦圏理論」の検証を進めた。

通常の超弦理論がカテガリー的に整合するのは、D-ブレーンが導くモジュライ空間の滑らかさが保証されている範囲内に限られる。

しかし僕は最近、滑らかさという仮定のものを削除し、「∞-圏上のA∞代数自己整合性条件」に置き換えるべきだと気づいた。

まり、弦のダイナミクスを場の配置空間ではなく、「圏の自己ホモトピー類」として定義するのだ。すると興味深いことに、背景幾何消滅し、すべての次元は内部的モノイダ構造に吸収される。

言い換えれば、「空間」とはただの圏論的影であり、時空の実在は「自然変換の連続体」そのものになる。

これが僕の提案する“Self-fibrantString Hypothesis”だ。ウィッテンが読んだら、きっと静かに部屋を出ていくに違いない。

昼過ぎ、隣人がまた廊下で大声で電話していたので、僕はノイズキャンセリングヘッドフォンを装着し、同時に空気清浄機を「ラグランジュ安定モード」に切り替えた。

これは僕が改造した設定で、空気の流速が黄金比比率(φ:1)になるよう調整されている。これにより室内の微粒子分布が準結晶構造に近似され、精神的平衡が保たれる。

僕は自分の心の状態を量子的可換代数で表すなら、ほぼ可換な冪零理想の中にあるといえる。隣人は理解していないが、それは仕方ない。彼女精神空間は可約表現のままだ。

午後は友人たちとオンラインでEldenRingを再プレイした。僕は魔術師ビルドで、ルーン経済を「局所理論の再正則化問題」として再解釈している。

彼らがボスを倒すたびに叫ぶのを聞きながら、僕は心の中でリーマン面の分枝構造を追跡していた。実はEldenRingの地形構成リーマン面切り貼りに似ており、特にリエニール湖の設計は2次被覆の非自明な例として見ることができる。

開発者意図していないことはわかっているが、現象としては美しい。芸術とは本質的に、トポス自己鏡映だ。

夜、僕はコーヒーを淹れ、久々にグロタンディークのRécolteset Semaillesを読み返した。数学者自分の「精神幾何学」について語る箇所を読むと、僕の理論的中枢が共振する。

グロタンディークが述べた「点は存在しない、ただ開集合がある」という思想は、僕の弦理論観と同じだ。物理対象とは「開集合上の自然変換」に過ぎず、存在とは測度可能性の仮構にすぎない。つまり宇宙とは「圏論良心」だ。

深夜、ルームメイトが僕の部屋をノックして「一緒に映画を観ないか」と言った。僕は「今日自己同型群の可換性検証を行う予定だ」と答えたが、彼は肩をすくめて去った。

代わりに、僕はブレードランナー2049のBlu-ray再生し、壁紙色温度を劇中のネオン発光スペクトル(中心波長602nm)に合わせた。

完全な没入体験のために、部屋の空気を2.3ppmのオゾン濃度に調整した。呼吸するたびに、僕は自分物質ではなく関手の束だと実感する。

Permalink |記事への反応(0) | 11:42

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-28

[日記]

今日という日は、僕の知的リズムに乱れを生じさせた。朝はいつも通り決められたルーティンで始めた。7時整に起床し、まず歯を120秒正確に磨いた。その後、オートミールスクランブルエッグを、タンパク質炭水化物の最適な比率摂取した。ルームメイトは僕の規律理解しようともしないでコーヒーをこぼし、キッチンに一瞬カオス初期条件を作り出した。その瞬間に僕の頭の中では、弦理論における境界条件問題の初期値敏感性と完全に同型な不快感が広がった。

僕は午前中を使って、dS背景における超弦理論の非摂動的定式化の可能性について考え続けた。アディンクラ(supermultipletの可視化手法)をdS/CFT的枠組みで拡張する試みは、AdS/CFTきれいなログラフィック辞書と違い、群表現の非ユニタリ性問題を引き起こす。だが、ここにこそ突破口があると考えている。通常の弦理論真空はAdSやMinkowskiを基盤にして安定化されるが、dSでは不安定性が恒常的に残る。しかし、もしも境界条件を「量子情報幾何学的な状態多様体」として扱い、そこにFisher情報計量を組み込めば、エンタングルメントエントロピー正則化と一緒に新しい自己無撞着な枠組みが構築できる可能性がある。僕は昼食中もこの数式を頭の中で展開していた。隣人がテレビでどうでもいいドラマを流していたせいで集中が一瞬途切れたが、幸いにも僕のワーキングメモリは平均的ヒトのそれを圧倒的に凌駕しているので支障はない。

午後は週刊コミック新刊を入手した。バットマンの最新号では、またしてもゴッサム治安は壊滅的だ。正直に言うと、僕ならバットマンのように非効率な格闘を選ばず、まず量子暗号通信を導入して都市情報ネットワークを完全掌握するだろう。だが作者が物理学合理性よりもドラマ性を優先するのは理解できる。僕は同じく収集しているフラッシュバックナンバーも読み返したが、相対論効果の扱いが毎回不正確で失望する。光速に近い走行をしているのに時間膨張や質量増加を無視するのは科学犯罪に等しい。

夜は友人たちとオンラインカタンの開拓者たちプレイした。僕は当然ながら資源分布エントロピー最小化の観点から最適化し、交易線形計画問題帰着させて勝利した。彼らは「ゲームなのに楽しんでいない」と不満を述べたが、それは誤りだ。僕にとって勝利すること自体が最大の快楽であり、規則正しい戦略的優位性を確認することが娯楽なのだ

寝る前にもう一度、歯を120秒磨いた。僕の睡眠は必ず21時42分に始まる。もしそれが1分でもずれると、翌日の全ての計算に誤差が生じる。ルームメイトがまた騒がしい生活習慣で僕の理想的初期条件を乱さないことを願う。明日さらに複雑な弦理論計算を進めたい。特に、非可換幾何に基づく新しいブレーン安定化機構検討する予定だ。これがもしうまくいけば、ウィッテンですら首をひねるだろう。

僕は眠りにつく前に、今日世界が僕の計画通りに回っていないことを嘆いた。だが少なくとも、僕自身ルーティン頭脳は完全に回転している。これ以上完璧なことがあるだろうか。

Permalink |記事への反応(0) | 22:52

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-23

大規模言語モデル訓練における速度・精度革新手法の体系的時系列分析

Transformerアーキテクチャを基盤とする大規模言語モデル(LLM)の訓練効率化に関する主要技術革新を、時系列的に整理し体系化する。本分析arXivを中心とした学術論文に基づき、実証研究成果に焦点を当てる。

初期最適化手法確立2018-2020年

動的バッチサイズ調整

Popelら(2018)のTransformerモデル向け訓練手法分析[8]では、バッチサイズ学習率の動的調整が収束速度向上に有効であることを実証。最大文長制約を設けることでメモリ使用量を最適化し、8GPU環境で1.4倍の訓練速度向上を達成した。特に学習率のウォームアップ戦略が勾配不安定性を低減し、初期収束を促進する効果確認されている[8]。

混合精度訓練の導入

Zhuangら(2023)の調査[1]によれば、自動混合精度(AMP)訓練はFP16とFP32のハイブリッド運用により、メモリ消費量50%削減しつつ、DeiT-Bモデルの訓練速度を2倍改善。勾配スケーリング機構が数値的不安定性を緩和し、精度劣化なしに計算効率を向上させる[1]。

効率アルゴリズム多様化2021-2023年

Lion最適化手法

Zhuangらの分析[1]で言及されるLion最適化は、AdamWと比較してメモリ効率が30%改善され、収束速度が1.5倍高速化運動量推定と重み減衰の組み合わせが、Transformerの大規模疎行列演算適応し、ImageNet分類タスクTop-1精度1.2%向上を記録[1]。

シャープネス対応最小化(SAM)

損失関数の平坦な最小値を探索するSAM手法[1]は、Transformer訓練における汎化性能を15%改善。ただし二段階最適化必要なため訓練時間が1.8倍増加する課題を抱える。後続研究では確率的重み摂動を導入し、計算オーバーヘッドを30%削減[1]。

パラメータ効率型微調整の台頭(2023-2024年

ランク適応(LoRA)

Shahidら(2024)の総説[3]で解説されるLoRAは、重み更新行列を低ランク分解することで微調整パラメータを90%削減。GPT-3175Bモデルで従来手法と同等の性能を維持しつつ、GPUメモリ使用量を65%削減[3]。

動的ドロップアウト

動的ドロップアウト手法[4]は検証損失に基づき正則化強度を調整、Shakespeare_charデータセットで収束速度を40%改善指数減衰スケジュールが最適で、推論時のメモリ効率を25%向上させた[4]。

分散知能活用の進展(2024年

SALT訓練フレームワーク

小規模言語モデル(SLM)を活用したSALT手法[2]は、二段階訓練アプローチによりLLM事前学習時間を30%短縮。知識蒸留段階ではSLMの予測分布転移し、難易度適応データ選択学習効率最適化[2]。

エキスパート混合(MoE統合

MoEアーキテクチャ[3]は専門家ネットワークの動的選択により、同パラメータ数で推論速度を2.3倍向上。トークンレベルルーティング計算負荷を分散し、GLUEベンチマークで精度3.1%改善[3]。

最適化理論の深化(2024-2025年

近接政策最適化(PPO)

強化学習統合したPPO手法[3]は人間フィードバック効率的に活用倫理的アライメントタスクで従来比25%の精度向上。報酬モデルとの相互作用学習政策勾配の安定性を確保[3]。

アルゴリズム蒸留

EVOLvEフレームワーク[7]は探索的バンディット問題に対して最適アルゴリズム知識をLLMに転移、合成データによる事前学習で探索効率を60%改善モデルサイズ依存性を低減し、7Bパラメータモデルが70Bモデルを性能で凌駕[7]。

技術進化総合考察

速度改善要因の体系化

1.計算量削減:MoEの疎活性化計算コストO(1))[3]

2.メモリ階層最適化AMPと動的ドロップアウトの併用[1][4]

3.分散処理効率化:非同期勾配更新パイプライン並列化[8]

精度向上メカニズム

1. 損失地最適化:SAMによる平坦最小値探索[1]

2.知識転移効率化:SALTの二段階蒸留戦略[2]

3. 動的適応機構:PPOの政策最適化MoE専門家選択[3][7]

今後の課題展望

技術課題

1.カタストロフィックフォーミング:継続学習における破滅忘却問題[3]

2.計算-精度トレードオフ量子化訓練の精度劣化メカニズム[1]

3.倫理的アライメント:自己最適化システム制御可能性[3]

期待される発展

1.ニューロモーフィック統合:脳神経機構模倣した効率化[3]

2.マルチモーダル拡張画像-言語連成訓練の効率化[3]

3.物理法則統合エネルギー保存則に基づく最適化[4]

学術論文に基づく本分析を通じ、LLM訓練技術が単なる計算資源の拡大からアルゴリズム革新へとパラダイムシフトしていることが明らかとなった。今後の進展により、エネルギー効率倫理的妥当性を両立する次世代訓練手法の登場が期待される。

Citations:

[1] ttps://arxiv.org/pdf/2302.01107.pdf

[2] ttps://arxiv.org/html/2410.18779v1

[3] ttps://arxiv.org/abs/2408.13296

[4] ttps://arxiv.org/abs/2411.03236

[5] ttps://arxiv.org/pdf/2308.04950.pdf

[6]ttp://arxiv.org/pdf/2307.06435.pdf

[7] ttps://arxiv.org/abs/2410.06238

[8] ttps://arxiv.org/abs/1804.00247

[9] ttps://arxiv.org/pdf/2010.07003.pdf

[10] ttps://arxiv.org/html/2410.16392v1

[11] ttps://www.ijcai.org/proceedings/2023/0764.pdf

[12] ttps://arxiv.org/abs/2306.10891

[13] ttps://arxiv.org/html/2410.16682v1

[14] ttps://arxiv.org/abs/2502.00571

[15] ttps://arxiv.org/abs/2405.14277

[16] ttps://arxiv.org/abs/2310.05204

[17] ttps://arxiv.org/html/2308.09372v2

[18] ttps://arxiv.org/abs/2305.14239

[19] ttps://arxiv.org/abs/2407.18003

[20] ttps://arxiv.org/pdf/2309.06054.pdf

[21] ttps://arxiv.org/html/2401.02038v1

[22] ttps://arxiv.org/abs/2409.04833

[23] ttps://arxiv.org/html/2308.09372v3

[24] ttps://arxiv.org/abs/2410.13116

[25] ttps://arxiv.org/abs/2502.01612

[26] ttps://arxiv.org/abs/2302.01107

[27] ttps://arxiv.org/html/2302.07730v4

[28] ttps://arxiv.org/abs/2410.06940

[29] ttps://www.axelera.ai/blog/multilayer-perceptrons-mlp-in-computer-vision

Permalink |記事への反応(0) | 00:24

このエントリーをはてなブックマークに追加ツイートシェア

2024-01-14

anond:20240114142129

L1正則化がなんで機能するのか全く理解してなそう

Permalink |記事への反応(0) | 14:30

このエントリーをはてなブックマークに追加ツイートシェア

2023-04-22

ただのメモ

https://arxiv.org/pdf/2304.10466.pdf

効率的な深層強化学習には過学習規制必要

 

試行錯誤によって方針学習する深層強化学習アルゴリズムは、環境積極的相互作用することによって収集された限られた量のデータから学習しなければならない。多くの先行研究が、データ効率の良いRLを実現するためには適切な正則化技術重要であることを示していますが、データ効率の良いRLにおけるボトルネック一般的理解不明なままでした。その結果、すべての領域でうまく機能する普遍的技術を考案することは困難であった。

論文では、非定常性、過剰な行動分布シフトオーバーフィッティングなどのいくつかの潜在的な仮説を検討することにより、サンプル効率的な深層RLの主要なボトルネック理解することを試みている。

  

効率のいい強化学習って難しいんですね

強化学習ってよく知らない

 

我々は、状態ベースDeepMind control suite(DMCタスクについて、制御された体系的な方法で徹底的な実証分析を行い、遷移の検証セットにおける高い時間差(TD)誤差が、深いRLアルゴリズムの性能に深刻な影響を与える主犯であり、良い性能をもたらす先行手法は、実際、検証TD誤差を低く制御することを示した。この観察からディープRLを効率化するための強固な原理が得られる。すなわち、教師あり学習正則化技術を利用することで、検証TD誤差をヒルクライムできる。

 

時間差(TD)誤差ってやつがだめらしい

誤差を減らすのがDeepLearningだけど、それが時間差なのか。

  

我々は、検証TD誤差をターゲットとするシンプルオンラインモデル選択法が、状態ベースDMCGymタスクにおいて効果であることを示す。

1 はじめに

強化学習(RL)法は、大容量の深層ニューラルネット関数近似器と組み合わせた場合ロボット操作などのドメインで有望視されている(Andrychowiczet al

2020)、チップ配置(Mirhoseiniet al.、2020)、ゲーム(Silveret al.、2016)、データセンターの冷却(Lazicet al.、2018)。アクティブオンラインデータ収集単位ごとに費用が発生するため(例.

実際のロボットを動かす、シミュレーションによるチップ評価など)、限られた経験量でも効率的学習できる、サンプル効率の良い深層RLアルゴリズムを開発することが重要である。このような効率的なRLアルゴリズムの考案が、近年の重要研究課題となっていますJanneret al

2019; Chenet al., 2021; Hiraokaet al., 2021)。

原理的には、オフポリシーRL法(例えば、SAC (Haarnojaet al., 2018),TD3 (Fujimotoet al., 2018),Rainbow (Hesselet al., 2018))は、データ収集ステップごとに多くの勾配ステップポリシーと値関数改善することを可能にするため、良いサンプル効率が得られるはずです。しかし、このメリットは実際には実現できないようで、1回の学習ステップを多く取りすぎることでを収集した各遷移は、多くの環境において実際にパフォーマンスを害する。過大評価(Thrun & Schwartz, 1993; Fujimotoet al., 2018)といったいくつかの仮説、非定常性(Lyle ら、2022)、またはオーバーフィッティング(Nikishinら、2022)が根本的な原因として提案されている。

これらの仮説に基づき、より多くの勾配ステップを持つオフポリシーRLを可能にする方法として、モデルベースデータ増強(Jannerら、2019)、アンサンブル使用(Chenら、2021)、ネットワーク正則化(Hiraokaら、2021)、再生バッファを維持しながらRLエージェントゼロから定期的にリセット(Nikishinら、2022)などのいくつかの緩和戦略提案されている。これらのアプローチはそれぞれサンプル効率を大幅に向上させるが、これらの修正有効性は(これから示すように)タスクに大きく依存する可能性があり、根本的な問題やこれらの手法挙動理解することはまだ未解決である

 

ICLR 2023で会議論文として発表 本論文では、より多くの勾配ステップを取ることが深層RLアルゴリズムの性能悪化につながる理由ヒューリスティック戦略が役立つ場合がある理由、そしてこの課題をより原理的かつ直接的な方法で軽減する方法理解しようとするものである

最近提案されたタンデム学習パラダイム(Ostrovskiet al., 2021)を用いた実証分析を通じて、TD学習アルゴリズムは、学習の初期段階において、すぐに高い検証時間差(TD)誤差(すなわち、保留した検証セットにおけるQ-ネットワークブートストラップターゲットの間の誤差)を得る傾向にあり、悪い最終解をもたらすことを明らかにする。

このホワイト ペーパーでは、深い RLアルゴリズムで勾配ステップを増やすパフォーマンスが低下する理由場合によってはヒューリスティック戦略が役立つ理由、およびこの課題をより原則的かつ直接的な方法で軽減する方法理解しようとします。最近提案されたタンデム学習パラダイム (Ostrovskiet al., 2021) を使用した実証分析を通じて、トレーニングの初期段階で、TD学習アルゴリズムが高い検証時間差を迅速に取得する傾向があることを示します。

(TD)エラー (つまり、保留された検証セットでの Qネットワークブートストラップターゲットとの間のエラー) が発生し、最終的なソリューション悪化します。さらに、データ効率の高い RL 設定のために考案された多くの既存方法が、検証TDエラーを低く制御する限り有効であることを示します。

この洞察は、深い RL を効率的にするための堅牢原則提供します。データ効率を向上させるために、検証TDエラー山登りすることによって、特定問題に最も適した正則化選択するだけです。

この原則は、オンラインRLトレーニング過程特定タスクに最適な正則化戦略自動的発見しようとする単純なオンラインモデル選択方法の形で実現され、これを検証TDエラー使用した自動モデル選択(AVTD)と呼びます

AVTD は、各エージェントが異なる正則化適用する共有リプレイバッファーで、いくつかのオフポリシー RLエージェントトレーニングします。 次に、AVTD は、環境内で動作するための検証TDエラーが最小のエージェントを動的に選択します。

この単純な戦略だけでも、多くの場合、さまざまなGym およびDeepMindコントロールスイート (DMC)タスクで個々の正則化スキームと同様のパフォーマンスを発揮するか、それを上回ることがわかります重要なのはパフォーマンスドメイン間で大幅に異なる可能性がある以前の正則化方法とは異なり、私たちアプローチはすべてのドメイン堅牢動作することに注意してください。

要約すると、私たち最初の貢献は、サンプル効率の高いディープ RL のボトルネック実証分析です。 これらの課題の背後にあるいくつかの潜在的説明を厳密に評価し、トレーニングの初期段階で高い検証TDエラーを取得することが、データ効率の高いディープ RL のパフォーマンスを阻害する最大の原因の 1 つであることを観察します。私たちの 2 番目の貢献は、単純なアクティブモデル選択法 (AVTD) です。これは、検証TDエラー山登りによって正則化スキーム自動的選択しようとします。 多くの場合私たち方法は、さまざまなGym およびDMCタスクで、最適な個々の正則化スキーム匹敵するか、それを上回ります

Permalink |記事への反応(0) | 12:15

このエントリーをはてなブックマークに追加ツイートシェア

2022-10-03

anond:20221003171727

拡散の逆過程学習してるんやで。

拡散過程情報を失う過程なので逆過程は決定不能なわけだが、決定不能な中でも「拡散する前はこういう状態だったケースが多い」というパターン統計的に獲得(=学習)することで逆過程を決めることはできる。もちろんそれは決定不能問題に無理矢理解を与えているだけ(=正則化)なので唯一絶対の解ではないが、入出力の辻褄は合う可能な解のうちの一つになる。

過程を獲得できれば、それをシミュレートすることで拡散しきった状態(結果)から入力データにありそうな画像(原因)を推定することができるようになる。それが生成プロセス

Permalink |記事への反応(2) | 17:30

このエントリーをはてなブックマークに追加ツイートシェア

2022-09-10

anond:20220910151905

それはそうなんだけど、ほとんどの自然科学は「物理的に考えてこうだろう」みたいな正則化がめちゃくちゃ効くのでほとんどの場合逆問題のヤバさが現れないんだよね…。でも本当はその正則化おかしいということは沢山あると思う。ブラックホール画像再構成とか。

神経科学とかは既存の知見の大半が実は統計的誤謬デタラメという可能性もある気はする。

Permalink |記事への反応(0) | 15:21

このエントリーをはてなブックマークに追加ツイートシェア

2021-05-30

どちらが本質的かといえば…

あらかじめ日本語理解してる人でないと理解できない日本語文法と、

日本語勉強している外国人に使われている日本語文法なら、

後者の方が本質的構造を捉えてるんだと思う。


理系に実感が湧くように言うと、

回帰母集団分布推定するときに、

回帰関数を2次、3次、4次…と複雑化して《過学習オーバーフィット》したのが前者で


※ あらかじめ理解してる日本語=標本データに n次関数をむりやり当てはめてる状態

※ n次関数西洋で発達した文法解析のメタファーだと思って欲しい


階層ベイジアンモデルパラメータMCMC でシミレーションして推定したのが後者というか…


前者でも、正則化項つけてリッジ回帰的な方向に持ってくことは可能かもしれないけど…


あっ、「あらかじめ日本語理解してる人でないと理解できない日本語文法」っていうのは

日本語義務教育で習う文法のことです。

Permalink |記事への反応(0) | 11:21

このエントリーをはてなブックマークに追加ツイートシェア

2016-05-27

自慢気にDeep Learning使ってるやつは大体クソ

色んなライブラリが出てるからDeep Learningを使うこと自体全然難しくない。

おかげで暇人Deep Learningをちょっと試してみたみたいな記事がよくホッテントリに上がってくる。ブクマをつけてるやつらは大抵、自分で試してみる気力とか能力のない残念な人たち。

ところが、記事の内容を見てみるとマジで単に使ってみてるだけなんだよな。なんでDeep Learningを使わなきゃいけないのかさえ考えてない思考停止ほとんどの場合は、昔からある3層のニューラルネットとかSVMで十分な性能が出る問題になんとなくDeep Learningを当てはめているだけ。

あのな、Deep Learningみたいに膨大なパラメータを持ってる学習モデル簡単過学習を起こすから素人が下手に扱うとむしろ精度が落ちるもんだ。そこそこ難しいタスクに対して上手く学習するには、とんでもない量の訓練データ必要になる。しかも、Deep Learningは手動で設定する必要があるハイパーパラメータの数も膨大で、学習率とかノード数、正則化パラメータみたいなやつらを地道に調整しなけりゃいけない。はっきり言ってめちゃくちゃ泥臭い作業だ。

なんでGoogleとかがDeep Learningで成功しているか、少しでも考えたことあるか?あいつらは過学習なんて関係なくなるほど、無茶苦茶たくさんのデータを手元に溜め込んでるんだ。しかも、ハイパーパラメータ設定の勘所を掴んでる職人みたいな技術者を金の力でどんどん集めている。

Deep Learningは理論的な下支えがほとんどなくて、勘と経験則で成り立ってる世界だ。数年前の定説簡単にひっくり返ることが多いし、正直なところあれは研究と呼べるものではないと思う。「なぜかは知らんがやってみたらうまくいった」みたいな事実が羅列されてるだけ。思いついた手法が上手くいくかが運任せという意味では、ガチャを引いてるのとだいたい同じ。無課金勢がいくら知恵を絞っても廃課金勢には勝てない世界

というわけで、お前らがぽっと出のアイディアDeep Learning使ったところでゴミみたいなアプリが出来るだけだからやめとけ。

そんな時間があったら、ちゃんとした機械学習の本読んどけ。PRMLとか。

数学が難しい?じゃあ、線型代数確率論勉強をやり直せ。そいつらは機械学習が廃れても役に立つからさ。

Permalink |記事への反応(0) | 22:23

このエントリーをはてなブックマークに追加ツイートシェア

2015-12-09

グーペおじさん Q&A「ホログラフィック原理

Q.

「我々はホログラムの世界に生きているのではない」ということが明らかに - GIGAZINE

物理研究者はこの世界ホログラムだと考えているってほんとうですか?

シミュレーション仮説」と「ホログラフィック原理」について教えてください。



A.

よしきた、ホログラフィック原理やな!

おっちゃん素人から間違ってたらかんにんな!

GIGAZINEさんの内容はいろいろ間違いや。

シミュレーション仮説ってのは「この世界コンピュータじゃないか」と哲学者さんが勝手に言っている話や。物理関係ない。

一方「ホログラフィック原理」つうのは

『異なる次元の2つの理論が実は同じである

という数学的な予想や。

次元 N=4超対称性 Yang-Mills理論 = AdS5 x S5 上の10次元重力理論

みたいな奴やな。

予想と言っても部分的には証明されていて、今でも数々の証拠があがって来とるわけで

多くの人が信じていると思うで。

ブラックホール原子核や物性理論を弦理論ないし超重力理論研究できるようになったんやからこれはすごいこっちゃ。

とにかく、物理屋さんはでまかせ言ってるわけやなくて、いろいろ計算しとるわけやな。角度とか

GIGAZINEで取り上げられていた研究はなんですか?

論文はこれのようやな。ホーガンさんの研究や。



おっちゃん素人から読めんのだけど、重力の量子効果観測しようとした話に見えるよ。

話を進める前に、まず現状の物理理論についておさらいしとこか。

まず、この世界には電磁気力」「弱い力」「強い力」「重力の4つの力がある。

これら4つを統一した究極理論があると物理屋さんたちは考えている訳や。

電磁気力+弱い力」ここまでは出来とる。

数年前にヒッグス粒子発見で大騒ぎになったやろ? あれが電弱統一理論完成の瞬間だったんや。

次は電磁気力+弱い力+強い力やな。候補となる理論はいろいろできてて、LHC超対称性粒子ってやつを探しとる。

ここまではいけそうなんや問題重力や。

ここまで物理屋さんの使ってきた理論を「場の理論(=特殊相対論量子力学)」つうんやけど、

場の理論重力理論を作ってみるとするな。簡単のため世界ドット絵のように細かく区切って理論を作ろ(格子正則化や)。ここまでは簡単なんや

ここで、ドットの1辺をずーっと小さくしていって連続極限をとると理論破綻してしまうんよ。無限大が出て来て取り扱えなくなってしまうのな。

頭のいい人たちがいろいろ考えたんやけどな、ずっと難航しとるんや。

子ループ重力

連続極限で理論つくるからだめなんよループで考えましょってやつな。難しすぎて論文出せない絶滅危惧種

単体分割理論

もう一歩進めてこの世は連続的じゃないんや! 結晶構造みたいに分割されているんや! ってやつやな。

こっちも難しすぎて絶滅危惧種

重力理論

超対称性導入して無限大キャンセルさせるやつや。難しすぎて絶滅危惧種になるかと思いきや、

ログラフィック原理でいろんな理論との対応が見つかって今めっちゃ輝いとるな! すごいこっちゃな

ほんなこんなで超難しいんよ。手を出すと死ぬねんで。

難しい原因のひとつ実験結果がないことやな。重力の量子効果をみるにはプランクスケール (10^19 GeV)程度の実験が出来れば 良いのやけれど、

加速器で作ろうとすると銀河系サイズらしいな。こいつは無理や。

こんなんやで「インターステラー」ではブラックホールまで直接観測に行ったわけやな。

そんで、ホーガンさんの研究はな、主人公ブラックホールまで行かなくてよかったんちゃう?」って内容なんや

地球上で実験できるらしいのな。使うのは加速器じゃなくて重力波検出装置や。最近 KAGRA が話題になっとったな。ああいうやつや。

乱暴に言うとな、ながーーーーーいアレを用意してその長さをはかるんや。時空が歪めば長さがかわるっつうわけや。アレというのはマイケルソンレーザー干渉計な。

でもな、おじさんみたいな素人に言わせればな、さすがにプランク長まで測定できんのとちゃう? 重力の量子効果なんて見えんの?と思うところや。

どうもホーガンさんはある模型でこのへん計算してみたようなんよ。それで意外といけるのとちゃうのと。

そんでGIGAZINEさんによると実験してみた結果それっぽいスペクトラムは出て一度喜んだのやけれども、

きちんと検証実験したらダメだったらしいなあ。残念やな。


おっさん素人ブタから間違っとるかもわからんけどこの辺で堪忍な。

この世界シミュレーションではないのですか?

物理屋さんはその辺に興味ないんや・・・

仮に、仮にな? この世界PCの中でシミュレーションだったとするな。

そうすると、物理屋さんはそのコンピュータ言語を黙々と調べて、本物と同じコードを黙々と書くわけや。

物理屋さんの目的あくまでこの世の全てを記述する理論を作る事なんやな。それを誰が書いたかは興味ないんや。

上のはたとえ話やけれど、コンピュータ言語数学に置き換えるとそれっぽい話になるな。

例えば弦理論によるとこの世界11次元であるわけやが、

これはゼータ関数(n=-1)

1 + 2 + 3 +・・・ = -1/12

を使って導いた結果や。こんな調子数学要請から理論が決まっているんよ。

この世の全てを決めているのが数学なら、数学を作ったのは誰か?っつう話やな。

おっさん数学者さんだとおもってるけどね。数学者さんが神や。

でも数学者さんは「俺が作ったのではなく自然にあった物を発見したのだ!おお!なぜ数学はこんなにも物理に役たつのか?!」

などと言い始めることがあるからね。わかんないねおっさん興味ないけど。



ブコメ

ustam: ここは匿名ウンコの話をする場所やで。せめて仮想グルウンコの話でもしてたらどうや? ところで重力距離反比例するのに距離が0でも無限大にならんのなんでや? 数学証明できてないんちゃうん?



妙にタイミングのいい質問やな・・・わかって質問してるやろ。

あん素粒子屋だな? おっさん匂いでわかるで。

実はな、重力の至近距離の振る舞いはよくわかっていないんや。

実験ニュートンの逆2乗則が確かめられているのは r = 1[mm] 程度なんやな。

不思議なのは4つの力の中で重力だけ異常に小さいというところや。

これを説明する模型が「この世界は高次元空間にあって、重力けが次元を伝播する」というやつなんや

ここで図入りでわかりやす説明されとるんでもっと知りたい人はそっち読んでな。

で、この模型検証しているのがLHC やな。マイクロブラックホール実験って聞いた事あるやろうか?

シュタゲ元ネタや。オカリンタイムマシン作っとったがこっちは余剰次元(高次元)の確認や。

ところがな、外国マスコミさんが「LHCブラックホール世界滅亡」と騒いだんやな。

そんですんごいデモが発生したもんで加速器の皆さんみんな大変だったんや。

おっさんからみんなにお願いがあるんやけどな。もしマスコミさんが「マイクロブラックホール」の報道をしていたら余剰次元実験成功したんやなと心の中で置き換えて欲しいんや。別に危ない事してへんからね。

まあ、おっさんLHC 程度じゃまだ見つからんとおもっとるけどね。

あとこの手の模型を作った人の1人が美しすぎる物理屋ことリサ・ランドール な。

おっさん好みのべっぴんさんや。知らない人は画像検索してみるとええで。

feita: 違う。ロースおじさんはまず最初全く関係ないネタ脱線するの。でその後何故か急に博識ぶりを披露しだして、で最後にまた脱線するの。はいわかったらこリズムでもう一度(鬼畜

なん・・・やと・・ 「グーペおじさん」じゃなくて「ロースおじさん」やったんか・・おっさん素で間違ってたわ。


kitayama: 小4が出てこないので、やり直し

すまんな・・・おっさんロースおじさんじゃなかったんや。グーペおじさんや。かんにんな・・・

Permalink |記事への反応(0) | 21:04

このエントリーをはてなブックマークに追加ツイートシェア

2015-08-24

銀河鉄道の夜

「そうだ。おや、あの河原は月夜だろうか。」

そっちを見ますと、青白く光る銀河の岸に、銀いろのゲージ場が、もうまるでいちめん、局所変換にさらさらさらさら、ゆられてうごいて、波を立てているのでした。

「月夜でないよ。銀河から光るんだよ。」ジョバンニは云いながら、まるではね上りたいくらい愉快になって、足をこつこつ鳴らし、窓から顔を出して、高く高く星めぐりの口笛を吹ふきながら一生けん命延びあがって、その天の川繰り込み群の流れを、見きわめようとしましたが、はじめはどうしてもそれが、はっきりしませんでした。けれどもだんだん気をつけて見ると、そのきれいな水は、ガラスよりもニュートリノよりもすきとおって、ときどき正則化の加減か、ちらちら赤いろのこまかな波をたてたり、紫外発散にぎらっと光ったりしながら、声もなくどんどん流れて行き、野原にはあっちにもこっちにも、燐光の固定点が、うつくしく立っていたのです。遠いものは小さく、近いものは大きく、遠いものは橙や黄いろではっきりし、近いものは青白く少しかすんで、或いは自由場、或いは漸近的自由性、あるいは一次相転移臨界指数の形、さまざまにならんで、野原いっぱい光っているのでした。ジョバンニは、まるでどきどきして、頭をやけに振りました。するとほんとうに、そのきれいな野原中の青や橙や、いろいろかがやく固定点も、てんでに息をつくように、ちらちらゆれたり顫えたりしました。

「ぼくはもう、すっかり天の野原に来た。」ジョバンニは云いました。

Permalink |記事への反応(0) | 14:23

このエントリーをはてなブックマークに追加ツイートシェア

 
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp