
はてなキーワード:微分方程式とは
フェミニズムの分類が多すぎると聞いて
記述集合論(Borel階層, Projective階層, 汎加法族)
モデル理論(型空間, o-極小, NIP, ステーブル理論)
再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)
構成主義,直観主義,ユニバース問題,ホモトピー型理論(HoTT)
体論・ガロア理論
表現論
K-理論
初等数論(合同, 既約性判定,二次剰余)
解析数論(ゼータ/ L-関数,素数定理,サークル法, 篩法)
p進数論(p進解析, Iwasawa理論, Hodge–Tate)
超越論(リンドマン–ヴァイエルシュトラス, ベーカー理論)
実解析
多変数(Hartogs現象, 凸性, severalcomplex variables)
関数解析
バナッハ/ヒルベルト空間,スペクトル理論, C*代数, von Neumann代数
フーリエ解析,Littlewood–Paley理論, 擬微分作用素
確率解析
常微分方程式(ODE)
偏微分方程式(PDE)
非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)
幾何解析
リッチ流, 平均曲率流,ヤン–ミルズ,モノポール・インスタントン
エルゴード理論(Birkhoff, Pesin),カオス, シンボリック力学
点集合位相,ホモトピー・ホモロジー, 基本群,スペクトル系列
4次元トポロジー(Donaldson/Seiberg–Witten理論)
複素/ケーラー幾何(Calabi–Yau, Hodge理論)
スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間
多面体, Helly/Carathéodory,幾何的極値問題
ランダムグラフ/確率的方法(Erdős–Rényi, nibble法)
加法的組合せ論(Freiman, サムセット, Gowersノルム)
彩色,マッチング,マイナー理論(Robertson–Seymour)
列・順序・格子(部分順序集合, モビウス反転)
測度確率, 極限定理, Lévy過程, Markov過程, 大偏差
統計学
ノンパラメトリック(カーネル法, スプライン,ブーストラップ)
時系列(ARIMA,状態空間, Kalman/粒子フィルタ)
非凸最適化
離散最適化
整数計画,ネットワークフロー, マトロイド, 近似アルゴリズム
Littleの法則, 重み付き遅延, M/M/1, Jackson網
エントロピー,符号化(誤り訂正, LDPC,Polar), レート歪み
公開鍵(RSA,楕円曲線, LWE/格子),証明可能安全性,MPC/ゼロ知識
計算複雑性
機械学習の数理
量子場の数理
相転移, くりこみ, Ising/Potts, 大偏差
数理生物学
数理神経科学
データ解析
3次元のサイクルの群(3 本立ての「輪ゴム」みたいなもの)に、基底を 4 つ用意する(鏡クインティックでは、周期積分の都合で 4 本の独立成分を見るのが標準的)。
これらに対応して、4つの周期関数(各サイクルに対するホロノミーのようなもの)がある。位置(=モジュライ空間の点)を動かすと、この4成分ベクトルが解析接続でグルグル混ざる。
右左で 2 つずつある超対称荷重は、(c,c) と (a,c) の2つのリング(演算ができる「カード束」)を生む。
物理の実体:タイプ IIB なら (c,c) 側が「複素構造のゆらぎ」を担う質量ゼロのスカラー場の多重体になり、タイプ IIA なら (a,c) 側が「サイズや形(カヘラー構造)」のゆらぎを担う。
つまり「世界面の演算で作ったカード束」と「多様体の引き出し(ホモロジー/コホモロジーの基底)」が、1 対 1 でラベリングし合う。
10次元→4次元にただ潰すのではなく、内部 6次元の洞(サイクル)の数・組合せを、4次元の場(ベクトル多重体やハイパー多重体)の数に移し替える。
机に喩えると:内部空間の引き出し(サイクル)が 4次元側のつまみ(ゲージ場やスカラ場)の数を決める。引き出しの数や入れ替え(同値変形)が物理の自由度の型を縛る。
さらに、D ブレーン(弦の端点がくっつく膜)の種類と積み重ね方は、ホモロジー群や K理論の元、より精密には派生圏の対象としてカタログ化される。これが後の「圏の自己同型」と噛み合う。
2. コニフォールド点(どこかでS³ がしぼんで消える。そこに巻き付いたブレーンが「超軽い粒子」になる)
3. Gepner/Landau–Ginzburg 点(右端の対称性が濃い領域)
それぞれの周りで、上の4 成分の周期ベクトルに対して、行列で表される混ぜ合わせ(モノドロミー)が掛かる。
コニフォールドでは、1 個の 3-サイクルが消えるため、それに伴うピカール=ルフェシェッツ型の写像が起き、周期ベクトルの1 列が他を足し上げる形で変わる(行列はほぼ単位行列で、1 行に 1 が足されるような単冪的挙動)。
大複素構造点の周りでは、「無限遠の反復」に相当する別種の行列が出る。
実験的に何をするか:一点から出発して数値的に周期を解析接続し、各特異点を一周して戻る。戻ってきた周期ベクトルが、元のベクトルにどんな行列が掛かったかを記録する。これがモノドロミー行列群。
ふつうは鏡対称のピカード–フックス方程式や(プレポテンシャルの)級数で扱うけど、君の問いは「鏡の装置を超える」方法。
1.tt*幾何(世界面 N=2 の基底選びに依らない量子地図)を導入し、基底のつなぎ目に出る接続+計量を測る。
2. 等角変形を保つ2d QFT の等時的変形(isomonodromy)として、特異点位置を動かしてもモノドロミーは保つ流儀に書き換える。
3. その結果、量子補正の非摂動成分(例えば D ブレーン瞬間子の寄与)が、ストークスデータ(どの方向から近づくかでジャンプする情報)としてモノドロミーの外側にぶら下がる形で整理できる。
4. 実務では、ブリッジランド安定条件を使って、安定なブレーンのスペクトルが特異点近傍でどこで入れ替わるか(壁越え)を地図化。壁を跨ぐとBPS状態の数が飛ぶ。これが 4次元の量子補正の影。
圏側:派生圏の自己同型(Fourier–Mukai 変換、テンソルでのねじり、シフト)
を対応させる(例:コニフォールドのモノドロミー ↔ セイデル=トーマスの球対象に対するねじり)。
特異点ごとの局所群(各点のループで得る小さな行列群)を、圏側では局所自動同型の生成元に割り当てる。
複数の特異点をまたぐ合成ループを、圏側では自己同型の合成として言語化し、関係式(「この順番で回ると単位になる」等)を2-圏的に上げる。
壁越えで現れるBPSスペクトルの再配列は、圏側では安定度の回転+単正変換として実現。これにより、行列表現では見切れない非可換的な記憶(どの順で通ったか)を、自己同型のブレイド群的関係として保持できる。
こうして、単なる「基底に作用する行列」から、対象(ブレーン)そのものを並べ替える機構へと持ち上げる。行列で潰れてしまう情報(可換化の副作用)を、圏のレベルで温存するわけだ。
1.モデル選定:鏡クインティック、もしくは h^{1,1}=1の別 3次元 CY を採用(単一モジュライで見通しが良い)。
2. 周期の数値接続:基点をLCS 近くに取り、コニフォールド・Gepner を囲む3 種の基本ループで周期を運ぶ。4×4 の行列を 3 つ得る。
3. 圏側の生成元を同定:コニフォールド用の球ねじり、LCS 用のテンサーby直線束+シフト、Gepner 用の位相的オートエクイバレンスを列挙。
4.関係式を照合:得た 3つの自己同型が満たす組み合わせ恒等式(例えば「ABC が単位」など)を、モノドロミー行列の積関係と突き合わせる。
5. 壁越えデータでの微修正:ブリッジランド安定度を実装し、どの領域でどの対象が安定かを色分け。壁を跨ぐ経路で自己同型の順序効果が変わることをBPS 跳びで確認。
6. 非摂動補正の抽出:等長変形の微分方程式(isomonodromy)のストークス行列を数値で推定し、これが圏側の追加自己同型(例えば複合ねじり)として実装可能かを試す。
7.普遍性チェック:別 CY(例:K3×T² 型の退化を含むもの)でも同じ字義が立つか比較。
特異点巡回で得る行列の群は、派生圏の自己同型の生成元と関係式に持ち上がり、壁越え・BPS 跳び・ストークスデータまで含めると、鏡対称の外にある量子補正も自己同型の拡大群として帳尻が合う見通しが立つ。
これに成功すれば、物理の自由度→幾何の位相→圏の力学という 3 層の辞書が、特異点近傍でも失効しないことを示せる。
Q. コニフォールド点を一周することで本質的に起きることを、もっとも具体に言い表しているのはどれ?
A) すべての周期が一様にゼロへ縮む
B) ある 3-サイクルが消え、それに沿った足し込み型の混合が周期に起きる
6年前に地方の機械科を卒業した。地元の進学校に落ちたのと仲良い友達が行くから高専に入った
大学と高校が合わさった画期的な学校という説明をよく見るが、実情は底辺大学の工学部と同じだと思う。優秀なやつは旧帝に編入してトップ層と張り合ったりするし、ダメなやつは学んだことを何も覚えてないまま就職(ないしは退学)したりする。どっちも極端な例だが、これらの層が混ざりあってるのが実情(ダメな層が大半)。底辺大学でもこれは変わらないと思う。
学力レベルとして、5年生(大学2年)でもだいたい以下を理解してない(導出ができない・何のためにあるかわからない)のが6割ぐらい。もちろん全部習ったことあるし専門科目の授業でめちゃくちゃ使う。
2.オイラーの公式
3.微分方程式
学校はあくまで個人が学ぶ場であって、周りの質よりは教員の質が大事という意見もあるが、教員の質も差が酷いと感じた。博士課程を取った人しか高専で教員として教えることは出来ないことから、とりあえず博士課程に行った人の受け皿になってるように感じる。もちろん今でも人格的に尊敬している素晴らしい先生もいる。しかし、教えられながら「本当に理解して教えているのだろうか…?」と疑問に思う教員がいるのも事実。
普通に高校に行って、大学、大学院に進む人間との情報格差が酷すぎる。高専生は大企業に簡単に入ることが出来る、と宣っているが総合職と技能職の説明をろくにされた覚えがない。もちろん入る直前には扱いが違うことを知ると思うが、進学か就職かを決めなければならないタイミングでこの事実を学校から教えて貰った記憶は無い。もう勉強したくないから就職する自分より優秀な同期もいた。地方の進学校に進めば少なくともMARCH程度は行けていたであろう同期がだ。総合職と技能職でつける仕事、給料に差があるとは知らなかった。
近年、フェイク情報の拡散は社会的な課題として深刻化している。
個人が情報の真偽を判断する際に数学理論を活用する可能性について、動的システム理論、疫学モデル、統計的検定理論、機械学習の観点から体系的に分析する。
arXivや教育機関の研究成果に基づき、個人レベルの判断を支援する数学的フレームワークの可能性と限界を明らかにする。
ディスインフォメーション拡散を非線形動的システムとしてモデル化する研究[1]によれば、従来の臨界点(ティッピングポイント)を超えるだけでなく、変化速度そのものがシステムの不安定化を引き起こす「R-tipping」現象が確認されている。
個人の認知システムを微分方程式で表現した場合、情報の曝露速度が一定の閾値を超えると、真偽の判断能力が急激に低下する可能性が示唆される。
このモデルでは、個人の認知状態を3次元相空間で表現し、外部からの情報入力速度が臨界値r_cを超えると安定均衡が消失する。
具体的には、認知負荷関数Φ(t)が時間微分に関して非線形な振る舞いを示す場合、漸近的に安定な平衡点が突然不安定化する分岐が発生する[1]。
個人の情報処理速度と認知リソースの関係を定量化することで、フェイク情報に曝された際の判断力低下を予測できる。
IPSモデル(Ignorant-Prebunked-Spreader-Stifler)[2]は、個人の情報受容状態を4つのコンパートメントに分類する。
基本再生産数R₀の概念を拡張したこのモデルでは、プレバンキング(事前の誤情報免疫教育)が個人の感染率βに与える影響を微分方程式で記述する。
dP/dt = Λ - (βI + μ)P - ηP
プレバンキング効果ηが増加すると、平衡点における感染者数I*が指数関数的に減少することが数値シミュレーションで確認されている[2]。
特に、プレバンキングの半減期を考慮した忘却率δを組み込むことで、免疫持続期間の最適化問題が定式化可能となる。
正規分布N(0,I_n)に従う真データXに対し、敵対者がrtを加えて生成するフェイクデータX+rtの検出可能性についての研究[3]では、検出力の情報理論的限界が明らかにされている。
検定統計量T(x) = min_{t∈T} ||x -rt||² を用いた場合、検出可能半径r_dはガウス幅w(T)に比例する。
r_d ≈ 2w(T)/√n
この結果は、高次元空間において敵対者が特定の戦略(符号反転など)を採用すると、検出力が急激に低下することを示す[3]。
特に、対称性の高い攻撃セットTに対しては、個人レベルの単純な統計検定では50%以上の誤判別率を免れないことが証明されている。
多数決投票法を採用したフェイクニュース検出システム[5]の理論的解析から、k個の弱分類器の誤り率εが独立と仮定した場合、多数決の誤り率ε_majは以下のように表される:
ε_maj = Σ_{i=⌈k/2⌉}^k C(k,i)ε^i(1-ε)^{k-i}
この式に基づき、96.38%の精度を達成した実験結果[5]は、ベイズ誤り率の下限を考慮した場合、特徴空間の次元縮約が最適投票重みの決定に重要であることを示唆する。
特にTF-IDF特徴量と深層学習モデルの組み合わせが、非線形分離可能なケースで有効であることが確認されている。
Scale-Freeネットワークを想定した拡散シミュレーション[6]では、個人の接続数kに依存する感染率β(k)が次のようにモデル化される:
β(k) = β₀k^α
モンテカルロシミュレーションにより、α> 1でスーパースプレッダーの存在が拡散速度を指数関数的に増加させることが確認されている。
個人のネットワーク中心性指標(媒介中心性、固有ベクトル中心性)を監視することで、高危険ノードの早期特定が可能となる。
個人の事前信念p(h)をベータ分布Be(α,β)で表現し、新規情報xを受信した後の事後分布を:
p(h|x) ∝ L(x|h)p(h)
ここで尤度関数L(x|h)をフェイク情報検出アルゴリズムの出力確率とする。
確認バイアスをモデル化するため、反証情報の重みを減衰係数γで調整する:
L(x|¬h) → γL(x|¬h) (0 < γ < 1)
この枠組みにより、個人の信念更新プロセスを定量的に追跡可能となり、認知バイアスが誤情報受容に及ぼす影響をシミュレーションできる[4]。
フェイク情報検出の数学理論は、動的システム理論の安定性解析から始まり、疫学モデルによる介入効果の定量化、統計的検定の根本的限界の認識、機械学習の最適化理論まで多岐にわたる。
個人レベルでの実用的応用には、これらの理論を統合した複合モデルの構築が不可欠である。
特に、認知科学と情報理論の接点となる新しい数理フレームワークの開発が今後の課題となる。
プレバンキングの最適タイミング決定や、パーソナライズされたリスク評価アルゴリズムの開発において、微分ゲーム理論や強化学習の応用が有望な方向性として考えられる。
Citations:
[1]https://arxiv.org/abs/2401.05078
[2]https://arxiv.org/html/2502.12740v1
[3]https://www.math.uci.edu/~rvershyn/papers/mpv-can-we-spot-a-fake.pdf
[4]https://scholarworks.sjsu.edu/cgi/viewcontent.cgi?article=2405&context=faculty_rsca
[5]https://arxiv.org/pdf/2203.09936.pdf
こんなプロンプトでDeepResearchがどんなレポートを出せるか試せますか?
あと、聞き返されたら
「欧米、中国、日本を中心に。余裕があればG12やその他必要だと思える国や地域も含む。国や地域を明記せよ」、「余裕があれば貨幣、法律、民主主義、ガラス、鉄、火薬、アルミニウム、アンモニア、プラスチックなどのレベルの発明も含めよ。国や地域を明記せよ」
とか返してみて下さい。これ以外の文脈で聞き返されたら「おまかせします」か元増田様の興味の範囲で好みにアレンジして下さい。
#技術動向調査要請プロンプト(2025-2027年フォーカス)
以下の要件を厳密に満たす調査分析を実施せよ。各項目の出力形式を厳守し、客観的根拠に基づく定量的評価を優先すること。
## [【分析要件】](pplx://action/followup)
-実用化時期:2025-2027年に商用化/社会実装が見込まれる
- 影響規模:全球GDPの0.5%以上に影響または10億人以上の生活に波及
R = \frac{(P_t \times 0.3) + (F_c \times 0.4) + (M_r \times 0.3)}{10} \times100(%)
3. 影響評価軸:
## [【出力形式】](pplx://action/followup)
### [個別技術分析テンプレート](pplx://action/followup)
| 分野 | 指標 | 2025 | 2026 | 2027 |
| ------ | ------ | ------ | ------ | ------ |
| 経済 | 生産性向上率 | 3.2% | 5.1% | 7.8% |
| 社会 | 代替労働力率 | 12% | 18% | 25% |
| 技術 | 故障間隔時間 | 400h | 1200h | 3000h |
### [歴史的変遷分析要請](pplx://action/followup)
T_{evolution} = \sum_{n=1}^{5} \frac{I_{tech}}{S_{society}}
| 時代 | 期間 | 核心技術 | 文明影響度 |
| ------ | ------ | ---------- | ------------ |
| 農業革命 | BC10,000 | 灌漑技術 | 定住社会形成 |
| 産業革命 | 1760-1840 | 蒸気機関 | 都市化加速 |
| デジタル革命 | 1947-2000 | トランジスタ | 情報民主化 |
| AI融合期 | 2020- | 神経形態チップ | 意思決定分散化 |
2023年、生成AIを搭載した検索エンジンの登場は世界に衝撃を与えた。米国政府が国家戦略として掲げるAI開発競争は、技術的優位性の確保と経済的リターンの獲得という二重の課題に直面している。OpenAIのGPT-4が示した驚異的な言語理解能力は、軍事技術から医療診断まで幅広い応用可能性を予感させた。しかし、黎明期の熱狂が冷めつつある今、業界関係者の間で囁かれる疑問は「この技術は本当に金を生むのか」という現実的な問いへと移行している。
米国政府は2021年度AI研究開発予算を32億ドルに設定し、国防高等研究計画局(DARPA)主導で軍事転用可能なAI技術の開発を加速している。量子コンピューティングとの融合や、半導体製造技術の国内回帰(CHIPS法)など、ハードウェア面での基盤整備に注力する姿勢は鮮明だ。特にNVIDIAのGPU需要は国防契約と連動し、同社の株価は過去5年で1,200%超の上昇を記録している。
大手テック企業の動向は矛盾に満ちている。MicrosoftはOpenAIに130億ドルを投資しながら、実際のAzureAIサービス収益は予測の60%を下回る。GoogleのBard統合検索では広告収入モデルの再構築に苦慮し、AmazonのBedrockプラットフォームはAWS顧客の3%未満しか採用していない。生成AIのコスト構造が明らかになるにつれ、1クエリ当たり0.006ドルという処理費用が収益化の壁として立ちはだかっている。
ChatGPTの月間アクティブユーザー数が18億を突破する中、OpenAIの年間損失額は5.4億ドルに達する。主要収入源であるAPI利用では、企業顧客の80%がプロトタイプ段階で開発を中止している現実がある。Microsoft 365 Copilotの事例が示すように、生産性向上ツールとしての価値認知と実際の支払意思の間には深い溝が存在する。ある調査では、Copilotユーザーの67%が「月30ドル以上の価値を感じない」と回答している。
AIチップ需要の過熱が生んだ半導体バブルは特筆すべき現象だ。NVIDIAの時価総額が2023年に1兆ドルを突破した背景には、H100GPUの価格が製造原価の800%を超える事実がある。TSMCの3nmプロセス需要の70%がAI関連に集中する異常事態は、半導体産業全体のリソース配分を歪めている。しかし、Cerebras Systemsの新型WaferScaleEngineが示すように、ハードウェアの進化速度がソフトウェアの最適化を上回る逆転現象が発生しつつある。
中国のDeepseek-R1がGPT-4の性能を1/10のコストで実現した事実は、業界の常識を根本から覆した。同モデルが採用した「動的ニューロン活性化」アルゴリズムは、不要なパラメータ計算を85%削減する画期的な手法だ。これにより、従来1回の推論に要した0.2kWhの電力を0.03kWhまで圧縮することに成功している。Deepseekの事例が証明したのは、計算資源の多寡が必ずしも性能優位を保証しないという逆説である。
Llama 3やMistralの進化が加速する中、独自モデルを保持する企業の競争優位性は急速に失われつつある。Hugging Faceのプラットフォームでは、1週間ごとに新しいLLMアーキテクチャが発表され、ファインチューニングの自動化ツールが普及している。特に中国発のモデルがGitHubで急増する傾向は顕著で、2024年上半期だけで3,200件の新規リポジトリが登録された。この状況は、初期投資の回収を前提としたビジネスモデルの存続自体を危うくしている。
国際数学オリンピック(IMO)の過去10年間で、中国チームが9回の優勝を達成している事実は軽視できない。特に2023年の北京大会では、金メダル6個中5個を中国国籍の学生が独占した。米国チームの実態を見ると、参加者の62%が中国系移民の子弟で構成されており、本質的な人材育成力の差が浮き彫りになっている。DeepMindの元チーフサイエンティフが指摘するように、「Transformerアーキテクチャの革新には組合せ最適化の深い理解が不可欠」であり、この領域で中国の研究者が圧倒的な論文数を誇っている。
清華大学のAI特別クラスでは、学生が高校時代からGANsや強化学習の数学的基礎を学ぶカリキュラムを採用している。これに対し、MITのコンピューターサイエンス学部では、学部2年次まで微分方程式の必修科目が存在しない。教育省の統計によれば、中国のトップ30大学でAI関連専攻を選択する学生の数は、米国アイビーリーグの3倍に達する。人的資本の蓄積速度の差が、5年後の技術格差に直結する可能性が高い。
LLM市場が直面する最大のリスクは、電気自動車用バッテリーや太陽光パネルと同じ道を辿る可能性だ。BloombergNEFの予測によれば、2027年までにLLMの性能差が実用レベルで感知できなくなり、1トークン当たりのコストが現在の1/100にまで低下する。この状況下では、MicrosoftのCopilotのような高額サブスクリプション・モデルの持続性が疑問視される。逆に、LINEやWhatsAppのようなメッセージングアプリへの基本機能組み込みが主流となるシナリオが有力視されている。
AI技術の民主化が進むほど、国家間の競争はハードウェア規制やデータ主権を巡る争いに移行する。米商務省が2024年に発動したAIチップ輸出規制は、中東諸国向けのGPU販売を34%減少させた。一方、中国が推進する「東数西算」プロジェクトでは、内陸部に分散したデータセンター群が国家標準モデルの訓練基盤として機能し始めている。技術優位性よりも、地政学的な影響力が市場を支配する時代が到来しようとしている。
現状のAIバブルがはじけるトリガーは複数存在する。第一に、2025年をメドに予想される「生成AI特許訴訟の多発」が挙げられる。Getty ImagesがStabilityAIを提訴した事例のように、著作権問題が技術普及の足かせとなる可能性が高い。第二に、エネルギーコストの急騰だ。アイルランドのデータセンター群ですでに発生しているように、LLM運用に必要な電力需要が地域の送電網の容量を超えつつある。
最も深刻なシナリオは「技術進化の減速」である。Transformerアーキテクチャ以降、根本的なブレイクスルーが10年間発生していない事実は看過できない。物理学者の間では、現在のニューラルネットワークがチューリング完全性の限界に近づいているとの指摘もある。もし2020年代後半までに新しいパラダイムが登場しなければ、数千億ドル規模の投資が不良債権化する危機が現実のものとなる。
米国AI戦略の行方は、単なる経済競争を超えた文明史的挑戦と言える。Deepseekが示したように、技術優位性は絶対的なものではなく、常に相対的な優劣でしかない。重要なのは、AIが生み出す付加価値の本質を見極めることだ。仮に生成AIが期待通りの経済効果を生まなくとも、その研究過程で得られた副産物(分散学習アルゴリズムや省電力チップ設計技術など)が次の技術革命の種となる可能性がある。
最終的に問われるのは、短期的な株価維持ではなく、長期的な技術蓄積をいかに持続可能な形で進化させるかという課題である。中国の人的資本戦略と米国の投資戦略が衝突する中で、第三極としての欧州連合(AI法案)やインド(デジタル公共財戦略)の動向が新たな可能性を開くかもしれない。AI開発競争は、国家の命運をかけた「静かなる戦争」として、これからさらに激化していくであろう。
数学というのは草むらをかき分けたらダンゴムシがいるかのように、我々の今暮らしている世界をつきつめるとおのずと数学が現れるみたいなことだと思っていた。
だから数学の問題を解くときに現実の世界から発見を得るかのように頑張って解いていた。それで微分方程式で完璧に進めなくなった。
あれって「この式はこの解き方で解けそうだからあてはめてやってみて解けたらそのままいくけどそうじゃないなら撤退して別の解き方を当てはめて~」みたいなやりかたするじゃん。納得がいかなかった。
違うんだよなー。数学をそれは誤解してんだよなー。
数学はカードゲーム発明して遊ぶようなもんなんだ。まず1種類のルール作ってみて、そっからすごくプレイが発展させられるのおもしろい、みてみて1ターンキルコンボできた!みたいなやつなんだ。
そこでだよ、ゼロで割るの大抵の数学で「やっちゃいけない」とか「定義しない」とかする。
なんでかっていうとそれ許すと何もかもつまんない発展しかさせられないルールにしかなんないんだよね。
つまり18÷0がゼロですって教えた先生は「せんせー、じゃあそうすると1+1は2でありつつもゼロでもあることにできます!」みたいな証明を持ち込まれてキレない度量持ってないといけないんだよ。
それともわざとやってるの?↓
微分方程式の重ね合わせの原理と物理の波動分野に出てくる重ね合わせの原理は何か関連があるんですか
というより、波動で起こる重ね合わせの原理による現象を定式化したとき、微分方程式の重ね合わせの原理の形が出てくるのかなと勝手に思ってるんですが。調べても出てこないので…
微分方程式は原理ではなく、重ね合わせができる線形微分方程式とそうではない方程式があります。方程式の性格による区別です。
波の場合は記述する波動方程式が線形なら重ね合わせができるのは原理でも何でもなく必然ですが、波動方程式が具体的に与えられていない段階でも波なら重ね合わせが成立する、と考えるのが波動の重ね合わせの原理です。
ちなみにですが、誰も微分方程式が原理だなとと言ってはいません。
「微分方程式の重ね合わせの原理と~」と書くと、そう読む人もいるということなのでしょうか…
かといって「微分方程式の、重ね合わせの原理と~」って書くのはあまりにも露骨で逆に読み手の読解力を疑ってバカにしてるように見えませんかね。
インターネットがつまらなくなった、と言う人がちらほらいることに気がついている人もいるかもしれない。皮肉を言いたがる鬱陶しい人は、すぐに「それはお前がつまらなくなったからだ」と言うが、それは物事のほんの一つの側面でしかない。
長文を読むことが苦手な人のために、結論から述べようと思う。インターネットがつまらないのは、人々がタイパと刺激を求めた結果である。限りある人生を有効に使いたい。ここまではよかったはずだ。だが世の中を見渡せば、「簡単に理解できるコンテンツ」「刺激的なコンテンツ」「感情を煽るコンテンツ」で溢れている。マスターベーションを覚えた猿が繰り返すように、インターネットから刺激性を学習した猿は狂ったようにスクロールする。
私がソフトウェアのブログを書いていた時、あることに気がついた。難解でユニークなアルゴリズムを公開するよりも、「○○のインストール方法」といった初心者的コンテンツのほうがアクセスが多いのである。何かをインストールする方法など、ドキュメントを見れば一発でわかるのに、ブログにアクセスしてくる。いや、検索エンジンがドキュメントではなく私のブログをTopに誘導するのがそもそもおかしいだろう。悲しいことに、ドキュメントをちゃんと読める人が少数派であり、平易な言葉で書かれたブログの方を好む人が多いということだ。
個人的価値観を述べれば、インターネットに私が求めるのは「深遠」である。ゲーム理論と確率微分方程式を組み合わせたらどうなるのかとか、プラグマティズムをソフトウェア工学に適用するAndy Huntの最新の哲学的考察を知りたいとか、そういうことだ。
深淵の理解には時間がかかる。タイパと刺激の発想とは逆だ。一見退屈に見える無刺激な長文を、ゆっくりと地道に隅々まで理解しなければならない。深淵は真面目でストイックで、人生を共に歩むように接する。コンテンツを書いた人間を個人として尊重し、友達と語り合うような気分で読み解くのである。
「コンテンツは見て射精して賢者タイム。それで終わり」というのが現代人がやっていることだ。インターネットは元々学術的な(つまり深淵的な)情報交換のために作られたが、今では娯楽(つまりオナニー)が大半を占めている。そういう消費者に合わせて作られたものは、簡単に理解できて、極端で、やたらに感情を煽りたがる。コンテンツだけではなく、検索エンジンや推薦システムなどありとあらゆるものが、刺激性の猿回しになっている。
逆説的だが、今のインターネットが面白いと思っている人間がつまらないのである。猿がオナニーして、それが楽しいというのなら文化的ではないだろう。インターネットがつまらなくなったという人は、意識的に努力しなければ深淵にたどり着くことが難しくなったことを嘆いているかもしれない。私が高校生の時は、「ハッカーになる方法」と調べたとき、Eric S. Raymondの深淵的文章がトップに出てきたのだ。現代では、なぜかコンピュータセキュリティについてトップに出てきて、まさに中二病患者が求めるものをそのまま出してきていると言える。
といっても、いきなりarxivを読むのも、またそれはそれで時間がかかりすぎてしまうこともある。具体的数式ではなく、個人の持つ哲学を知りたいと思うこともあるかもしれない。哲学にも概ね2種類あり、本質を平易に説明するものと、無意味なものを難解に説明するものだ。後者はポストモダニズム的で忌み嫌われる。
ポストモダニズムに陥ることなく、本質的深淵にたどり着くためにはどうすればよいのか。検索エンジンだけでは、そのコンテンツが深遠なのか浅知恵なのか区別する能力に欠けている。おそらく、我々が本当に必要としているのは「ブックマーク」であり、場当たり的な検索ではないのかもしれない。本質的な深淵を語る人をブックマークし、その人の哲学を友人のように尊重したいのだ。大量の刺激的情報を消費してオナニーするよりは、少数の人の長文に触れたほうが充実するに違いない。
俺は気象予報士試験は一般は通って専門は15問中一問分ボーダーに届かなくて落ちた経験がある人間だが、そんな人間が気象大学校の学生が教材として使ってる気象庁ホームページで公開されてるテキストの理解を試みてみたところ、さっぱり分からないという始末になった。
https://www.jma.go.jp/jma/kishou/know/expert/pdf/textbook_meso_v2.1.pdf
これの14ページ(資料下に印字されてるページ番号としては8ページ)なのだが
dVc/dt=αVsという式が成り立ってて、この式は気圧傾度力が考慮されてるとも書いてあるが、まず一体どういう力の作用の構図を想定してるのかが分からない。
左辺はただの時間変化を微分として表現したもので、右辺もまた中層風と下層風の単なる速度差だから、これが気圧傾度力が考慮されてる式だとしたら、αの一文字が気圧傾度力を表してるって自動的に解釈されるというか、それ以外に解釈の余地が見当たらない。
一方、傾度風や地衡風について立式するとき速度(ベクトル)にコリオリパラメータを掛けそれに気圧傾度力(と遠心力)を足し引きしたような方程式になるわけで、そうなる理由も予報士試験の参考書に力の作用関係の図示付きで書いてあったし理解してるつもりなのだが、だからこそなぜベクトルに「掛けてる」のが気圧傾度力でそれが速度の時間変化に等しくなるのか全くぴんと来ない。
そもそも左辺が速度の微分なのに右辺も速度の定数倍になってるのも理解が追いつかない。なぜ加速度でないのか?
Vc=aVl+bVmについて大気の密度が小さくなると速度が大きくなるのでa+b>1となるとも書いてるが速度が大きくなることからどうその不等式が成立することが導かれるのかもわからない。もっといえばなぜ密度が小さくなると速度が大きくなるのか…ときりがない。
おそらくこちらにとっては天下り式で説明が足りてないように見えるテキストも、気象大学校に入れる学生から見ればあれだけの情報から私が分からないと言った理由も十分読み取れるのだろう。
それはなんというか、少なくとも高校までの履修内容の理解の完成度が全く質的に違うことがこのような差をもたらしてるんだと思う。
たとえば逆に俺でも先に成立する理由が分からないと言った微分方程式が正しいことを前提としてなら、その下に書かれているのがそれを解いた式であることは納得できる。俺でも高校のうちに初歩的な変数分離法は身に付けてるからだが、人によっては同じ理系でも化学系の学部に入る人とかで大学入試を終えた直後の段階で大学レベルの教養数学を学んだ経験が皆無な状態だとただの変数分離で解かれた式にすらぴんと来ないってことはあるかもしれない。
そして気象大学校に入る人たちはこんなのよりもさらに奥深くまで見通しよく高校までの内容を理解してるのだろう。うまいたとえかわからないが、数学の白黄チャートしかやってこなかった人間が赤チャートを見たら同じ単元でも全く別物の内容を学んでいるんじゃないかってぐらいのものに感じるような感じだろうか。気象大学校の入学者も高校段階の知識でもはや私とは全く異なるような理解を持っているのだと思う。彼らから見れば私が分からないと言ってることは変数分離が分からないことが不思議になるぐらい当たり前のことなのだろう。
ただ5chの気象予報士試験対策スレで質問しても、独学で合格したけどここで聞くより予備校で聞いた方がいいぐらいさっぱり分からないと言われた。
気象予報士だって合格したら割と誇れる資格なのにそういう人でもさっぱり分からないって、もう気象大学校の学生は私や予報士とは住む世界が違うような頭の良さを持ってるんだと思う。
そういう人たちでやっと気象災害の対策に責任持てる仕事をする資格が持てるんだなーとある種納得と途方のない挫折感。
地震が起こると毎度同程度の地震が数週間起こる可能性があるとか同じようなこと言ってるなあろか馬鹿のしてる場合じゃなかった。