
はてなキーワード:スカラーとは
3次元のサイクルの群(3 本立ての「輪ゴム」みたいなもの)に、基底を 4 つ用意する(鏡クインティックでは、周期積分の都合で 4 本の独立成分を見るのが標準的)。
これらに対応して、4つの周期関数(各サイクルに対するホロノミーのようなもの)がある。位置(=モジュライ空間の点)を動かすと、この4成分ベクトルが解析接続でグルグル混ざる。
右左で 2 つずつある超対称荷重は、(c,c) と (a,c) の2つのリング(演算ができる「カード束」)を生む。
物理の実体:タイプ IIB なら (c,c) 側が「複素構造のゆらぎ」を担う質量ゼロのスカラー場の多重体になり、タイプ IIA なら (a,c) 側が「サイズや形(カヘラー構造)」のゆらぎを担う。
つまり「世界面の演算で作ったカード束」と「多様体の引き出し(ホモロジー/コホモロジーの基底)」が、1 対 1 でラベリングし合う。
10次元→4次元にただ潰すのではなく、内部 6次元の洞(サイクル)の数・組合せを、4次元の場(ベクトル多重体やハイパー多重体)の数に移し替える。
机に喩えると:内部空間の引き出し(サイクル)が 4次元側のつまみ(ゲージ場やスカラ場)の数を決める。引き出しの数や入れ替え(同値変形)が物理の自由度の型を縛る。
さらに、D ブレーン(弦の端点がくっつく膜)の種類と積み重ね方は、ホモロジー群や K理論の元、より精密には派生圏の対象としてカタログ化される。これが後の「圏の自己同型」と噛み合う。
2. コニフォールド点(どこかでS³ がしぼんで消える。そこに巻き付いたブレーンが「超軽い粒子」になる)
3. Gepner/Landau–Ginzburg 点(右端の対称性が濃い領域)
それぞれの周りで、上の4 成分の周期ベクトルに対して、行列で表される混ぜ合わせ(モノドロミー)が掛かる。
コニフォールドでは、1 個の 3-サイクルが消えるため、それに伴うピカール=ルフェシェッツ型の写像が起き、周期ベクトルの1 列が他を足し上げる形で変わる(行列はほぼ単位行列で、1 行に 1 が足されるような単冪的挙動)。
大複素構造点の周りでは、「無限遠の反復」に相当する別種の行列が出る。
実験的に何をするか:一点から出発して数値的に周期を解析接続し、各特異点を一周して戻る。戻ってきた周期ベクトルが、元のベクトルにどんな行列が掛かったかを記録する。これがモノドロミー行列群。
ふつうは鏡対称のピカード–フックス方程式や(プレポテンシャルの)級数で扱うけど、君の問いは「鏡の装置を超える」方法。
1.tt*幾何(世界面 N=2 の基底選びに依らない量子地図)を導入し、基底のつなぎ目に出る接続+計量を測る。
2. 等角変形を保つ2d QFT の等時的変形(isomonodromy)として、特異点位置を動かしてもモノドロミーは保つ流儀に書き換える。
3. その結果、量子補正の非摂動成分(例えば D ブレーン瞬間子の寄与)が、ストークスデータ(どの方向から近づくかでジャンプする情報)としてモノドロミーの外側にぶら下がる形で整理できる。
4. 実務では、ブリッジランド安定条件を使って、安定なブレーンのスペクトルが特異点近傍でどこで入れ替わるか(壁越え)を地図化。壁を跨ぐとBPS状態の数が飛ぶ。これが 4次元の量子補正の影。
圏側:派生圏の自己同型(Fourier–Mukai 変換、テンソルでのねじり、シフト)
を対応させる(例:コニフォールドのモノドロミー ↔ セイデル=トーマスの球対象に対するねじり)。
特異点ごとの局所群(各点のループで得る小さな行列群)を、圏側では局所自動同型の生成元に割り当てる。
複数の特異点をまたぐ合成ループを、圏側では自己同型の合成として言語化し、関係式(「この順番で回ると単位になる」等)を2-圏的に上げる。
壁越えで現れるBPSスペクトルの再配列は、圏側では安定度の回転+単正変換として実現。これにより、行列表現では見切れない非可換的な記憶(どの順で通ったか)を、自己同型のブレイド群的関係として保持できる。
こうして、単なる「基底に作用する行列」から、対象(ブレーン)そのものを並べ替える機構へと持ち上げる。行列で潰れてしまう情報(可換化の副作用)を、圏のレベルで温存するわけだ。
1.モデル選定:鏡クインティック、もしくは h^{1,1}=1の別 3次元 CY を採用(単一モジュライで見通しが良い)。
2. 周期の数値接続:基点をLCS 近くに取り、コニフォールド・Gepner を囲む3 種の基本ループで周期を運ぶ。4×4 の行列を 3 つ得る。
3. 圏側の生成元を同定:コニフォールド用の球ねじり、LCS 用のテンサーby直線束+シフト、Gepner 用の位相的オートエクイバレンスを列挙。
4.関係式を照合:得た 3つの自己同型が満たす組み合わせ恒等式(例えば「ABC が単位」など)を、モノドロミー行列の積関係と突き合わせる。
5. 壁越えデータでの微修正:ブリッジランド安定度を実装し、どの領域でどの対象が安定かを色分け。壁を跨ぐ経路で自己同型の順序効果が変わることをBPS 跳びで確認。
6. 非摂動補正の抽出:等長変形の微分方程式(isomonodromy)のストークス行列を数値で推定し、これが圏側の追加自己同型(例えば複合ねじり)として実装可能かを試す。
7.普遍性チェック:別 CY(例:K3×T² 型の退化を含むもの)でも同じ字義が立つか比較。
特異点巡回で得る行列の群は、派生圏の自己同型の生成元と関係式に持ち上がり、壁越え・BPS 跳び・ストークスデータまで含めると、鏡対称の外にある量子補正も自己同型の拡大群として帳尻が合う見通しが立つ。
これに成功すれば、物理の自由度→幾何の位相→圏の力学という 3 層の辞書が、特異点近傍でも失効しないことを示せる。
Q. コニフォールド点を一周することで本質的に起きることを、もっとも具体に言い表しているのはどれ?
A) すべての周期が一様にゼロへ縮む
B) ある 3-サイクルが消え、それに沿った足し込み型の混合が周期に起きる
∔という文字は、数学的な表現で用いられる「直和(ちょくわ)」を表す記号である。
直和とは、2つ以上のベクトル空間の和を表す演算であり、数学や物理学、工学などの分野で幅広く利用されている。
例えば、{a,b}と{c,d}という2つの集合があった場合、これらの直和は{a,b}∔{c,d}と表される。この場合、集合の中身は{a,b,c,d}となる。
また、直和はベクトル空間においても用いられる。ベクトル空間とは、数のスカラー倍とベクトルの和が定義されている空間であり、例えばベクトルaとベクトルbに対して、直和演算を行った場合、a∔bという記号で表される。
この場合、aとbは同じ空間内にあるということになり、それぞれの成分を足し合わせた新しいベクトルが得られる。
例えば、量子力学においては、2つの異なる状態を表すベクトルを直和演算することで新しい状態を表すことができる。
また、相対性理論においては、慣性系と加速度系を直和演算することで、非慣性系の運動を表現することができる。
工学分野でも、直和は利用されている。
例えば、電気回路の複雑な状態を表現するために、直和を用いることがある。
また、制御理論においては、複数の入力・出力系を直和演算することで、複雑なシステムのモデリングが可能となる。
あ────何言ってるかわかんねえよ
JSONと比べたときの**YAMLの「闇深」仕様**、ありますね…。
YAMLは人間に優しいと言われながらも、その仕様はときに**悪魔的**。
以下、ITエンジニアなら一度は踏んだであろう「地雷」を、**論理的かつ少し自虐的に**まとめてみました:
---
good:value:okbad:value: nightmare # ←ここ、インデントずれてて無効。だけど一見わからない。
---
password: no # ←文字列じゃなくてfalse になる可能性serial: 012345 # ← 8進数!?→エラー
---
message: | これは複数行のスカラー値です。
---
defaults: &defaults timeout: 30 retries: 3service: <<: *defaults retries: 5 # 上書きされるが、複雑になると意図しない結果に</pre>
---
---
---
もしYAMLを安全に扱いたいなら、\*\*JSON supersetとしての使い方(厳格YAML)\*\*を意識したり、**JSONに寄せて書く**のが一番平和だったりします。
---
要するに、YAMLは「賢く書こうとすると沼る」。
「素直に、簡潔に、禁欲的に」が正解です。
でも誘惑が多いのよね、あの子……。
厳密な数学の定義に従えば、この値段表は「線形」とは言えません。
数学における「線形関数」や「線形性(linear)」という言葉は、以下のように定義されます:
この場合、たとえばf(x) = 1000x という関数は線形です(線形写像でもある)。
しかし、今回提示された値段表は以下のような 有限個の対応表 にすぎません:
| x | f(x) |
| -- | -- |
| 1 | 1000 |
| 2 | 2000 |
| 3 | 3000 |
| 4 | 4000 |
| 5 | 5000 |
これは単なる 有限個の離散点の列 であり、「関数」として定義されたものではありません。
ましてや連続な実数全体に定義された関数 でもなければ、線形写像 の条件も満たしていません。
数学における厳密な意味で「線形である」とは、実数全体などの連続な定義域において、加法とスカラー倍に関して閉じている写像(あるいは一次関数)であることが必要です。
「重み付けは政治」の主張は、AIやアルゴリズムを設計・運用する立場の人間が見落としがちな「判断の前提」に対する問題提起です。以下に補足的な視点をいくつか挙げます。
重み付けはよく「パラメータ調整」と軽視されがちですが、実際にはどの成果を最も価値あるものと見なすか、つまり「目的関数」そのものを定める行為です。
これは技術的な手法の選択ではなく、「何が善か」「何を優先すべきか」の倫理的・社会的判断を意味します。
たとえば、
これらのトレードオフは明確に「誰にとっての最適か?」という問いを含んでおり、客観的に決定することはできません。
ここでいう「政治」とは政党政治ではなく、利害の調整、価値観の衝突を扱う領域のことです。
アルゴリズムが「中立」だと思われやすいのは、数式やコードに基づいているからですが、その基盤となる「何を良しとするか」は必ず人間の価値観によって規定されます。
現代のAI倫理やガバナンスの議論では、次のような問いが中心になります。
この記事の「重み付けは政治」というフレーズは、まさにこの問題系に直結しています。
数学的には、重み付け問題は「多目的最適化」の一部とみなせます。
どの目的(評価指標)も同時に最大化できない場合、パレート最適解集合が生じます。
このとき「どの点を選ぶか?」は、純粋な数理的最適性ではなく、選択者の価値観の選択になります。
これは「技術的な問題」ではなく「政治的な問題」と表現するのが適切です。
これは機械学習や推薦システムに携わる人だけでなく、「技術が人を判断する」時代の設計者にとっての警鐘です。
「取り柄」とは、特定の環境下で他者よりも相対的に優れた成果を生む属性である。この概念は環境依存性が極めて高く、座標系を変えればその優位性は容易に反転する。例えば、空間を平面から高次元に拡張すれば、ある特定の軸で突出していたベクトルは瞬時に優位性を失う。
従って、取り柄とは「空間に依存する局所的最大値」にすぎない。
これは他者の存在意義を特定の関数で評価し、その関数の極値を持たない個体を低位に分類する操作に他ならない。問題はその評価関数が、要求者によって恣意的に定義される点にある。数学的に言えば、評価関数は外挿的に拡張されたスカラー場であり、領域全体の最適化を目的としない局所解の探索に過ぎない。
この行為は、「外部参照の座標変換を考慮しない座標系依存の最適化問題」という致命的な欠陥を抱えている。
他者に「取り柄」を要求する者は、環境依存の狭義な局所解しか見ていない。これは熱力学第二法則の誤読にも似ている。エントロピー増大の法則が示すように、閉鎖系では秩序は必然的に崩壊する。人間社会も局所的に取り柄の有無で序列化すればするほど、その評価系全体はエントロピーを増し、やがて無意味な均質状態に至る。
「取り柄の強制」とは、系の不可逆的劣化を加速する操作なのである。
加えて、自己保存の観点からも非合理だ。進化論的に見ると、単一の適応形質に依存する集団は環境変化に対して脆弱になる。生態学における「ニッチの多様性」が示す通り、生存戦略は分散化されるほど安定する。取り柄を強制することは、全体の多様性を削ぎ、結果的に集団自滅のリスクを高める。
この意味で、他者に取り柄を要求することは、単なる倫理の問題ではなく、システム論的な愚行である。
「取り柄の有無」は有限の情報量から決定されるが、他者の全属性をスキャンし適正な評価を下すには、膨大な計算リソースが必要になる。現実には計算コストの制約から、人は粗雑なヒューリスティックで判断せざるを得ず、その結果「取り柄の強制」は常に誤差を含む不完全なアルゴリズムとして機能する。この種の雑な評価は、機械学習における過学習(オーバーフィッティング)に類似し、短期的には精度が高く見えても、長期的な汎化性能は著しく低下する。
これらの理由から、非合理であり持続可能性のない戦略であることが論理的に導かれる。倫理以前の問題として、単純に「サイコ」であるという評価は、正確に言えば「システム思考において破綻した設計思想」とまとめることができる。
数列における中間項の特定を暗号学的に実現する方法論は、現代の情報セキュリティ理論と離散数学の融合領域に位置する。
本報告では、数列n, x, n+kの構造分析から始め、暗号学的保証を伴うxの特定手法を体系的に解説する。
特に、一方向性関数の活用からゼロ知識証明に至るまで、多角的な視点で解法を探求する。
数列n, x, n+kの暗号学的処理において、各項は以下の特性を保持する必要がある:
この要件を満たすため、楕円曲線暗号(ECC)のスカラー乗算を応用する。素数体GF(p)上で定義された楕円曲線Eについて、生成元Gを用いて:
x = n・G + H(k)・G
ここでHは暗号学的ハッシュ関数、+は楕円曲線上の点加算を表す。これにより、kを知らない第三者によるxの逆算が離散対数問題の困難性に基づき阻止される。
ポスト量子暗号時代を見据え、Learning With Errors(LWE)問題に基づく方式を導入する。mod q環上で:
x ≡ A・s + e (mod q)
ここでAは公開行列、sは秘密ベクトル、eは小さな誤差ベクトル。nを初期状態、n+kを最終状態とする線形関係を構築し、xの算出にLWEの困難性を利用する。
Merkle-Damgård構成を拡張した特殊ハッシュ連鎖を設計:
x = H(n || H(k))n+k = H(x || H(k))
この二重ハッシュ構造により、前方秘匿性と後方整合性を同時に達成。SHA-3のスポンジ構造を適用し、256ビットセキュリティを保証する。
Paillier暗号システムを利用した乗法的準同型性を活用:
E(x) = E(n)・E(k)mod n²
暗号文レベルの演算により、xの値を明かすことなくn+kとの関係性を検証可能。ゼロ知識証明と組み合わせることで、完全な秘匿性下での検証プロトコルを構築。
1.コミットメント段階:nとkのペダーセンコミットメントC=G^nH^rを生成
4.検証:C・G^{n+k} = G^xH^s
このプロトコルにより、x = n + kの関係を明かすことなくその正当性を証明可能。
これらのパラメータ設定により、NIST SP800-57推奨のセキュリティレベル3(192ビット対称強度)を満たす。
特にMontgomery ladder法を楕円曲線演算に適用し、電力消費パターンを均一化。
これにより、xの生成速度を従来比3倍向上させつつ安全性を維持。
現行のLWEベース方式では、量子コンピュータによるGroverアルゴリズムの影響を試算:
1. 同態暗号による動的数列生成
2. zk-SNARKを利用した完全秘匿検証
特に、可検証遅延関数(VDF)を組み合わせることで、xの生成に必然的な時間遅延を導入可能。
暗号学的数列中間項特定法は、現代暗号理論の粋を集めた高度な技術体系である。
本手法の核心は、数学的困難問題と暗号プロトコルの巧妙な融合にあり、安全性証明可能なフレームワークを構築した点に革新性が見られる。
今後の発展方向として、量子耐性の強化と効率化の両立が重要な研究課題となる。実用面では、ブロックチェーン技術や秘密計算分野への応用が期待される。
https://github.com/MaggieLieu/STAN_tutorials/
ソースコードなどみてる
githubがレンダリングしてくれなくて、ソースをよまされる
勘弁してほしい
Rなんてだれもが使ってるわけじゃない
rho;ρ
alpha; α、こいつらはカーネルがらみのハイパーパラメータだよね
eta;η これはナンジャタウン?サンプリングの効率をあげるためって聞こえたけど・・
次のLなんとかは、コレスキー分解分解行列。それに乗算してるからな
行列×ベクトルだから、スカラーでいうところのノイズの加算に対応するのかもね
こう、効率的に作りたいよねという話
例えばMTG式だと最適な土地の枚数が確率論的に示されている。
さらにMTGから派生したデュエマでは全部に土地の機能つけたらどうなるかが示唆されている。
あとシールドってイケてるよね。ピンチがチャンスになったり、シールド割るタイミングを計らなきゃだったり。
作ったカードゲームのテストとしては機械同士で対戦させて最適な戦略を探るみたいな手法があるんじゃないんですか?AlphaGoみたいな。あれって場面ごとの指標みたいなの出さなくていいんだっけ。
指標の作り方=場面ごとに存在するリソース(手札だのマナだの)を明確にして、各々に重み付けてスカラーにする?
どうせ誰も遊んでくれないからぼくのかんがえた最強のアルゴリズムと汎用AI戦わせて遊ぶか
機械で処理できるような効果テキストとは?(発動タイミング)+発動条件+内容で記述する?発動条件はリソース値を使った比較式になる?内容もリソース値の操作で表現できる?
新カード追加の影響のテスト…前述の機械式。ハースストーンだとマナを指標にバリューをはかってる(ドローは0.5マナみたいな)
当初はGPUとして開発され、事実上開発の失敗からオマケ程度までスケールダウンされたPS3のSPEは今のNVIDIA製GPUの原始的な形そのものだし、
当時すでにGPUは存在したし、GPUを他の目的に使用する行為(GPGPU)も行われていた。機械学習に使われ始めたのは2010年くらいからだと思うけど。
ちなみに、SPEはGPUをスケールダウンしたものではなく、計算に特化したCPUを複数載せようという設計思想なので、今の膨大なコアで行列演算をぶん回す戦場では勝てない。メニーコアCPUはそれはそれで発展する余地はあったと思うけどね。
「ベクトル型とスカラー型のハイブリッド」とはGPUを複数機搭載したサーバーそのもの。つまりきわめて大ざっぱに言えば基本設計は十年以上先のトレンドを正しく捉えている。が、どちらも実際の開発や予算の都合に失敗しているし、NECのベクトル型スパコンなど需要はゼロだった。
日本がハードウェア部門で存在感を示すには、GPUの開発に研究費をぶっ込む必要があったわけだが、GPUのような不真面目な分野には研究費が出なかっただろうな(偏見)
NVIDIAみたいに売れてれば間違いなく勝てた。売れる物を作らない、作った物を売らないから負けた。当時の日本の常として外部要因や部外者、つまり売上と顧客を効率的に排除したから滅んだ。
当初はGPUとして開発され、事実上開発の失敗からオマケ程度までスケールダウンされたPS3のSPEは今のNVIDIA製GPUの原始的な形そのものだし、「ベクトル型とスカラー型のハイブリッド」とはGPUを複数機搭載したサーバーそのもの。つまりきわめて大ざっぱに言えば基本設計は十年以上先のトレンドを正しく捉えている。が、どちらも実際の開発や予算の都合に失敗しているし、NECのベクトル型スパコンなど需要はゼロだった。
いま「時価総額世界ナンバーワン」を標榜しているNVIDIAのスパコンと、NECが当時作っていたスパコンはまったく同じものなのに、00年代末期の日本が作ればそれは「失敗の象徴」にしかならない。そしてそのことを誰も知らない、理解しない。つまり日本の問題はそこにあって、その差について反省ができていない所にある。