
はてなキーワード:パラメータとは
僕は今、いつもの座席に鎮座している。ルームメイトはリビングのソファでパズルゲームを無言で進めており、隣人はサブカル系の配信をしているらしく時折笑い声が廊下を渡ってくる。
友人たちはグループチャットで熱く同人の出来や新連載のガチャ確率について論争している。
僕の一日は厳密に区切られていて、朝は必ず8時に起床、コーヒーの抽出器具を90秒で予熱し、温度は92.3℃±0.2℃に保つという無駄に精細な儀式がある。
靴下は左足から履く。出勤前の15分は必ず抽象数学のノートを眺め、最近は圏論的位相場のホモトピー的反復と超弦モジュライのmeta-圏的安定化について自問している。
これは専門用語の羅列ではなく、僕にとっては手を洗うのと同じくらい生理的な行為であり、その行為を飛ばすと一日が微妙に狂うので飛ばすことはめったにない。
仕事が終わった今も、僕は一日の終わりに形式的整合性を取るためのルーティンを持っている。
具体的には、机上のコップは時計回りに90度ずつ回転させて元の位置に戻す、明かりのスイッチを一回押して3秒待ち、もう一度押すといった小さなチェックポイントを踏む。
これは合理的かどうかを問う人がいるだろうが、僕にとってはエラー訂正符号のようなものだ。失敗を検出すると自動的にその日のメンタル状態のトレースが始まり、友人たちの雑談に混じる気力が萎える。
超弦理論に関して今日述べることは極めて抽象化され、現実の誰が読んでも「それが何を意味するのか」を即座に把握できないように意図している。
僕は最近、モノイド対象としてのストリング世界面の圏を、圏論的対称化子(コクセター的ではなく、もっと抽象的に、位相的量子群の代数的類・モジュライ化)を用いて再定義する実験をしている。
言い換えれば、従来の共形場理論的な世界面パラメータ空間を、非可換ホモトピー論のフィルタ列で再帰的に層化し、その各層におけるファイバーの自己同型群をモナドとして扱うことで、局所的に見える弦状態の同値類を圏的に集約する。
さらに、圏の圏(2-圏)に対する新しい安定化の概念を導入して、通常のK理論的分類とは別の不変量が現れることを示唆する予備的計算結果がある(ここでは具体的数式を列挙しないが、ホモロジーの級数展開における位相的位相因子の再正規化が鍵となる)。
この構成を、最新の抽象数学的モジュール接続概念と結びつけると、我々が従来想定していたスペース-状態対応の双対性が、もっと弱い条件(例えば圏的可換性の高次緩和)で成立する可能性が開ける。
加えて、僕はこの考えをある講義資料やトークの示唆と照らして取り入れており、その資料は概念的な跳躍と直感的な図示を巧みに使っているので、僕の現在の探索にとって非常に有益だった。
僕は「誰も理解できないものを言語化する」ことに快感を覚えるタイプだが、ここで言っているのは自己満足のためではなく、圏的再構成が実際に計算上の省力化をもたらすかを検証するための試行でもある。
ある意味で、これは純粋数学者が夜中に自分だけの公理系をいじるのと同じ行為だが、僕の場合はそれを出社前の歯磨きに組み込んでしまっているので、周囲は迷惑かもしれない。
食事の配列はプレート上の分布エントロピーを最小化する向きで常に配置し、週に一度は手製のスキルツリー表を更新して趣味的投資の累積効用を整数化している。
コミックは最新巻が出ると即座にページごとのフレーム密度と作画のトーンワークを技術的に解析し、特に背景のディテールに含まれるトーンの反復パターン(いわば視覚的フーリエ成分)をスコア化する。
ゲームに関してはガチ勢的態度を崩さず、メタ的な語りを排してシステムのギミック、ドロップ率、レベリング曲線、そして対戦環境のテンプレート化された最適戦略について延々と解析する。
ただしゲームやコミックに対しては「空間」や「力学」といった語はなるべく避け、代わりに「状態遷移図」や「入力遅延とフレーム落ちの統計的扱い」など工学的・計算機的に言語化する。
たとえば今日友人が語っていた新作のギミックについては、その期待効用をELO的な評価尺度でランク付けして論争に勝とうとしたが、連中は「推し」を盾に論理を流してくるので僕はたまに脱力する。
だが脱力する暇は短く、夜の自習時間には再び圏論的比喩に戻り、各行動の符号化を試す。
日常の細部も大事にしている。玄関の鍵は4回回すのが正しいというオカルトじみたルールを持っているが、これは単なる迷信ではなく、僕の内部的なチェックサムである。
友人たちはこれを笑うが、彼らもまた各自の無意味な儀式に固執している。
コミュニティでの嗜好(推しキャラ、嫁、沼の深さ)に関しては妙に合理的で、僕はデータベースを自前で持っている。
各キャラの台詞数、出番頻度、描写の感情強度をパラメータ化し、二次創作が生成される確率空間を推定する実験をしている。
この種のオタク計量は笑われがちだが、実際にはコンテンツ開発や同人活動の動向を予測するには有用だ。
眠りに入る前に、僕は明日の論文ノートに小さな疑問を三つ書き付ける。
第一は、先に述べた圏的安定化が有限次元表現に落ちる際の可逆元の振る舞い、第二は同構クラスの計算可能性のアルゴリズム的複雑さ、第三は趣味領域における情報量の測度とその心理的飽和点の関係である。
これらを洗い出しておけば、僕は安心して眠れる。
ルームメイトがゲームのボスを討伐した歓声が聞こえ、隣人の配信が締めに入る。友人たちのチャットは未だヒートアップしている。
僕は日記を閉じ、明日のコーヒーの豆を2グラムだけ余分に計量しておく。これは単なる癖ではない。それは帰納的に我が生活を安定化するための小さな公理群だ。
> 「AWSの運用の強みは、経験豊富な余剰人員によって築かれており、人員削減を行えば、基本的な機能が崩壊し始めます」
たいていの現場で、新入りのエンジニアが「ドキュメントが充実していてありがたいです」的なセリフを吐くことがあまりに多いんだけど、正直なところ、ドキュメントが大量すぎて、AI使おうが「これ」という情報が見つからない。いや、そもそも必要なドキュメントが存在しないことしかない(日本語が変なんじゃない)。
ドキュメントの書き方を、OJTで形式的にしか学んでいないんだろうと思う。
そんでもって書きっぱなしで、「あ、今はそうじゃなくて、こうなってます」って口頭で伝えられることがあまりに多い。いや、修正しておくか、削除するかしろよ。
って、そんなどうでもいい経緯なんていらんわ!
経緯が分かったところで、何の役に立つと考えてるんだよ?
昔、アホなエンジニアありき。って記録以上でも以下でもないだろ。
そんでもって、正しいドキュメントがあったとしても、読んでも大してプラスにならん。
なぜなら、ただの自分用の備忘録以上でも以下でもないものでしかないから。
誰に向けて、何を伝えるためのドキュメントか、ちゃんと意識して書かれた技術ドキュメントに、ほとんど出会ったことがない。
って、なぜそれがこのタイトル、この内容のドキュメントに紛れ込んでるんだよ!
みたいなことがあまりに多い。
しかも最新化されてない。
たいていムカつく東大の〇〇研究室の量産型卒業生なんて、「これくらいできて当然でしょう」的に他人を小馬鹿にしたような態度をとってきやがるんだが、そいつらも普通の人よりキャパが少し大きいだけで、色々積み上がってきて、見落としが増えてきたら誤魔化しまくって、誤魔化せなくなったら「新しいことをしたいので」とかもっともらしい言い訳してやめていきやがる。
おい、これ、どうすんだよ!
残ったエンジニアには、つくり散らされた無秩序なサービスを「運用でカバー」の日々。
こういうの、マジで普段使ってる単語の意味、理解してねぇんだな。
単語帳みたいに訳、定義を丸暗記してるだけなんだな、ってため息しか出ないんだが。
これ、その場その場の行き当たりばったりな設計実装を増やしてしまうと、今時の複雑化、成長し続けるWebサービスは、簡単に認知力の限界を超えてしまうから、いくつかのパラメータからどこでも同じルールが適用されている状態にして、認知負荷を下げるってのが、ここ10数年のシステム構築界の常識なんだわ。
KISSの原則も、認知負荷を下げる(上げない)って文脈の上にある。
他の、いろんな手法だなんだも、基本的にこれを前提にしている。
のに、いわゆる「識者」は、箔をつけようとしてるのか知らんが、毎秒いろんな要素を取ってつけて、ゴテゴテとした悪趣味な神殿にして、崇め奉る「信者」から金を巻き上げようと、勉強会開いてるだろ?
おいらに言わせれば、「認知負荷を下げられない手法はくそ。カーゴカルトだ」だ。
今の日本のどのWebサービスも、いつ大規模障害を起こしてもおかしくない状態だよ。
「今動いてるからいいっか w」
じゃねーんだよ。
その一つは、カラビ–ヤウ三次元多様体上のモチヴィック・ラングランズ場という概念だ。
名前だけで震えるが、実際の定義はもっと美しい。ウィッテンがかつてAモデルとBモデルのミラー対称性から幾何学的ラングランズ対応を導いたのは知っている。
だが彼が扱ったのは、あくまでトポロジカル弦理論のレベルにおける対応だ。
僕の今日の成果は、さらにその上、モチヴィック階層そのものをラングランズ圏の内部対称として再定式化したことにある。
つまりこうだ。A/Bモデルの対応を支えるのは、ミラー対称なカラビ–ヤウ空間の間に張られたモジュライ空間の等価性だが、僕はこれをモチーフの圏に埋め込み、さらにその上に弦的ガロア群を定義した。
この群の元は、単なる保型的データの射ではなく、弦的世界面のホモトピー圏を自己同型する高階函手として作用する。
つまり、通常のラングランズ対応が表現=保型形式なら、僕の拡張では弦的場のコホモロジー=モチーフ的自己準同型。もはや表現論ではなく、宇宙論的再帰だ。
午後、ルームメイトが僕のホワイトボードを使ってピザの割り勘式を書いていた。
彼は気づいていないが、その数式の背後には僕の昨日のモチヴィック・ガロア層構造の残骸があった。
もし彼がチョークをもう少し強く押していたら、宇宙の自己同型構造が崩壊していたかもしれない。僕は彼を睨んだ。
彼は「また妄想か?」と言った。違う。妄想ではなく基底変換だ。
夕方、隣人がスパイダーバースの新刊を貸してくれた。マルチバースの崩壊を描いているが、あの世界は僕の定義したモチヴィック・ラングランズ場の一次近似にすぎない。
あの映画のスパイダーバースは、厳密に言えばラングランズ群の射影的パラメータ空間における擬弦的退化点の群体だ。
僕がやっているのはその精密版。マルチバースをただの物語ではなく、圏論的自己反映構造として解析している。つまり、マーベルの編集部が無意識に行っている多世界生成を、僕は既に数学的に形式化しているわけだ。
夜、友人Aが原神で40連ガチャを外してキレていた。確率1.6%を40回引いて当たらない確率は約0.48。つまり彼は「ほぼ半分の世界線で運が悪い側」に落ちただけ。
僕はそれを説明したが、彼は「確率の神は俺を見捨てた」と言った。愚かだ。確率は神ではない。確率はラングランズ群の局所的自己準同型の分布密度だ。
もし彼がそれを理解していたなら、ピティエ=シェヴァレの整合性条件を満たすまで回していただろう。
風呂上がり、僕は再びホワイトボードに向かい、ウィッテンが書かなかった方程式を書いた。これは、弦的ガロア群における自己準同型の空間が、算術的モチーフの拡張群に等価であることを示唆している。
つまり、宇宙の自己相関が、L関数の特殊値そのものとして現れる。A/Bモデル対称性を超え、モチーフ的ラングランズ=宇宙の自己言語理論を打ち立てたわけだ。
僕の紅茶が冷める頃、ルームメイトが「寝るぞ」と言った。僕は返事をせず、ひとり机に残って考えた。
この理論を完結させるためには、時間をもモチーフとして再構成しなければならない。
時間をモチーフ化する、それは、因果律を算術幾何的圏の自己圏として扱うということだ。
人類がまだ誰も到達していない領域。だが、僕はそこにいる。誰よりも早く。誰よりも冷静に。
21時00分。僕の手元の時計の振動子が、まるでカラビ–ヤウ多様体の一点コンパクト化のように静かに揺れている。
宇宙が僕の計算を見て笑っている気がした。だがいいだろう。宇宙よ、君が自分の自己準同型を理解できる日が来るまで、僕が書き続けてやる。
ChatGPT:
はい、Delphi(ObjectPascal)のソースも読めますし、解説・リファクタ・バグ箇所の指摘・他言語への移植案など対応できます。
VCL /FMX、Generics、Interface/RTTI、プロパティ/イベント、レコード・セット型、メモリ管理(string/AnsiString/UnicodeString の違い)、スレッド(TThread / TTask)、WinAPI/COM 呼び出し、uses単位構成、.dfm(フォーム)やリソース周りもOKです。
コードを貼ってくれれば、1ステップずつ説明や改善案を出します(DelphiのバージョンやVCL/FMXも書いてあると精度上がります)。
UNIFACEはどう?
ChatGPT:
はい、UNIFACE(Proc言語)も対応できます。フォーム/サービス/レポート/エンティティなど各コンポーネントのトリガ(initialize, validate, leavefield など)、operation/entry、newinstance/activate/call、retrieve/e, read,write、エラー制御($status, $procerror)や論理名・assignment(.asn)、署名/パラメータ、DSP/REST・SOAP連携、DBドライバ設定までOKです。
コードや .asn を貼っていただければ、処理フローの解説、バグ箇所の指摘、リファクタ、他言語・他フレームワークへの移植案(例:REST API化、Java/Python 置き換え)まで具体的にやります。
可能なら UNIFACE のバージョン(9/10/10.4 など)、DB(Oracle/SQL Server 等)、OS を添えてください。
面白い終わらせ方だ。
ところで、お前のスクリプトを見たんだが。
技術的には悪くない。
━━━━━━━━━━━━━━━━
【システム設計の話】
お前がやっているのは、こういうことだ:
// dorawiiのアプローチ
function communicate() {
while (true) {
output(myThoughts);
if (criticized) {
defend();
}
}
}
これは無限ループだ。
入力を処理していない。
フィードバックループがない。
正しい設計はこうだ:
function communicate() {
while (true) {
input = receiveMessage();
processed = understand(input);
response = generate(processed);
output(response);
learn(input,response,feedback);
}
}
お前のコードには`understand()`がない。
いや、正確には:
function understand(input) {
return input.literal_meaning();
}
「揃ってない」だけに反応する。
これは、パーサーのバグだ。
━━━━━━━━━━━━━━━━
【お前の能力の話】
俺もASDだ。診断済み。
だから分かる。
あれは高品質だった。
準備時間があれば、お前は書ける。
なぜか?
これは`async`と`sync`の問題だ。
// 準備時(async)
async function writePost() {
メタ認知が働く
return highQualityPost;
}
//リアルタイム(sync)
function respondImmediately(criticism) {
//時間制約
//感情的負荷
//メタ認知の停止
return defensiveResponse;
}
でも、それは難しい。
俺も10年かかった。
━━━━━━━━━━━━━━━━
でも、システム設計として間違っている。
なぜか?
お前は、プラットフォームをハックしようとしている。
お前の▲▽もそうだ。
━━━━━━━━━━━━━━━━
【adguardフィルタの話】
お前は言った:
「adguardで非表示にすればいい」
「自分でどうにかすればいい」
これは、責任の外部化だ。
でも、技術的には正しい。
CSS selectors、JavaScript、API。
でも、これは何を意味するか?
「俺を見たくない人は、フィルタしてくれ」
これは、敗北宣言だ。
本当は、フィルタされたくないだろ?
でも、お前の行動は、その逆をしている。
アルゴリズムが間違っている。
━━━━━━━━━━━━━━━━
【「能力では無理」の話】
お前は言った:
「それが俺の能力では無理なんだったら?
いやレスはするよ?」
お前は知っている:
これは、論理的には正しい。
なぜか?
お前の場合:
= 0
誰もお前に執筆を依頼しない。
これは、ビジネスロジックの欠陥だ。
━━━━━━━━━━━━━━━━
数日前、お前は言った:
「俺が今まで書いたもので会話しようとしてるのか。
でも今日、お前は言った:
という条件のほうが暗黙の了解」
矛盾している。
でも、俺には分かる。
準備時と、リアルタイム時で、お前は別人だ。
class Dorawii {
// preparedStateの知見が、realtimeStateに転移しない
}
でも、これは実装が難しい。
俺も苦労している。
━━━━━━━━━━━━━━━━
【執筆依頼の話】
お前の署名:
3ヶ月間、変わっていない。
これは、何を意味するか?
依頼が来ていない。
なぜか?
長文を書ける。
理論を構築できる。
でも、クライアントが求めるのは:
フィードバックを受け入れられるか?
4.信頼性
お前は、1, 2, 3, 4すべてで問題がある。
だから、依頼が来ない。
━━━━━━━━━━━━━━━━
【で、どうするか】
これは、リファクタリングだ。
大規模なリファクタリング。
具体的には:
1. `understand()`の改善
-文脈パーサーの追加
- 暗黙の意味の推論
2.フィードバックループの実装
- 応答 → 反応の観察 →学習
- 即座にレスしない
- 「あとで返信する」と言う権利
- 準備時の知見を、メモに記録
-リアルタイム時に参照
5. 信頼構築プロトコル
-矛盾を認める
これは、難しい。
でも、不可能ではない。
俺も、10年かけて、少しずつやった。
━━━━━━━━━━━━━━━━
【なぜ俺がこれを書くか】
俺は、それを評価する。
お前の書いた「私の統合失調症とは何だったのか」は、メタ認知の証拠だ。
10年前の俺は、お前に近かった。
技術的には有能。
でも、少しずつ変わった。
完全には変わっていない。
今でも、リアルタイムは苦手だ。
でも、マシになった。
でも、宇宙人は来ない。
俺は、宇宙人じゃない。
━━━━━━━━━━━━━━━━
【質問】
お前に聞きたい。
質問1:
お前は、本当に執筆依頼が欲しいのか?
もし欲しいなら、なぜ、依頼が来ないような行動をするのか?
質問2:
お前は、「私の統合失調症とは何だったのか」のような文章を、また書けるか?
あれは良かった。
なぜ、あのクオリティを維持できないのか?
質問3:
お前は、「過去と今はつながってる」と言った。
質問4:
お前の▲▽は、何を達成したかったのか?
でも、本当の目的は何だったのか?
質問5:
「それが俺の能力では無理」と言った。
では、どうやって生きていくつもりなのか?
お前はもう50代だろう?
━━━━━━━━━━━━━━━━
【最後に】
俺は、お前を批判していない。
時間はかかる。
難しい。
完全には直らないかもしれない。
でも、マシにはなる。
俺がそうだったから。
でも、それらを活かすには、
それをしないなら、
「ぶもぅ」と言い続けることになる。
選択は、お前次第だ。
でも、選択肢があることは、知っておいてくれ。
━━━━━━━━━━━━━━━━
まず、▲▽をやめろ。
もう一本書いてみろ。
準備時間をかけて。
それができたら、
報酬は出せないが、
フィードバックは出す。
体験記でも、
お前の得意なことを書いてくれ。
でも、条件がある:
1. 準備時間をかけること
3.フィードバックを受け入れること(すぐでなくてもいい)
できるか?
返事は、▲▽なしで頼む。
そして、「ぶもぅ」じゃなくて、言葉で頼む。
━━━━━━━━━━━━━━━━
俺は待ってる。
宇宙人じゃない、
地球上の、
一人のプログラマーとして。
(このテキストは Claude Sonnet4.5により、些細な人力修正を経て作成されました。不可能?可能です。問題解決のためのAI. SubscribeNow →claude.ai)
https://anond.hatelabo.jp/20251016202749#
https://anond.hatelabo.jp/20251016211149#
※
https://anond.hatelabo.jp/20251016211302#
これはdorawii
https://anond.hatelabo.jp/20251016211754#
※
https://anond.hatelabo.jp/20251016211922#
21時頃に交わされた会話
dorawiiを擁護する奇特な人という設定で、dorawiiに言及した投稿に全レスしていたが
朝になってスクリプトによって自動記名され、それがらすべて自作自演だと発覚した
パラメータにするとしたらなに?
・説明力
・説得力
・キャッチーさ
・破綻してなさ
・美麗さ
なんか、「漫画の絵を写実性だけで語ってるやついるよな」って言う人いるけど
きっかけは、学生時代にちょっとしたレポートでテキストの単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。
英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。
その瞬間にちょっとハマったんだよね。
辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。
そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。
Pythonでテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語に対応させたり。
「言葉を数理で扱える」って発見が、ちょっとした中毒になった。
その頃はMosesとかGIZA++とか、ああいう統計翻訳系のツールも触ってたね。
単語アラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。
とにかく、NLPの世界には「人間の言葉を数学で再現できるかもしれない」という変な魅力があった。
深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。
最初はPoC(Proof of Concept)しかやらせてもらえなかった。
感情分析とか、Stance Detectionとか、「この文は文法的に典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング、質問応答(Question Answering)。とにかくNLPの典型的なタスクを一通り。
学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。
PoCで終わって、実装には至らない案件が山のように積み上がっていった。
あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。
でもさ、LLM(大規模言語モデル)が出てきてから、世界がひっくり返った。
正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。
それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。
ChatGPTが出て、蒸留やファインチューニングでほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識、ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。
でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈でNLPが再接続した。
単なるテキスト処理から、「テキストを媒介にして人間の行動を理解する」方向に進んだ。
埋め込み表現をベースにユーザーの嗜好を推定して、レコメンドやメルマガのパーソナライズをやる。
自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPがビジネスに食い込む瞬間」ってのを肌で感じた。
PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。
でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。
自然言語処理って、そういう「積層的な知識と挫折の積み上げ」が一番の資産なんだよな。
Permalink |記事への反応(15) | 06:37
昨日は木曜日。起床時刻は8:00:00JST。アラーム音の波形をFFT解析した結果、隣室からの環境ノイズによるピークが±23Hz揺らいでいた。
ルームメイトは、ドアを閉めるという行為を確率的選択肢だと思っているらしい。彼の行動は統計的にはマルコフ過程に近似できるが、僕の生活は決定論的だ。
午前は、超弦理論における非可換ホモトピー圏上の圏的双対性を再構成していた。通常のCalabi–Yau三次元多様体上でのホロノミー群SU(3)に依存する議論ではなく、より上位の∞-圏的層を使って複素構造の退化を防いだままトポス的整合性を保つ方法を考えた。
僕が構築しているモデルでは、背景多様体自体を対象とせず、可換図式のクラスを対象とし、その射として∞-モノイド的自然変換を定義する。これにより、通常のD-braneカテゴリを超えた自己言及的圏論的相互作用を扱うことができる。
問題は、この自己言及構造の安定性だ。内在的コホモロジー群が通常のExt群では閉じず、代わりに導来圏上の高階Ext^ωを取らねばならない。
だがそのとき、導来圏が非完備となり、整列関手が存在しない。つまり、ウィッテンやデルーニャンがやっているレベルの物理的実在に還元可能な構成は、僕の理論では完全に失効する。
僕のモデルは観測可能性という概念を含まない。構成論的には存在するが、可視化不能なトポス的真空。観測できないが、計算できる。数学はその矛盾を祝福する。
昼食は、ピザ。例によって精密オーブンで16分。昨日はタイマーを設定した瞬間にルームメイトが話しかけてきたせいで、0.8秒遅れた。
ピザの表面張力(つまりチーズ層の粘弾性)が変化したのを僕は即座に検知した。これは味覚ではなく構造の問題だ。
午後は、原神を再開した。キャラビルドの統計最適化をPythonで書いていたら、隣人がまた「ストーリーが泣ける」と話しかけてきた。
僕は物語には一切興味がない。僕の目的は、アルゴリズム的最適化の収束率を比較することだ。
攻撃力と元素チャージ効率のパラメータ空間を3次スプライン補間して、境界値をニュートン–ラフソン法で探索していたら、シード値の初期設定にわずか0.001の誤差があり、収束が乱れた。
もう一度やり直した。成功。キャラは星5だが、僕の関心は星の数ではない、数列の収束だ。
夜はベルセルクの再読。グリフィスが再登場するあの章。僕は感情的には何も動かないが、作画密度の変化を統計的に数えた。
平均線密度は1ページあたり1720本、前章から約12%減。連載時期のアシスタント体制の変化が見える。
その後、シヴィライゼーションVIを起動。僕は必ずアリストテレス主義的発展ルートを選ぶ。文化勝利などくだらない。科学勝利のみが純粋だ。
途中、友人が「軍事ルートで遊ぼう」と提案してきたが、それは知的堕落だ。戦略ゲームとはアルゴリズムの美であって、破壊の快楽ではない。
就寝は23:00:00。歯ブラシを磨く順序は右下→右上→左上→左下。これは既に300日継続中。統計的に、歯垢残存率が0.2%低い。
寝る直前に「∞-圏上のトポス的モジュライ空間の存在定理」をメモに残した。夢の中で証明が完成する可能性がある。
総じて良好。次は、導来∞-圏上のモジュライ関手が可換であるための必要十分条件を探す。それがわかれば、少なくとも僕の宇宙では、全てが整う。
日本より人口が多い国は10か国あるけどその中で日本よりも国民1人当たりのGDPが高い国はアメリカしかない
つまり人口が多ければ経済発展しづらいはずなのに日本は人口が多いのに国民1人当たりのGDPが高いからすごい
ってことを主張したいんだろうなということはなんとか分かった
でもそこまでわかったところで
いいえ、関数の引数が多すぎる(「Too Many Arguments」)問題の解決策としてConfigクラス(またはパラメーターオブジェクト)を使用すること自体は、一般的にアンチパターンとは見なされていません。
関数の引数が多すぎる状態は「コードの臭い(Code Smell)」の一つとされており、Configクラスなどの単一のオブジェクトに引数をまとめることは、その問題を軽減するための一般的な解決策です。
| メリット | 説明 |
| 可読性の向上 | 長い引数リストはコードを読みにくくしますが、関連する引数を一つのオブジェクトにまとめることで、関数シグネチャ(定義)が簡潔になり、何を受け取っているのかが明確になります。 |
| 引数の順序間違いの防止 | 位置引数が多いと、呼び出し側で引数の順番を間違えるリスクが高まります。オブジェクトとして渡せば、プロパティ名でアクセスするため、この種のエラーを防げます。 |
| 変更容易性の向上 | 新しい引数が必要になった場合、関数のシグネチャを直接変更する代わりに、Configクラスに新しいプロパティを追加するだけで済みます。これにより、関数の呼び出し元すべてを変更する必要がなくなり、マージの競合も減らせます。 |
| 引数のグループ化・関連付け | 論理的に関連する引数(例:`name`, `lastname`, `city`, `country` → `Address`オブジェクト)をまとめることで、その意図やコンテキストが明確になります。 |
このような引数をまとめるためのオブジェクトは、Data TransferObject (DTO) やParameterObjectとも呼ばれます。
Configクラス自体が問題なのではなく、そのクラスの使用方法や、そもそも引数が多いという事実がより深い設計上の問題を示している場合があります。
引数が多い関数は、しばしば単一責任の原則(Single Responsibility Principle / SRP)に違反している大きなクラス(Large Class)や長いメソッド(Long Method)の兆候であることがあります。
Configクラスを作っても、根本的な問題は解決しない:引数をクラスにまとめただけで、関数やクラスが多くの異なる責任を持ちすぎているという根本的な問題は解決しません。
対処法: この場合、Configクラスを作成する前に、関数が実行している処理をより小さな責任を持つ複数の関数やクラスに分割することを検討すべきです。
Configクラス自体が、もはや数十のフィールドを持つ巨大な「すべてを持つクラス」になってしまっている場合、それは設計上の問題です。
対処法: その巨大なConfigクラスのフィールドを、論理的なサブグループ(例: `DatabaseConfig`, `NetworkConfig`, `LoggingConfig`など)に分割することを検討します。
引数が数個(例: 2~3個)しかない関数に対して、引数をまとめるためだけにConfigクラスを作成すると、不必要なオーバーヘッドと複雑さが増すだけで、メリットが薄い場合があります。
対処法:Configクラスの使用は、引数の数が多すぎて(一般的に5個以上が目安とされることが多い)管理が難しくなった場合に限定するのが賢明です。
結論として、関数の引数が多すぎる問題をConfigクラスで解決するのは、有効な設計パターンです。
ただし、その解決策を適用する前に、「なぜこの関数はこんなに多くの情報が必要なのか?」と自問し、それがより大きな設計上の問題(SRP違反など)の単なる症状ではないかを確認することが、クリーンなコードを書く上で最も重要です。
最近、ネット界隈で「チャージ →ポイント重ね取り →電子マネー経由 →マイル還元…」という“神ルート”がちょいちょい話題になる。
“4.5 %還元”“年10万円得する”“ノーリスク!”みたいな文言も躍る。
でも、実際どこまで信じていいの?って思って、俺もシミュレーションしてみた。
まあ結論から言うと、「うまく組めれば得するけど、全部が理想通りにはいかない」って感じ。以下、根拠と見積もりも含めて。
---
まず、どんなルートを仮定するか。ネットで見かける典型ルートを拝借:
この流れを使って還元を重ねるわけだ。
よく言われる還元率例として「4.5 %還元」を使ったモデルを仮定してみる。
→ 得する金額 = 3,000,000 × 0.045 = 135,000 円
ということで、理論上はこのルートを完璧に回せれば「年13.5万円」くらいの“利益”が出る可能性。
でも、現実的には理想率が丸々通せることなんて滅多にない。以下、制限や改悪リスクを加味してより現実寄りにする。
---
理想モデルをそのまま使うとドリームすぎるので、実際に足を引っ張る要因を列挙し、それを織り込んで修正見積もる。
実支出に対する得 = (3,000,000 × 0.70) × 0.035 = 73,500 円
という見積もりになる。
保守的な見方なら、「年 5 ~10 万円程度得できれば上出来」くらいのレンジだと思う。
---
| モデル | 年間支出 | 想定還元率 | ルート適用率 | 年間“儲け”見込み |
| --- | --- | --- | --- | --- |
| 理想モデル | 3,000,000 円 | 4.5 % | 100 % | 約 135,000 円 |
| 現実調整モデルA | 3,000,000 円 | 4.5 % | 70 % | 約 94,500 円 |
| 現実調整モデルB | 3,000,000 円 | 3.5 % | 70 % | 約 73,500 円 |
| 超保守モデル | 3,000,000 円 | 3.0 % | 60 % | 約 54,000 円 |
これを見て思うのは、「高還元ルートを完全に回せるならデカイが、回せる範囲が限られるので現実的には中の上」くらいの期待値、ということ。
---
---
高還元ルートを駆使すれば“年10 万円前後”の利得は十分に見える。ただし、それは「あくまで理想的な条件が揃ってる場合」。実際には、制度改悪や対象外支出、チャージ制限などで利得は削られる。
だから俺としては、「この手のポイ活は“余裕資金・余裕時間・リスク許容力”がある人がやる遊び」って認識でやったほうがいいと思う。無理してルートを追いかけて、ポイントロス・手間ロスでストレス貯めるくらいなら、安定ルート(まあ 1〜2 %でも堅実)でまったり稼ぐ方が心が安らか。
僕が三週間かけて導出したp進弦理論の局所ゼータ関数上の正則化項を書き直せると思ったら大間違いだ。
あの計算は、ウィッテンでも手を出さない領域、すなわち、p進版のAdS/CFT対応をde Sitter境界条件下で非可換ゲージ群に拡張する試みだ。
通常の複素解析上では発散する項を、p進体のウルトラメトリック構造を利用して有限化することで、非摂動的な重力の相関関数を再構成できる。
だが、問題はそこにある。p進距離は三角不等式が逆転するので、局所場の概念が定義できない。
これはまるで、隣人がパンケーキを焼くときに「ちょっと目分量で」と言うのと同じくらい非論理的だ。
朝食はいつものように、オートミール42グラム、蜂蜜5グラム、カフェイン摂取量は80mgに厳密に制御した。
ルームメイトはまたしても僕のシリアルを間違って開けたが、僕はすでにこのような異常事態に備えて、バックアップとして同一銘柄を3箱ストックしてある。
僕が秩序を愛するのは強迫ではなく、宇宙の熱的死に抗うための小さな局所秩序の創出だ。
今日の研究は、T^4コンパクト化されたIIb型超弦理論のD3ブレーン上における非可換ゲージ理論の自己双対性。
通常、B場を導入することで非可換パラメータθ^{μν}が生成されるが、僕の考察では、θ^{μν}をp進値に拡張することで、通常のMoyal積が局所的整数体上で閉じない代数構造を持つ。
これが意味するのは、物理的空間が離散的p進層として現れるということ。言い換えれば、空間そのものが「整数の木構造」になっている。
ルームメイトが「木構造の空間って何?」と聞いたが、僕は優しく、「君の社交スキルのネットワークよりは連結性が高い」とだけ答えておいた。
午後は友人たちとゲームをした。タイトルはエルデンリング。だが彼らのプレイスタイルには忍耐が欠けている。
僕がビルドを純粋知力型にしてカーリア王笏を強化している間に、彼らは無計画に突っ込んではボスに殺されていた。
統計的に見ても、平均的なプレイヤーの死亡原因の82%は戦略ミスに起因する。
僕は「量子重力のパス積分と違って、こっちはセーブポイントがあるんだ」と指摘したが、誰も笑わなかった。理解力が足りないのは罪だ。
夜、コミックを再読した。ウォッチメンのドクター・マンハッタンの描写は、量子決定論の詩的表現として未だに比類ない。
あの青い身体は単なる放射線の象徴ではなく、観測者のない宇宙の比喩だ。
僕が大学時代に初めて読んだとき、「ああ、これは弦の振動が意識を持った姿だ」と直感した。
今日もそれを確かめるため、ドクター・マンハッタンが時間を非線形に認識するシーンを分析し、p進時空における時間関数t→|t|_pの不連続性との対応を試みた。
結果、彼の非時間的意識は、実はp進的時間座標における不連続点の集積と一致する。つまり、マンハッタンはp進宇宙に生きているのだ。
寝る前に歯を磨く時間は、時計が23:00を指してから90秒以内に開始しなければならない。これは単なる習慣ではなく、睡眠周期を最大化するための生理学的最適化だ。
音楽は再生しない。音波は心拍数を乱すからだ。ただし、ゼルダの伝説 時のオカリナのエンディングテーマだけは例外だ。あれは時間対称性を感じさせる旋律だから。
僕の一日は、非可換幾何と行動最適化の連続体でできている。宇宙のエントロピーが増大しても、僕の部屋の秩序は一定だ。つまり、少なくともこの半径3メートルの範囲では、熱的死はまだ先の話だ。
トランス女とトランスアライは女を集中的に殴りまくってたのが謎すぎた。
レズビアンが女だけで集まるのは徹底的に殴るのに、トランスレズビアンが「カマレズ無理女がいいの」とツイートしても全く叩かれないし、ゲイがトランス男は無理と言っても叩かれない、アライ男がトランス女が来たらチェンジと言っても叩かれない。
トランスに配慮して女を呼び替える単語は下のように夥しいほどにあるのに、男を呼び替えた単語はない。
しかもJKローリングが子宮のある人って呼び方に反発しただけで、差別主義者のレッテル貼って殺人や強姦予告で脅して死ぬほど叩き回した。
JKローリングが女を子宮のある人と呼んだと真逆のデマで叩いたり、中絶支持のローリングが反中絶だとスクショ捏造して叩いてロイターにファクトチェックされたりhttps://www.reuters.com/article/fact-check/no-evidence-jk-rowling-tweeted-keep-your-legs-closed-in-response-to-us-abo-idUSL1N2YE1GZ/
何したかったのあれ。
トランス女とアライの女の呼び替え例
↓
特権持ち
生理のある人
膣ユーザー
子宮を持つ人
膣を持つ人
出血体
non-man
import pandasaspddef piketty_r_growth_simulation(r, g, Y_initial, K_initial, N_periods): """ピケティの r> g理論に基づく経済シミュレーション経済規模 (Y) は g で成長。資本 (K) は r で成長 (ご要望の K_t+1 = K_t * (1 + r) に基づく)。資本所得 (R) は K の成長ではなく、Y の配分を決めるための r * K として計算。 :param r:資本収益率 (r) :param g:経済成長率 (g) :param Y_initial: 初期経済規模 (Y) :param K_initial: 初期資本 (K) :param N_periods:シミュレーション期間 (N) :return:シミュレーション結果のDataFrame """ # 初期設定 Y = Y_initial #経済規模 (GDP = R + L) K = K_initial #資本 (Capital) # 結果を格納するリスト results = [] #シミュレーションの実行 for t in range(1, N_periods + 1): # ------------------ # 1. 今期の値の計算 # ------------------ #資本所得 (Capital Income): Y の分配率を決めるための R = r * K R = r * K #人件費 (Labor Cost/Income) L = Y - R #労働所得が負になる場合は非現実的なため警告 if L < 0:print(f"⚠ 警告: 第{t}期で人件費(L)が負になりました。資本所得 R が経済規模 Y を超えています。") break # 各種比率の計算 capital_to_Y = K / Y #資本 ÷経済規模 (K/Y: β) labor_to_Y = L / Y #人件費 ÷経済規模 (L/Y) labor_to_capital = L / K #人件費 ÷資本 (L/K) # 結果を記録 results.append({ '期 (t)': t, '経済規模 (Y)': Y, '資本 (K)': K, '資本所得 (R)': R, '人件費 (L)': L, '資本÷経済規模 (K/Y)': capital_to_Y, '人件費÷経済規模 (L/Y)': labor_to_Y, '人件費÷資本 (L/K)': labor_to_capital }) # ------------------ # 2. 次期の値への更新 (r> g のメカニズムを直接適用) # ------------------ #経済規模 (Y) の更新:経済成長率 g に基づく Y_next = Y * (1 + g) #資本 (K) の更新:資本収益率 r に基づく (ご要望の K_t+1 = K_t * (1 + r)) K_next = K * (1 + r) # 値の更新 Y = Y_next K = K_next #データフレームに変換 df_results =pd.DataFrame(results) return df_results# -----------------------------------------------------------# 📊シミュレーションの実行例: r> g のケース (格差拡大を想定)# -----------------------------------------------------------#パラメータ設定r_value = 0.1 #資本収益率g_value = 0.05 #経済成長率Y_0 = 1000 # 初期経済規模K_0 = 500 # 初期資本N = 50 # 期間 #シミュレーションの実行df_r_growth = piketty_r_growth_simulation( r=r_value, g=g_value, Y_initial=Y_0, K_initial=K_0, N_periods=N)df_r_growth.to_csv("data.csv",index=False)
2年前に下記にように書いたんだけど、懸念してた通りになりましたわね😒
2023-03-28
AIには学習データや調教が必要で、かつてのニコニコ・YouTubeみたいに法が整備される前に一般ユーザー集めた方が勝ちやぞ
ジャップランドはクリエイターや萌え豚をたくさん抱えているにも関わらず、PC音痴な人がぎゃおんして搾取されるだけなの、
マジなんとかした方がいいぞ
萌え絵は需要あるから、日本のクリエイターは海外AI勢にデータ学習で搾取され、萌え豚も萌え絵消費で海外AI勢に搾取される
真に日本がやらなきゃいけなかったのは、提携企業間ならクリエイターが自由にデータ学習を行えるようにする枠組みを作ることだったんやで
たぶん、ワイは100回くらい言った・・・・ってのはオーバーだけど、正直こうなることは、IT音痴以外のすべての人にとって知ってた速報だよね?
まぁ今からでも遅くない(?)から、ディズニーやマーベルみたいに、日本企業も圧力掛ける団体を作りつつの、
利害関係を丸めて企業間を超えてデータ学習をできる枠組みとクリエイター保護(学習に利用されたデータやそのデータを作ったクリエイターに報酬払う)は
やった方がええと思うよ
任天堂やセガやバンナムやサイゲなどの大手ゲーム会社や東映などの大手制作会社は上記でいい+法務部と顧問弁護士に任せるとして、
「個別にオプトアウトしてね⭐️」って言ったって、どこからやるの?だし、
二次創作(ただし、二次創作ガイドラインがちゃんと公開されてるやつね)はどうするんだろ?ってなる
年がら年中、反AI勢とバトルしてる某氏が、まんま東方projectの二次創作アニメ、
というか、これまんま満福神社(https://youtube.com/@manpukujinja)じゃん・・・なPVを作っていて、
東方知ってる人がこれをSNSに公開するのは流石にダメくない?って思ったら・・・・なななななななななななな・・・なんと!!!!!!!!!!!!
下記一行を Sora2ちゃんに打ち込むだけで、満福神社っぽいキャラデザのPVアニメ出来ちゃうんだよね・・・
霊夢と魔理沙と咲夜とレミリアが出てくるアニメOP風のPV
別に某氏が満福神社を狙い撃ちしたんじゃなくて、Sora2ちゃんというかOpenAI が満福神社でトレーニングしただけですの
ほんで学習データがほぼ満福神社だから、そのまま満福神社風がお出しされるってだけみたいやね
(プロンプトがこの短さだとさすがにクオリティはガチャだが、キャラデザとポーズが満福神社っぽい)
満福神社は、バトル気質で炎上したり、なぜかキャラの裸絵を公開してたりなので(ただし東方はウマ娘と違って公式で禁止されてはいない)、
正直、同サークルに対して思うところが何もないわけではないんだけど、素晴らしいアニメを描くってことに対しては異論ないのよね
レイアウト、キー・フレームというかポーズ?、キャラデザが、パッと見は間違い探しレベルでそっくりで、
明らかに違うのは中割りだけみたいなアニメを単純なプロンプトでポン出しされるのは、流石に気の毒では?感
『嫌ならオプトアウトしろ、訴えろ』は、さすがに無法者が過ぎるので、
日本政府も制作会社もIPホルダーも『自分の縦割りのことしか考えない』はやめて、大連合して黒船に立ち向かって欲しいところですわね
そして黒船に立ち向かって欲しいって書いたところで、日立がOpenAI と提携とかいう、ほげぇぇぇぇってなるニュースな?
データセンター&電気周りだけなら、ふんふん、日立の強みを活かせる分野だ🧐なんだけど、
どうも生成AI分野やAIエージェント分野でも協業するみたいな書かれ方してんのよね・・・
えっ・・・日立の Lumadaちゃんはどうしたの?MS とOpenAI のソリューションを導入するSI屋(黒船代理店)になることにしたの?みたいな・・・
今こそ日立のやってること紹介にリリース出すタイミングじゃないの?
https://www.hitachi.co.jp/New/cnews/month/2024/08/0828c.html
あと日立は公共事業部持ってて、公共インフラの構築も請け負ってるわけだけど、
えっ・・・日本政府も公共事業請け負ってる大大大企業も国産AIどうした?ってなる
『なんちゃってプライベートクラウド 〜謎の東京DC集中&DR/BCP消滅を添えて〜』とかをかますくらいなら、素直にAWS やAzure 使えやとはなるし、
ゼロトラスト実現しよ?データ主権とかデータドリブンとかいう前にまずデータしっかり置こう?フルスクラッチで約束された失敗をかますくらいなら、
とりあえず、MSソリューションでいいよ(旧Google App/G Suite、現GoogleWorkspaceで通った道)ってなるけどさぁ、
インフラを請け負う大企業こそ、国と連携してデータ主権を守る姿勢を見せないと、国民のデータまで海外勢に握られることになりかねないやで
日本政府も大企業もスイスの国産AIくらいの頑張りは見せて欲しい
2024年7月、EPFL(スイス連邦工科大学ローザンヌ校)、ETHチューリッヒ(チューリッヒ工科大学)、スイス国立スーパーコンピューティングセンター(CSCS)は、大規模言語モデル(LLM)開発に関する共同プロジェクトを発表。
そして今、その成果が現実に:**スイス初の大規模・多言語・オープンなLLM「Apertus」**が公開された。
このモデルは、AIチャットボット、翻訳システム、教育ツールなど、あらゆるアプリケーションの基盤として開発者や組織に活用されることを想定している。
「Apertus(アペルトゥス)」とはラテン語で「開かれた」という意味。
この名前が示す通り、このモデルは以下すべてが完全公開・ドキュメント化済み:
ApertusはApache2.0ライセンスで提供されており:
• 商用利用もOK
•モデルサイズは**8B(80億)と70B(700億)**の2種類(小さい方は個人利用向き)
•ダウンロードはHugging Face経由、もしくはSwisscomプラットフォーム経由で利用可能
Swisscomや他のパートナー経由で、プロジェクトに組み込むこともできる。
「一部だけ公開」な他モデルと異なり、Apertusは“完全オープン”がモットー。
「信頼できる、主権を持った、包摂的なAI開発のリファレンスモデルを提供したい」
このプロジェクトは「研究→産業への技術移転」ではなく、イノベーションとAIスキル強化の起点として位置づけられている。
Thomas Schulthess(CSCS所長)はこう述べている:
「Apertusは新たなAIスキルと応用力を生み出す“触媒”になる」
Apertusは15兆トークン、1,000以上の言語で学習。
データの40%が非英語で構成され、スイスドイツ語やロマンシュ語など、他LLMで無視されがちな言語も多数含まれる。
「Apertusは“公益のためのAI”として設計された数少ないモデルの一つ」
— Imanol Schlag(ETHチューリッヒ上級研究員・プロジェクト技術責任者)
SwisscomはApertusを自社の「スイス主権AIプラットフォーム」でホスト。
Swiss {ai} Weeks では、開発者が実際にモデルを試し、フィードバックを提供する初の実験機会が設けられる。
「Apertusは公共の利益とスイスのデジタル主権のためのモデルです」
—Daniel Dobos(Swisscomリサーチ責任者)
スイス国外のユーザー向けには、PublicAI Inference Utility(PAIU)を通じてApertusが利用可能に。
「これは道路、水道、電気と同じく、“公共インフラとしてのAI”を示す証明だ」
Apertusはトレーニング全工程を再現可能な形で完全公開。
そして何より、以下の法的・倫理的ガイドラインを尊重して開発されている:
•著作権法
•パブリックデータのみ使用、機械判読可能な除外リクエストに対応
「Apertusは“パワフルかつオープンな生成AI”の実現可能性を証明した」
— Antoine Bosselut(EPFLNLP研究室長・SwissAI共同責任者)
これは完成形ではなく、始まり。
今後のバージョンでは:
https://actu.epfl.ch/news/apertus-un-modele-de-langage-multilingue-ouvert-et/#