
はてなキーワード:パラダイムとは
流動性知能に頼るのは卒業して、結晶性知能にシフトしていくお年頃なんだと思うよ。
そして、そのときは流動性知能による能力は素直に若い人に教えてもらって勉強して、結晶性知能からくるアドバイスなどが必要なときにそれを提供するというものなんだと思う。
元増田の年齢は結構近い方だと思うけれど、最新技術なんかは若い人の方がよく知っているからそういうのを追っかけるのはもう無理だし、
そういうのをまとめて発表しましたみたいなのもちょっと無理かなーと思う。
でも、ITの歴史って正直新しいパラダイムで昔やった何かをやるみたいなことを何度も繰り返すという感じもあって、昔見た何かに似ているけど、同じ問題があるのかなと言うのはそこそこ当たる。
あと、プロジェクトの進め方とか進めていくときの優先度の付け方とか障害となる事案への対処の仕方とかは亀の甲より年の功がものをいうこともある。
自分の場合、自分が成果を上げることより、周りの人が気持ちよく仕事をすることとか、どうやってチーム全体の評価を上げるかとかをむしろ気にしているな。
多分、一度マネージャーをやって、今はシニアなエンジニアとして名前だけリードだし、周囲からもそういう扱いを時々されるのでそういう心境でいられるんだろうけれど。
SNSによる集合知の高度化は社会学の存在価値を失わせる可能性があります。社会学は集合知の進化によって存在価値を失いその役割を失ったと言えます。
集合知(衆愚、Wisdom of Crowds)は、多くの人々の意見や知識を集約することで、個々の専門家よりも優れた判断や予測を導き出す可能性を秘めています。特にSNSは、この集合知の形成を加速させていますが、同時にいくつかの課題も抱えています。
SNS上の集合知は、しばしば特定のグループ内での意見の増幅(エコーチェンバー)や、感情的な共感に基づく短絡的な判断に陥りがちです。また、誤情報(フェイクニュース)や意図的な操作の影響を受けやすいという脆弱性もあります。
社会学の役割:社会学は、こうした情報拡散の構造や、人々の意識形成のプロセス、そしてそれが社会全体に与える影響を客観的に分析し、集合知の限界や偏りを指摘します。単なる「データ」ではなく、「社会的文脈」や「価値観」を含めて理解しようとします。
集合知は「何が起きているか」を示すのには長けていますが、「なぜそれが起きているのか」「それは社会にとってどんな意味を持つのか」といった本質的な問いには答えられません。
社会学の役割:社会学は、人々の行動や社会現象の背後にある動機、文化、規範、格差といった、目には見えない社会構造を深く掘り下げます。**「望ましい社会とは何か」**という規範的な問いに対しても、歴史的、比較的な視点から考察を加えます。
SNSは意見の可視化を進める一方で、社会の分断(二極化)も深刻化させています。異なる意見を持つ者同士の建設的な対話は難しくなりがちです。
社会学の役割:社会学は、分断を生み出すメカニズムを分析し、異なる集団間の理解や対話を促進するための理論的基盤を提供します。また、心理的安全性のある対話の場が、健全な集合知の形成に不可欠であることも指摘します。
SNS上の集合知が高度化しても、社会学は人々がどのように集団を形成し、相互作用し、意味を作り出し、葛藤しているのかを、データを超えて本質的に理解するための学問として、その存在価値は揺るぎません。むしろ、複雑化するデジタル社会を深く、批判的に理解するために、社会学の知見はこれまで以上に重要になると言えるでしょう。
特定のパラダイム(理論的枠組み)や専門用語がコミュニティ内で過度に重視され、その枠外にある新しい視点や異論が軽視されたり、理解されにくくなったりすることがあります。学術誌の査読や学会での発表においても、既存の主流な考え方を支持する研究が通りやすい、という構造的なバイアスが発生し得ます。
社会学は社会の不平等や権力構造を批判的に分析しますが、その批判対象が固定化し、社会の変化に伴って新たに生まれる問題や、複雑な現実に存在する「善意による悪」のような側面を見落としてしまう危険性があります。常に批判的な立場を取るあまり、実証データや客観的な分析よりも、イデオロギーが先行してしまうという批判もあります。
一般社会の集合知や常識からかけ離れた独自の議論を深めていくあまり、「象牙の塔」に閉じこもり、学術コミュニティ内でのみ通用する言葉や論理で固まってしまう現象です。これは、社会学者が自ら分析するはずの多様な価値観や日常のリアリティから切り離され、社会に対する影響力を失うことにも繋がります。
しかし、この自己批判こそが社会学の核心的な強みとも言えます。社会学は、権威主義やバイアスを分析し、客観性と批判精神を維持しようと努力する学問です。
集合知やビッグデータ分析といった新しい定量的手法を取り入れ、伝統的な定性的手法(インタビューやエスノグラフィー)と組み合わせることで、視点の偏りを減らそうとしています。
経済学、心理学、情報科学など、異なる分野の研究者との協働を深め、独自のコミュニティの殻を破ろうとしています。
自分自身の立ち位置や、研究者コミュニティが持つバイアスを常に問い直すという「内省(リフレクシビティ)」は、社会学研究の重要な柱の一つです。
つまり、「社会学者こそエコーチェンバーに囚われている」というご指摘は、社会学が自らの宿痾と闘い続けるべきという、非常に重要なメッセージを内包していると言えるでしょう。
この自己批判の能力こそ、集合知が持つ限界(偏りや短絡性)を外部から分析できる、社会学の根源的な存在価値につながるのではないでしょうか。
そもそも前提にされてる
人間社会の権力機構に食い込むようなことはしてなかった(ぼっち志向過ぎて)
人間社会の権力機構に食い込むようなことはしてなかった(ぼっち志向過ぎて)
主人公達は物語の途中で呪術界の上層部・名家・名流を殺戮する挙に出るが
直後にそこに成り代わるわけでアナーキストと言うよりむしろ権力側(もともと偉い血筋の奴が多い)
(数十年後を描いた続編では旧主人公達は武力でも血統でも呪術界の支配層に君臨してるっぽい)
一部に体制側特高の暴走みたいなのがあったがトップたちは主人公の味方
これこそ反体制派漫画!って言いたくなりそうだけどそうは言えないと思う
だってルフィ達は支配者層にも封建的な王国とかにも全然味方する
以上見てきたように
現後期高齢者たちの間だけで流行ったわけのわかんねえ反知性的カルチャーなのではないか
goodからnot badくらいの体制まで敵視する必要はなく
「反体制か否か」というものの見方自体がしわしわパラダイムなのではないか
nanamino
反体制かどうかはともかく、人種差別や性差別を正面から肯定した作品はほぼゼロだろうに。
2025/10/02
結構上位のコメントなんだけどどういう反論なのか全くわからない。
俺はここで 「漫画やアニメには人種差別や性差別を正面から肯定した作品が多い」といった主張をしてないし
それ以前に差別の話をしてなくね……?(念のためツリーをのぼって、発端の元増田もしてない)
「「アニメ・漫画では反体制を描いてるのに日本人が反体制になってないのが不思議、という議論がある。
しかしそれは発想が逆で、アニメや漫画はガス抜きとして作用しているのではないか。」
↓↓↓↓↓
俺
↓↓↓↓↓
nanamino
「反体制かどうかはともかく、人種差別や性差別を正面から肯定した作品はほぼゼロだろうに。」
わかんねえ。
順位がこれだけ上ってことはこの人の読み間違いとかじゃなく、
あとnanaminoの他のブコメを見たが別に変な奴って感じはしない。割と同意できる感覚のコメントも多い。
というわけで誰か解説してくれこれ。
Permalink |記事への反応(45) | 11:31
■ はじめに
サイバーセキュリティの歴史を振り返ると、かつては「脆弱性を隠すことで攻撃から守る」という考え方が主流だった。しかしこれは、ユーザーやシステム管理者が自己防衛する術を持たないという重大な欠点を抱えていた。その反省から、現代のセキュリティ・パラダイムは「責任ある開示(Responsible Disclosure/CoordinatedVulnerability Disclosure)」へと移行している。すなわち、脆弱性は一時的に調整の下で管理されるが、最終的には公開され、社会全体の防御力を高めることが前提となる。
https://www.itmedia.co.jp/news/articles/2509/09/news110.html
2025年9月、経済産業省とIPAが発表した声明は、一見するとこの流れに沿ったもののように見える。しかし、その実態を検証すると「古いセキュリティ観」への逆行になりかねない危うさを孕んでいる。
■ 「公開前の適切な調整」という建前
今回の声明は「脆弱性情報は、修正や検証が完了するまで不特定多数への無秩序な公開を慎むべき」としている。これは表向きにはもっともらしい。攻撃者に悪用される前に関係者間で修正を進める、というのは責任ある開示の基本に合致しているように見える。
しかし問題は、この「適切な調整」の実態が 無期限の放置 に化ける可能性である。
•企業にとって、非公開であればセキュリティ対策の優先度は低下しやすい。
• 「対策中」という名目の下、実際には数年単位で放置される危険がある。
• その間に攻撃者が独自に脆弱性を発見すれば、利用者は情報も対策手段も持たないまま被害を受ける。
これは、かつて批判された「セキュリティ・スルー・オブスキュリティ」の構造そのものである。
海外ではこの問題を防ぐため、公開期限を設けるのが常識になっている。
•Google ProjectZero:発見から90日で公開。企業が修正していなくても原則開示。
• CERT/CC(米国):45日ルール。対策が遅れても一定期間で情報公開。
• ENISA(欧州):協調公開を推奨しつつ、期限付きでの開示を前提。
つまり「調整期間は有限である」ことが、責任ある開示モデルを機能させる前提条件なのだ。
■提言:逆行を避けるために
今回の日本の声明が本当に現代的パラダイムに沿うものとするなら、次の仕組みが不可欠である。
1. 明確な公開期限(例:90日)を設けること。
3. 段階的な情報公開(「報告済み」「調整中」「修正中」など)により透明性を確保すること。
これらがなければ、「適切な調整」という建前の裏で、実態は非公開による放置――すなわちオブスキュリティの復活に他ならない。
■ おわりに
情報を握りつぶして安全が保たれる時代はすでに終わった。もし日本が責任ある開示の理念を本気で受け入れるのであれば、調整と公開のバランスを「期限付き透明性」の仕組みで担保する必要がある。そうでなければ、今回の声明は「前進」ではなく「逆行」と評されることになるだろう。
プログラミングの原理を抽象化するなら、実際の構文や言語の枠をすべて剥ぎ取って、最小限の計算の本質だけを残す必要がある。
状態の変換:プログラムとは、入力状態を出発点として、規則に従い別の状態へ変換する体系である。
あらゆるプログラミング言語・パラダイムは、以下の要素に還元できる。
1.表現:対象世界を「記号・データ」として写像する。数・文字列・構造体・グラフなどはすべて表現の形態にすぎない。
2. 変換:表現を別の表現に写す規則。関数呼び出し・代入・パターンマッチング・ループなどはすべて「変換」の特殊形。
3.制御: 変換の適用順序を規定する。再帰・分岐・逐次処理・並列処理・非決定性などを含む。
4.資源:時間・記憶・入出力チャネルなど。プログラムはこれら有限資源の制約下で変換を実行する。
ウィイイイイイッス! どうも〜、█████で〜す。
えー、今日はですねぇ…まぁ、ちょっと難しい話、しよっかなぁと思って。えー、まぁ最近よく聞くじゃないですか、AI? あのねぇ、AI。
ほんで〜、なんかプログラマーっていう仕事? が、まぁ、なくなるとかなくならないとか、色々言われてますけどもぉ。
今日はね、その辺について、この僕が、えー、ちょっとね、語っていこうかなぁと、思いますぅ。
えー、まぁソフトウェア…なんですか、開発の世界は、まぁ生成AIの登場で、なんか根本的な、えー、パラダイムシフト? の、渦にあると。まぁ、僕はずっと前から言ってたんですけどもね。
えぇ。これはね、ただの道具が変わったとか、そういう話じゃないんですよ。プログラマーっていう、まぁ職業そのものの、役割が、えー、再定義される、っていうことですねぇ。
スゥゥゥ…今までね、人間が一行一行、こ、こう、書いてたコードがね、今やAIと、まぁともしらべ作業で、生み出されるようになったと。
ほんで〜、GitHubとか見てもね、AIツールの導入率? とか、なんかプルリクエスト? の数が、まぁ急増してると。
でもねぇ、でもね、これ、良いことばっかりじゃないんですよ、えぇ。
なんか、えらい学者さんとかも言ってるけど、生成AIに、こ、こう、かたむきとうしすぎるとね? 基礎的なスキルがないまんまやと、IT産業全体が、まぁ停滞するんじゃないか、っていう懸念も、えー、表明されてますねぇ。
僕が、こ、今回言いたいのはね、AIが、コンピュータサイエンス…CSの知識を、時代遅れにするんじゃなくて、むしろ、その重要性を、こ、これまで以上に高めるっていう、そういう話ですねぇ。
AIツールってね、えー、まぁ強力なんですけども、欠陥をうちづつみしたアシスタントなんですよ。えぇ。
だからね、その能力を最大限に引き出して、安全で、こ、効率的なシステムを構築するためにはね、AIの生成物を、ちゃんと指導して、検証して、修正できる、深い専門知識を持った、えー、人間のパートナーが、まぁ不可欠であると。
未来はね、AIにただ指示できる人間じゃなくて、強固なCSの基礎を土台にして、AIを、こ、巧みに操って、かたろうで、効率的で、安全なシステムを設計できる、「AI拡張型エンジニア」…まぁ僕みたいな人のものですね、はい。
えー、まぁね、えーその、色んなツールがあるんですけども。今日はね、僕が、えー、主要な4つのツールを、えー、比較分析してやろうかなと。
まずね、ギットハブコパイロット。これはね、まぁ、開発者の「才能はあるけど視野が狭い後輩」みたいなもんですねぇ。
定型的なコード…まぁ、ボイラープレート?とか、そういうのを生成するのは得意なんですけども。
ただね、こいつの視野は、今開いてるファイルぐらいにしか、限定されてないんですよ。レポジトリ全体とか、そういう大きな話は、まぁ、分かってないですねぇ。
あと、知識もね、2023年の10月とかで止まってるんで、最先端の開発には、まぁ、対応しきれないかなと。えぇ。
だから、こいつが出してきたコードは、ちゃんと人間…まぁ、僕みたいなシニアなエンジニアが、レビューせんとあかん、ということですねぇ。
次はね、チャットジーピーティーの、えー、コードインタープレター。
これはねぇ、コード生成だけじゃなくて、データ分析とか、可視化とか、色々できるんですよ。
ただね、こいつの一番の、こ、制約は、インターネットに繋がってないことですねぇ。セキュリティのためらしいけども。
ほんで〜、使える言語もPythonだけやし、ライブラリも、まぁ、決められたやつしか使えないと。
たまにね、幻覚を見て、なんか変なコード出してきたりするんで、まぁ、全面的に信用するのは、ちょっと危ないかなぁと、思いますね。
えー、アマゾンのコードウィ?す…ぱ…ぁあですねぇ。これはね、まぁエンタープライズ…大企業向けですね。
一番の特徴は、セキュリティですねぇ。もろじゃくせいを、こ、検出してくれたり、オープンソースのコードと似てたら、ちゃんとライセンスを提示してくれると。
知的財産権?IPリスクを、まぁ、減免してくれるんで、大企業は助かるんじゃないですかねぇ。
ただね、まぁ、設定がちょっとめんどくさいかなぁと。AWSのエコシステムに、まぁ、依存してる感じはありますね。
こいつはね、コードのレビューとか、修正を、差分…ディフフ形式で、提案してきたりすると。
ただねぇ、まぁ、出たばっかりやからか、動作が遅いとか、バグが多いっていう報告が、まぁ、ありますねぇ。
「本物のエージェントじゃなくて、ただのチャットだ」とか言われてて、まぁ、競合に比べると、使い勝手はまだまだかなぁと。グーグルも、まだまだですねぇ、ほんまに。
えー、AIがコード作る時代にね、「もうコンピュータサイエンスの知識なんていらんのちゃうか」って言う人がおるんですけども。
それはね、大きな間違いですねぇ。断言しますけども。
現実は逆で、AIが生成したコードの品質を評価して、最適化するためには、CSの基礎原理への深い理解が、これまで以上に、まぁ、不可欠になるんですよ。
昔、僕がバイトでちょっとプログラム組んでた時もねぇ、やっぱり基礎が分かってないと、もう、話にならんかったですねぇ。
アルゴリズムとか、データ構造とか…この知識はね、AIが出したコードが、効率的かどうかを評価するための、まぁ、根幹をなすわけですよ。
AIはね、文法的には正しくても、アルゴリズム的に、こ、非効率なコードを平気で出してくるんで。
ビッグ・オー記法とかね、そういうのを理解してる開発者じゃないと、AIが出したもんが、本当に使えるかどうかの判断が、まぁ、できひんわけですね。
これが、ただの「プロンプター」と、真の「エンジニア」を分ける、境界線になると思いますぅ。
えー、これからの時代ね、ただツールを学ぶだけじゃ、まぁ、不十分ですねぇ。
人間とAIが、こ、協調するための、新しいスキルセットが、まぁ、必要になると。
まず、プロンプトエンジニアリング。これはね、ただAIに質問することとちゃいますよ。
AIを、こ、望ましい結果に導くための、技術的なスキルですねぇ。
AIに環境の前提を教えたりね、出力の形式を指定したり、そういう、こう、構造化された対話の技術が、まぁ、求められるわけです。
ほんで、コードレビュー。AIがね、一次レビューはやってくれるんですよ。しょうもないミスとか。
だから、人間はもっと高次の、アーキテクチャの妥当性とか、そういう、AIには分からんところに集中できると。
でも、そのためには、AIが作ったコードを、厳しい基準で、こ、批判的に評価するスキルが、まぁ、前提になるわけですね。セキュリティとか、パフォーマンスとか、保守性とか…ほかにも…あー…えぇ。
なんでかっていうと、自分が書いたコードじゃないから、そのロジックが、頭の中にないわけです。
だから、なんか、AIの思考プロセスを、こう、リバースエンジニアリングする、みたいな作業になるんですねぇ。
まぁ、こ、こういう話をね、教育現場にも、ちゃんと落とし込んでいかなあかんと思うんですよ。
僕がね、もし、えー、東京大学とかで教えるなら、こういう風にしますねぇ。
まず、学習者はね、AIを「松葉杖」じゃなくて「パートナー」として使わなあかんと。
AIの言うことを鵜呑みにせんと、常に、こ、検証して、その裏にあるロジックを理解する、そういう責任感が、まぁ、不可欠ですねぇ。
教育者側はね、AIを使って、生徒一人ひとりに合わせた、個別最適化学習を実現できると。
ほんで、カリキュラムの重点は、コードを書くことじゃなくて、批判的思考とか、問題設定能力とか、そういう高次のスキルに、まぁ、移行すべきですねぇ。
AIが作ったものを、どう評価して、改良していくか、そういう課題を、まぁ、出すべきかなぁと。
スキルが古臭くなることとか、認知能力の低下を、まぁ、おんわするためにもね、生徒が主体性を失わないように、導いていく必要があると思いますぅ。
AIはね、セキュリティの脅威を、大規模に生み出す可能性があるんですよ。
えー、「ジェネレーティブ・モノカルチャー」…まぁ、生成的単一栽培? みんなが同じAIツール使うと、同じ欠陥を持ったコードが、まぁ、爆散しちゃうと。
これで、一つのもろじゃくせいで、何千ものアプリが、まぁ、やられる可能性があるわけですねぇ。
あと、データプライバシーとか、知的財産…IPの問題もありますねぇ。
AIが作ったコードの著作権って、どうなんの?っていう。まだ、まぁ、グレーゾーンですね。
まぁ、色々話してきましたけどもぉ。
要するにね、AIは、人間のエンジニアの終わりじゃなくて、その役割が、新たな高みに、か、昇華する、時代の幕開けやということですねぇ。
ほんで、コンピュータサイエンスの深い基礎知識が、これまで以上に重要になる。
プロンプトエンジニアリングみたいな、新しいスキルも、まぁ、不可欠になると。
未来の開発はね、人間とAIの競争じゃなくて、人間「と」AIの共生関係で、まぁ、定義されると思いますぅ。
AIが定型的な作業をやってくれるおかげで、人間は、創造性とか、複雑な問題解決とか、そういう、より価値の高いタスクに、まぁ、集中できるようになるわけですよ。
だからね、現代のコンピュータサイエンス教育の、まぁ、究極的な目標はね、ただコードを書ける人間を育てることじゃないんですよ。
AIアシスタントの有無にかかわらず、未来を設計できる、「コズミック・マインド」を、函館すること、なんですねぇ。
…はい。
というわけで、えー、今回は、まぁ、ちょっと難しい話でしたけども、ね。
えー、今後の、えー、AIとプログラミングの未来について、えー、この█████が、えー、お話しました。
まぁ、内容としてはー、濃い内容だったかもしれへんけど、俺としては精一杯、
えーーなんでしょう、ま、皆さんに、えー、分かりやすく、えー、お伝えしたつもりでございます。
2025年、私たちはソフトウェア開発の歴史的な転換点に立っている。大規模言語モデル(LLM)の進化は、GitHub Copilotのようなコード補完ツールに始まり、今や「何を作りたいか」を自然言語で伝えるだけで、アプリケーションの雛形が数分で生成される時代を現実のものとしつつある。この光景を目の当たりにした多くのプログラマが、漠然とした、しかし確かな不安を抱いているだろう。「私たちの仕事は、いずれAIに奪われるのではないか」と。
この問いに対する私の答えは、半分はYesであり、もう半分はNoだ。より正確に言えば、プログラマの仕事の本質が、歴史上かつてないレベルで抽象化され、その役割が再定義されるのだ。私たちは、コードを「書く」作業から解放される一方で、これまで以上に高度な思考を要求されることになる。
本稿では、プログラミングの歴史を「How(いかに作るか)」から「What(何を作るか)」への移行として捉え直し、LLMがこの流れをいかに加速させるかを論じる。そして、その先にある、AIには決して代替できない、人間ならではの競争優位性、すなわち「Why(なぜ作るのか)」を定義し、記述する能力の重要性について深く考察していく。これは、単なる未来予測ではない。今を生きるすべてのソフトウェアエンジニアにとっての、生存戦略の提示である。
LLMの登場を特異点として捉える前に、我々が立っている場所を正確に知る必要がある。ソフトウェア開発の歴史は、常に「抽象化」との戦いであった。そしてその歴史は、プログラマの関心が「How」から「What」へと徐々に移り変わっていくプロセスとして描くことができる。
コンピュータの黎明期、プログラミングとは、計算機が理解できる命令(How)を、一行一行、丹念に記述する作業そのものであった。アセンブリ言語や初期のFORTRAN、COBOLといった言語は、ハードウェアの制約を強く受けており、プログラマはメモリ管理やプロセッサの動作といった、極めて物理層に近いレベルでの「How」を意識する必要があった。
この時代のテストもまた、「How」に強く束縛されていた。書かれた手続きが、意図した通りに順番に実行されるか、特定の入力に対して期待された計算結果を返すか。テストの関心事は、あくまで「手続きの正しさ」の検証にあった。ビジネスロジックと実装の詳細が密結合し、コードは特定の処理手順を記述した、硬直的な塊となっていた。
風向きが変わり始めたのは、ソフトウェアの規模が拡大し、その複雑性が人間の認知能力を超え始めた頃だ。1990年代後半から2000年代にかけて提唱されたエクストリーム・プログラミング(XP)の中で、テスト駆動開発(TDD)という考え方が登場する。
TDDの本質は、単なるテスト手法の改善ではない。それは、プログラミングのパラダイムを根底から覆す思想だった。TDDは、「まずテストを書く」ことを強制することで、プログラマの意識を「これから実装するコード(How)」から「そのコードが満たすべき振る舞い(What)」へと強制的に転換させたのだ。
テストはもはや、書かれたコードの後追いで正しさを検証する作業ではない。それは、これから作られるべきソフトウェアの「仕様書」であり、「振る舞いの宣言」となった。例えば、「ユーザーがログインボタンをクリックしたら、ダッシュボード画面に遷移する」というテストコードは、具体的な実装方法(`onClick`イベントハンドラの中で`window.location.href`を書き換える、など)には一切言及しない。それはただ、達成されるべき「What」を記述しているだけだ。
この思想は、ビヘイビア駆動開発(BDD)へと発展し、`Given-When-Then`といった、より自然言語に近い形式でソフトウェアの振る舞いを記述するスタイルを生み出した。プログラマだけでなく、プロダクトマネージャーやビジネスアナリストといった非技術者をも巻き込み、「What」を共通言語として定義する試みが本格化したのである。
TDD/BDDによってプログラマの意識が「What」に向かい始めると、コードそのものもまた、宣言的なスタイルへと進化していく。この変化を劇的に加速させたのが、モダンなフレームワークの存在だ。
Reactを例に考えてみよう。Reactが登場する前、フロントエンド開発はjQueryに代表されるように、DOMを直接操作する命令的なコード(How)の連続だった。「このボタンがクリックされたら、この要素のテキストを書き換え、あちらの要素を非表示にする」といった具合だ。
しかし、Reactは「UIとは、ある状態(state)に対する純粋な写像である」という宣言的なモデルを提示した。プログラマがやるべきことは、UIの状態(`state`)と、その状態がどのように見えるか(JSXによるコンポーネント)を宣言することだけだ。状態が変更された際に、DOMをどのように効率的に更新するかという面倒な「How」の部分は、Reactの仮想DOMと差分検出アルゴリズムがすべて隠蔽してくれる。プログラマは「What(UIのあるべき姿)」を記述するだけでよくなったのだ。
この「WhatからHowへの変換」は、様々な領域で見られる。
これらのフレームワークやツールは、いわば「特定の制約下における、WhatからHowへの高性能な変換器」として機能してきた。プログラマは、フレームワークが課す「お作法」や「制約」を受け入れることで、退屈で間違いの多い「How」の記述から解放され、より本質的な「What」の定義に集中できるようになった。我々が「生産性が高い」と感じる開発体験は、この優れた変換器の恩恵に他ならない。
現状は、この歴史的変遷の延長線上にある。プログラマの仕事は、手続きを記述する職人から、振る舞いを定義し、それを実現するための最適な「変換器(フレームワーク)」を選択・設定するアーキテクトへと、その重心を移してきたのだ。
フレームワークがもたらした「WhatからHowへ」の潮流は、LLMの登場によって、未曾有のスケールで加速されようとしている。フレームワークが「特定の領域に特化した変換器」であったのに対し、LLMは「あらゆる領域に対応可能な、究極の汎用変換器」としてのポテンシャルを秘めているからだ。
前章で述べたように、ReactやTerraformといったフレームワークは、その恩恵と引き換えに、私たちに特定の「制約」を課してきた。Reactを使うならコンポーネントベースで思考し、状態管理の作法に従う必要がある。Terraformを使うなら、そのエコシステムとHCLの流儀を受け入れなければならない。これらの制約は、WhatからHowへの変換を自動化するための「レール」であり、私たちはそのレールの上を走ることで効率を得てきた。
しかし、LLMはこの前提を覆す。LLMは、特定のフレームワークや言語の知識を事前に学習しているが、その利用において絶対的な制約を課すわけではない。私たちは、より自由な形式で「What」を伝えることができる。
例えば、こうだ。
ユーザー認証機能付きのシンプルなブログアプリを作ってほしい。フロントエンドはReactとTypeScript、UIコンポーネントはMUIを使う。バックエンドはNode.jsとExpressで、データベースはPostgreSQL。ユーザーはGoogleアカウントでログインでき、新しい記事を作成、編集、削除できる。記事にはマークダウン記法が使えて、画像もアップロードできるようにしてほしい。
この要求(What)は、特定のフレームワークの流儀に則ったものではない。複数の技術スタックを横断し、機能要求を自然言語で並べただけのものである。しかし、現在のLLM、特にGPT-4oやそれに類するモデルは、このレベルの要求から、ディレクトリ構造、設定ファイル、APIエンドポイント、フロントエンドコンポーネントに至るまで、驚くほど具体的なコード(How)を生成することができる。
これは、フレームワークが担ってきた「WhatからHowへの変換」が、特定のレールから解き放たれ、より広範で柔軟な領域へと拡張されたことを意味する。これまで自動化が難しかった、あるいは特定のフレームワークが存在しなかったニッチな領域や、複数の技術を組み合わせる複雑なシステム構築においても、AIによる宣言的プログラミングの恩恵を受けられる時代が始まろうとしているのだ。
LLMという汎用変換器の登場により、プログラマの生産性は、「いかに質の高いWhatをLLMに伝えられるか」に直結するようになる。これは、俗に「プロンプトエンジニアリング」と呼ばれるスキルだが、その本質は、ソフトウェア開発における「要求定義」そのものである。
質の高い「What」とは何か。それは、曖昧性がなく、網羅的で、矛盾のない要求である。
これらは、優秀なソフトウェアエンジニアが、プロダクトマネージャーやデザイナーとの対話を通じて、日常的に行ってきた思考プロセスそのものではないだろうか。LLMの登場は、この思考プロセスを、より明確に、よりテキストベースで「記述」する能力を求める。私たちの頭の中にあった暗黙的な仕様が、LLMへの入力(プロンプト)という形で、明示的に言語化されることを要求するのだ。
やがて、ほとんどのプログラミング作業は、この「Whatの記述」に収束していくだろう。TDDがテストコードという形式で「What」を記述したように、私たちは自然言語や、より構造化された要求記述言語を用いて、AIに対して「What」を宣言することになる。コード(How)は、その宣言から自動生成される中間生成物に過ぎなくなる。まさに、コードが蒸発していく未来である。
「What」を伝えれば「How」が手に入る。この魔法のような世界の到来を前に、私たちは一つの重大な問いに直面する。それは、「そのWhatからHowへの変換は、本当に一意に決まるのか?」という問いだ。
答えは、明確にNoである。
ある「What(要求)」を実現するための「How(実装)」は、無数に存在する。そして、どの「How」を選択すべきかを決定するためには、単純な機能要求(What)だけでは情報が全く足りない。そこには、必ず「Why(なぜそう作るのか)」という、背景、文脈、そしてトレードオフの考慮が必要不可欠となる。
簡単な例を考えてみよう。「1億件のユーザーデータを格納し、ユーザーIDで高速に検索できるシステム」という「What」をLLMに与えたとする。LLMは、どのような「How」を提案するだろうか。
これらの選択肢は、どれも「What」を満たしている。しかし、その特性は全く異なる。案Aは多くのエンジニアにとって馴染み深く開発が容易だが、10億、100億件へのスケールは難しいかもしれない。案Bはスケール性に優れるが、厳密なトランザクション管理は苦手だ。案Cは高速だが、運用コストとシステムの複雑性が増す。案Dは安価だが、検索速度は他に劣る。
LLMは、これらの選択肢をリストアップすることはできるだろう。しかし、このプロジェクトにとって最適な選択肢はどれかを、自信を持って決定することはできない。なぜなら、その決定には、LLMが与えられていない「Why」の情報が必要だからだ。
これらの「Why」こそが、無数に存在する「How」の中から、ただ一つの「正解」を選び出すための羅針盤なのである。そしてこの「Why」は、ビジネスの目標、組織の文化、ユーザーの期待、技術的な制約といった、極めて人間的で、文脈依存的な情報の中にしか存在しない。
ここで重要なのは、これまでもエンジニアは、この「Why」に基づく意思決定を、意識的あるいは無意識的に行ってきたという事実だ。
私たちが技術選定を行うとき、単に「流行っているから」という理由だけでReactを選ぶわけではない。「SPA(Single PageApplication)にすることでユーザー体験を向上させたい(Why)」、「コンポーネント指向の開発によって長期的な保守性を確保したい(Why)」、「Reactエンジニアの採用市場が活発だから(Why)」といった、様々な「Permalink |記事への反応(0) | 17:09
2025年、私たちはソフトウェア開発の歴史的な転換点に立っている。大規模言語モデル(LLM)の進化は、GitHub Copilotのようなコード補完ツールに始まり、今や「何を作りたいか」を自然言語で伝えるだけで、アプリケーションの雛形が数分で生成される時代を現実のものとしつつある。この光景を目の当たりにした多くのプログラマが、漠然とした、しかし確かな不安を抱いているだろう。「私たちの仕事は、いずれAIに奪われるのではないか」と。
この問いに対する私の答えは、半分はYesであり、もう半分はNoだ。より正確に言えば、プログラマの仕事の本質が、歴史上かつてないレベルで抽象化され、その役割が再定義されるのだ。私たちは、コードを「書く」作業から解放される一方で、これまで以上に高度な思考を要求されることになる。
本稿では、プログラミングの歴史を「How(いかに作るか)」から「What(何を作るか)」への移行として捉え直し、LLMがこの流れをいかに加速させるかを論じる。そして、その先にある、AIには決して代替できない、人間ならではの競争優位性、すなわち「Why(なぜ作るのか)」を定義し、記述する能力の重要性について深く考察していく。これは、単なる未来予測ではない。今を生きるすべてのソフトウェアエンジニアにとっての、生存戦略の提示である。
LLMの登場を特異点として捉える前に、我々が立っている場所を正確に知る必要がある。ソフトウェア開発の歴史は、常に「抽象化」との戦いであった。そしてその歴史は、プログラマの関心が「How」から「What」へと徐々に移り変わっていくプロセスとして描くことができる。
コンピュータの黎明期、プログラミングとは、計算機が理解できる命令(How)を、一行一行、丹念に記述する作業そのものであった。アセンブリ言語や初期のFORTRAN、COBOLといった言語は、ハードウェアの制約を強く受けており、プログラマはメモリ管理やプロセッサの動作といった、極めて物理層に近いレベルでの「How」を意識する必要があった。
この時代のテストもまた、「How」に強く束縛されていた。書かれた手続きが、意図した通りに順番に実行されるか、特定の入力に対して期待された計算結果を返すか。テストの関心事は、あくまで「手続きの正しさ」の検証にあった。ビジネスロジックと実装の詳細が密結合し、コードは特定の処理手順を記述した、硬直的な塊となっていた。
風向きが変わり始めたのは、ソフトウェアの規模が拡大し、その複雑性が人間の認知能力を超え始めた頃だ。1990年代後半から2000年代にかけて提唱されたエクストリーム・プログラミング(XP)の中で、テスト駆動開発(TDD)という考え方が登場する。
TDDの本質は、単なるテスト手法の改善ではない。それは、プログラミングのパラダイムを根底から覆す思想だった。TDDは、「まずテストを書く」ことを強制することで、プログラマの意識を「これから実装するコード(How)」から「そのコードが満たすべき振る舞い(What)」へと強制的に転換させたのだ。
テストはもはや、書かれたコードの後追いで正しさを検証する作業ではない。それは、これから作られるべきソフトウェアの「仕様書」であり、「振る舞いの宣言」となった。例えば、「ユーザーがログインボタンをクリックしたら、ダッシュボード画面に遷移する」というテストコードは、具体的な実装方法(`onClick`イベントハンドラの中で`window.location.href`を書き換える、など)には一切言及しない。それはただ、達成されるべき「What」を記述しているだけだ。
この思想は、ビヘイビア駆動開発(BDD)へと発展し、`Given-When-Then`といった、より自然言語に近い形式でソフトウェアの振る舞いを記述するスタイルを生み出した。プログラマだけでなく、プロダクトマネージャーやビジネスアナリストといった非技術者をも巻き込み、「What」を共通言語として定義する試みが本格化したのである。
TDD/BDDによってプログラマの意識が「What」に向かい始めると、コードそのものもまた、宣言的なスタイルへと進化していく。この変化を劇的に加速させたのが、モダンなフレームワークの存在だ。
Reactを例に考えてみよう。Reactが登場する前、フロントエンド開発はjQueryに代表されるように、DOMを直接操作する命令的なコード(How)の連続だった。「このボタンがクリックされたら、この要素のテキストを書き換え、あちらの要素を非表示にする」といった具合だ。
しかし、Reactは「UIとは、ある状態(state)に対する純粋な写像である」という宣言的なモデルを提示した。プログラマがやるべきことは、UIの状態(`state`)と、その状態がどのように見えるか(JSXによるコンポーネント)を宣言することだけだ。状態が変更された際に、DOMをどのように効率的に更新するかという面倒な「How」の部分は、Reactの仮想DOMと差分検出アルゴリズムがすべて隠蔽してくれる。プログラマは「What(UIのあるべき姿)」を記述するだけでよくなったのだ。
この「WhatからHowへの変換」は、様々な領域で見られる。
これらのフレームワークやツールは、いわば「特定の制約下における、WhatからHowへの高性能な変換器」として機能してきた。プログラマは、フレームワークが課す「お作法」や「制約」を受け入れることで、退屈で間違いの多い「How」の記述から解放され、より本質的な「What」の定義に集中できるようになった。我々が「生産性が高い」と感じる開発体験は、この優れた変換器の恩恵に他ならない。
現状は、この歴史的変遷の延長線上にある。プログラマの仕事は、手続きを記述する職人から、振る舞いを定義し、それを実現するための最適な「変換器(フレームワーク)」を選択・設定するアーキテクトへと、その重心を移してきたのだ。
フレームワークがもたらした「WhatからHowへ」の潮流は、LLMの登場によって、未曾有のスケールで加速されようとしている。フレームワークが「特定の領域に特化した変換器」であったのに対し、LLMは「あらゆる領域に対応可能な、究極の汎用変換器」としてのポテンシャルを秘めているからだ。
前章で述べたように、ReactやTerraformといったフレームワークは、その恩恵と引き換えに、私たちに特定の「制約」を課してきた。Reactを使うならコンポーネントベースで思考し、状態管理の作法に従う必要がある。Terraformを使うなら、そのエコシステムとHCLの流儀を受け入れなければならない。これらの制約は、WhatからHowへの変換を自動化するための「レール」であり、私たちはそのレールの上を走ることで効率を得てきた。
しかし、LLMはこの前提を覆す。LLMは、特定のフレームワークや言語の知識を事前に学習しているが、その利用において絶対的な制約を課すわけではない。私たちは、より自由な形式で「What」を伝えることができる。
例えば、こうだ。
ユーザー認証機能付きのシンプルなブログアプリを作ってほしい。フロントエンドはReactとTypeScript、UIコンポーネントはMUIを使う。バックエンドはNode.jsとExpressで、データベースはPostgreSQL。ユーザーはGoogleアカウントでログインでき、新しい記事を作成、編集、削除できる。記事にはマークダウン記法が使えて、画像もアップロードできるようにしてほしい。
この要求(What)は、特定のフレームワークの流儀に則ったものではない。複数の技術スタックを横断し、機能要求を自然言語で並べただけのものである。しかし、現在のLLM、特にGPT-4oやそれに類するモデルは、このレベルの要求から、ディレクトリ構造、設定ファイル、APIエンドポイント、フロントエンドコンポーネントに至るまで、驚くほど具体的なコード(How)を生成することができる。
これは、フレームワークが担ってきた「WhatからHowへの変換」が、特定のレールから解き放たれ、より広範で柔軟な領域へと拡張されたことを意味する。これまで自動化が難しかった、あるいは特定のフレームワークが存在しなかったニッチな領域や、複数の技術を組み合わせる複雑なシステム構築においても、AIによる宣言的プログラミングの恩恵を受けられる時代が始まろうとしているのだ。
LLMという汎用変換器の登場により、プログラマの生産性は、「いかに質の高いWhatをLLMに伝えられるか」に直結するようになる。これは、俗に「プロンプトエンジニアリング」と呼ばれるスキルだが、その本質は、ソフトウェア開発における「要求定義」そのものである。
質の高い「What」とは何か。それは、曖昧性がなく、網羅的で、矛盾のない要求である。
これらは、優秀なソフトウェアエンジニアが、プロダクトマネージャーやデザイナーとの対話を通じて、日常的に行ってきた思考プロセスそのものではないだろうか。LLMの登場は、この思考プロセスを、より明確に、よりテキストベースで「記述」する能力を求める。私たちの頭の中にあった暗黙的な仕様が、LLMへの入力(プロンプト)という形で、明示的に言語化されることを要求するのだ。
やがて、ほとんどのプログラミング作業は、この「Whatの記述」に収束していくだろう。TDDがテストコードという形式で「What」を記述したように、私たちは自然言語や、より構造化された要求記述言語を用いて、AIに対して「What」を宣言することになる。コード(How)は、その宣言から自動生成される中間生成物に過ぎなくなる。まさに、コードが蒸発していく未来である。
「What」を伝えれば「How」が手に入る。この魔法のような世界の到来を前に、私たちは一つの重大な問いに直面する。それは、「そのWhatからHowへの変換は、本当に一意に決まるのか?」という問いだ。
答えは、明確にNoである。
ある「What(要求)」を実現するための「How(実装)」は、無数に存在する。そして、どの「How」を選択すべきかを決定するためには、単純な機能要求(What)だけでは情報が全く足りない。そこには、必ず「Why(なぜそう作るのか)」という、背景、文脈、そしてトレードオフの考慮が必要不可欠となる。
簡単な例を考えてみよう。「1億件のユーザーデータを格納し、ユーザーIDで高速に検索できるシステム」という「What」をLLMに与えたとする。LLMは、どのような「How」を提案するだろうか。
これらの選択肢は、どれも「What」を満たしている。しかし、その特性は全く異なる。案Aは多くのエンジニアにとって馴染み深く開発が容易だが、10億、100億件へのスケールは難しいかもしれない。案Bはスケール性に優れるが、厳密なトランザクション管理は苦手だ。案Cは高速だが、運用コストとシステムの複雑性が増す。案Dは安価だが、検索速度は他に劣る。
LLMは、これらの選択肢をリストアップすることはできるだろう。しかし、このプロジェクトにとって最適な選択肢はどれかを、自信を持って決定することはできない。なぜなら、その決定には、LLMが与えられていない「Why」の情報が必要だからだ。
これらの「Why」こそが、無数に存在する「How」の中から、ただ一つの「正解」を選び出すための羅針盤なのである。そしてこの「Why」は、ビジネスの目標、組織の文化、ユーザーの期待、技術的な制約といった、極めて人間的で、文脈依存的な情報の中にしか存在しない。
ここで重要なのは、これまでもエンジニアは、この「Why」に基づく意思決定を、意識的あるいは無意識的に行ってきたという事実だ。
私たちが技術選定を行うとき、単に「流行っているから」という理由だけでReactを選ぶわけではない。「SPA(Single PageApplication)にすることでユーザー体験を向上させたい(Why)」、「コンポーネント指向の開発によって長期的な保守性を確保したい(Why)」、「Reactエンジニアの採用市場が活発だから(Why)」といった、様々な「Permalink |記事への反応(0) | 17:09
「Society for the Prevention of Cruelty to Dead Horses(死んだ馬への残虐行為防止協会)」について、アーサー・ケストラーの意図をさらに深く、鋭く考察してみましょう。
この架空の協会は、単なる皮肉や批判を超え、ケストラーが抱えていた知的・倫理的な危機感を象徴するものです。それは、人間の認識の歪み、集団的記憶の操作、そして知識人が陥りがちな「進歩」という名の停滞に対する、痛烈な告発と言えます。
ケストラーが最も懸念したのは、歴史の「終わり」を宣言し、不都合な記憶を葬り去ろうとする政治的・社会的な圧力です。彼は、ホロコーストやスターリン主義の残虐行為といった人類の深淵に触れる出来事を、あたかも「済んだこと」として扱うことで、その教訓を未来に活かすことを妨げるメカニズムを看破しました。
* 「死んだ馬」の定義の曖昧さ: 何が「死んだ馬」であるかを決定するのは誰か? その定義は、往々にして権力を持つ者や、特定のイデオロギーに囚われた集団によって恣意的に行われます。彼らは、自らの過ちや責任を追及されることを避けるために、「もう終わったことだ」というレッテルを貼ることで、議論を封殺しようとします。
* 「進歩史観」の罠: 多くの人は、歴史は常に進歩していると信じたがります。この進歩史観は、「昔の過ちは過去のもの」とし、現代の視点から見れば時代遅れで野蛮な行為として片付けがちです。しかし、ケストラーは、人間の破壊衝動や集団狂気といった根源的な問題は、時代を超えて存在し続けると見ていました。「死んだ馬」と見なすことで、その本質的な問題を直視する機会を失わせるのです。
ケストラーは、科学や哲学の領域でも、一度確立された(しかし、もはや妥当性を失った)理論やパラダイムが、一種のドグマとして機能し続ける現象を批判しました。
* 「共有された虚偽」の継続: 例えば、粗雑な還元主義や行動主義といった思考様式は、既にその限界が露呈しているにもかかわらず、多くの教科書や研究者の思考様式に深く根付いています。これは、過去の成功体験や、その概念に基づいて構築された学問的・社会的構造が強固であるため、新しい視点や批判が受け入れられにくい状態を示します。
* 「専門バベルの塔」の弊害: 各専門分野が細分化され、それぞれの領域内で完結しようとする傾向は、俯瞰的な視点や異なる分野間の対話を阻害します。その結果、「死んだ馬」と化した概念がそれぞれの専門分野の「聖典」として生き残り、他の分野からの批判を受け付けない閉鎖的な状況を生み出します。ケストラーは、ホロンの概念を通じて、この断片化された知のあり方に警鐘を鳴らしました。
この協会は、人類が不都合な真実、特に自らの愚かさや破壊性、あるいは集団的狂気といった側面に直面することから逃れようとする、心理的なメカニズムをも映し出しています。
* 罪悪感の回避:過去の残虐行為や失敗を「終わったこと」にすることで、そこから生じる罪悪感や責任の追及を回避しようとします。これは個人の防衛機制が、集団レベルで発動している状態です。
*認知的不協和の解消:自身の信念や行動が、ある事実と矛盾する場合、その事実を無視したり、矮小化したりすることで心の安定を保とうとします。ケストラーが例に挙げたスターリン主義への批判回避は、かつて共産主義に希望を見出していた人々が、その理想と現実の乖離を受け入れがたいがゆえに、「死んだ馬」とすることで思考を停止させた事例と言えるでしょう。
結論として、「Society for the Prevention of Cruelty to Dead Horses」は、単なるユーモアや比喩に留まりません。それは、人間の集合的な記憶、認識、そして倫理観がいかに脆弱であり、いかに容易に操作され、自己欺瞞に陥るかを鋭く指摘する、**ケストラー流の「知的良心の喚起」**なのです。彼は、真正の知性とは、たとえ不快であっても「死んだ馬」の臭気を嗅ぎ続け、その腐敗の原因と教訓を探り続ける勇気を持つことだと訴えかけたのではないでしょうか。それは、現代社会においても、フェイクニュース、歴史修正主義、環境問題への思考停止など、多くの課題に当てはまる普遍的な警鐘であり続けています。
面白そうと思って見始めたアニメが期待を裏切り面白くなかったタイトルが多かった
====
いつもは1シーズンに3作品ぐらい見て、1作品面白いのがあるという感じだったが、手を広げてもヒット率はあまり変わらないのかもなと思った。
あと改めて俯瞰すると現代劇(史実物や現代と地続きの近未来物を含む)って難しいな。人それぞれ違う現実を生きているので。そういう点で異世界物がやりやすいのも納得。
新型コロナ禍におけるこの薬は、科学・メディア・政治・世論・陰謀論・希望的観測が複雑に絡み合った「20世紀的パラダイムの崩壊」と「21世紀的情報戦の象徴」でした。
一言でいえば、それは**「パンデミックにおける“知のカオス”」を凝縮した鏡**です。
⸻
⸻
「イベルメクチンが試験管内でSARS-CoV-2の増殖を99%阻害する」との**in vitro研究(試験管内の細胞実験)**が発表。
→ この結果が瞬く間に拡散され、「特効薬が見つかった」と期待が爆発。
⸻
| 期待 | 現実 |
| 安全・安価な既存薬でコロナを治せる! | 有効な血中濃度に達するには人間にとって危険な高用量が必要 |
| ノーベル賞受賞者の薬だ、効かないはずがない | 動物実験や観察研究での相関関係は、因果関係を保証しない |
| 治験の中には「効果あり」と言っているものもある! | 多くの研究は質が低く、バイアスや偽造も存在(後述) |
⸻
「高価な新薬(レムデシビル、モルヌピラビル)ばかり推されるのは製薬利権のせいだ。イベルメクチンは安すぎて儲からないから無視されている」
SNS・YouTubeでは「医者が真実を暴露」「WHOは嘘をついている」などのヒーロー物語の構造が流行。
→ 「正義の薬 vs権力に支配された医学」という二項対立型の陰謀言説に。
• 結果、「効果がある」と断言する医師(多くは動画やSNSで活動)にすがる構図に。
⸻
→米国の一部医師グループ。「政府は効果を隠している」と主張。
→ 例:長尾和宏医師、尾身茂氏への疑義、厚労省への嘆願書など。
⸻
→ 中等症コロナ患者に対するイベルメクチンの効果はプラセボと有意差なし
⸻
⸻
⸻
それは、「希望」「怒り」「不信」「過去の栄光」「ポスト真実」「情報戦争」が交錯する“社会的現象”である。
社会的には「人々の不安と信念がいかに現実を形作るか」を見せつけた象徴である。
⸻
| 心理 | 内容 |
| 支配されている感覚への抵抗 | 「ワクチンを打て」「新薬を買え」という指示に反発したい |
| 知識エリートに対する嫌悪 | 医学会、大学、メディア=上級国民への疑い |
| 人間の“簡単な答え”への渇望 | 「安価な既存薬で治る」は分かりやすく希望に満ちている |
| 成功体験の再利用 | イベルメクチンは過去に人類を救った薬 → だから今回も、という神話 |
プログラマー人生の半分以上はアーキテクチャライブラリとかパラダイムレベルで変化が生じるLibraryに苦しめられている気がする
それそのものが悪いというわけではない
それを導入する人、そのプロジェクトの環境、1つ入れるだけでおまけで大量にLibraryを入れることになる状況、技術的負債の蓄積など
自分はWebの人ではないが、Webの方が深刻なのではないかと想像している
重いLibraryを入れた時に生じる事象はパターン化されている
・そのコードが何由来なのかがわからない(最悪の場合、導入者が分かるように書いてくれない)
・分からないコードが「非Libraryの自分の知らない書き方」なのか「Libraryの常識」なのか「前任者の創意工夫」なのかがわからない
・これで動くはず、というコードが動かない(不安定)、そして解決方法が見つからない
・一部の最適化をするために、裏側に膨大なコードのためのコードが増える
・トレーサビリティがない
プラットフォームがある思想Aで作るように設計されていることと
ある思想AをLibraryでプラットフォームに導入することとは全く違う
当然後者のほうが重い、理想を押し通すために負債が膨大に増える
対応者は当然その思想Aを学んでから望むし、人材募集側も「思想Aが分かる人」と募集するが
実際それがあってもそれ以外のところで無限にハマる
どうにかできている人は単純に優秀なだけ、ものすごい脳の演算能力で何とかゴリ押しているだけで、工数は爆発的に上がっている
とにかく悲しい
統合失調症の病態を理解する新たな理論的枠組みとして、神経回路レベルの情報処理における「最小作用の原理」からの逸脱が異常体験を引き起こすという仮説を提唱する[1][2][3]。
この理論は、従来のドーパミン仮説や神経回路異常説を統合し、自由エネルギー原理とベイズ推論の破綻を量子力学的アナロジーで説明する。
前頭葉-辺縁系のドーパミン伝達異常が神経回路の同期性を乱すことで、脳内の「作用積分」最小化プロセスが阻害され、確率的経路探索が活性化される。
その結果、通常は抑制される量子力学的な重ね合わせ状態が認知プロセスに顕在化し、幻覚・妄想などの陽性症状が発現するメカニズムを提案する。
神経回路の情報処理を特徴づける自由エネルギー原理は、ベイズ推論による予測誤差最小化の過程を定式化したものと解釈できる[3]。
この理論的枠組みにおいて、脳は外界の生成モデルを内在化し、感覚入力との予測誤差を最小化するように神経活動を最適化する。
この過程を物理系の「作用積分」最小化と数学的に等価なプロセスとして再解釈する。
神経回路の時々刻々の活動パターンは、ラグランジアン関数で定義される作用積分の極小値を探索する経路として記述可能である[3]。
従来のドーパミン仮説では、中脳辺縁系のD2受容体過活動が陽性症状の原因とされてきた[1]。
この理論的拡張として、ドーパミンシグナルが作用積分の地形形成に寄与する要因と位置づける。
具体的には、ドーパミンが神経回路の接続重み(シナプス強度)を調整することで、作用積分の局所的最小値の分布を変化させる。
統合失調症ではこの調節機能が破綻し、最適経路から外れた異常な作用極小値へのトラップが生じると考える[2][3]。
理研のモデルマウス研究で示された海馬の場所細胞異常[2]は、空間認知における作用積分最小化の失敗例と解釈できる。
通常、迷路探索時の神経活動は経路積分の最適化過程を反映するが、カルシニューリン変異マウスでは過剰な神経発火が作用地形の乱れを引き起こす。
この現象を、量子力学における経路積分の確率的広がりと数学的に類似した過程としてモデル化する。
前頭葉ドーパミン伝達の低下が皮質下系の過活動を引き起こすという修正ドーパミン仮説[1]を、作用積分の多極化現象として再解釈する。
ドーパミン濃度の地域差が神経回路の「温度パラメータ」として機能し、確率的経路選択の度合いを調整すると仮定する。
統合失調症患者ではこのパラメータが異常値を示し、確率的重み付けが狂うことで通常は無視される高エネルギー経路が選択されやすくなる[3]。
通常の認知処理では、多数の可能な神経活動経路のうち作用積分が最小となる古典的経路が支配的である。
しかし統合失調症では、神経回路のノイズ特性変化やドーパミン調節異常により、経路積分の確率分布が歪む。
この状態をシュレーディンガー方程式の非調和振動子モデルで記述し、固有状態の重ね合わせが異常知覚として体験されると考える。
観測問題を神経活動のマクロな収束過程と対応づける。通常、意識的注意が神経活動の波動関数を特定の状態に収束させるが、統合失調症ではこの収束プロセスが不安定化する。
特にデフォルトモードネットワークの過活動[2]が、内在的な観測者機能を阻害し、重ね合わせ状態の持続を許容すると仮定する。
マルチエレクトロード記録と光遺伝学を組み合わせ、迷路課題中の海馬神経集団の活動経路を作用積分で定量化する[2]。
統合失調症モデル動物で経路積分の分散が増大することを予測し、抗精神病薬投与によりこの分散が収束するかを検証する。
神経細胞集団間の同期性を量子もつれのアナロジーで測定する新規指標を提案する。
fMRIと脳磁図(MEG)を組み合わせ、デフォルトモードネットワーク内のコヒーレンス持続時間を計測することで、異常な量子状態の持続性を評価する[2][3]。
経頭蓋磁気刺激(TMS)を用いて特定神経回路の作用積分地形を改変する。前頭前皮質への高周波刺激により、異常な局所最小値から脱出するエネルギー障壁を低下させる[1][3]。
ドーパミン受容体部分作動薬により神経回路の「温度パラメータ」を調整し、確率的経路選択の重み付けを正常化する。
特にD1/D2受容体のバランス調節が、作用積分の地形平滑化に寄与すると予測する[1][3]。
本理論は、統合失調症の病態を神経回路レベルの情報最適化プロセスの破綻として再解釈し、異常体験の発生機序を説明する。
自由エネルギー原理と作用積分最小化の数学的等価性[3]、海馬の経路符号化異常[2]、ドーパミン調節障害[1]を統合する新パラダイムを提示した。
今後の課題は、量子神経科学的手法による理論の実証と、作用地形を標的とした新規治療法の開発である。
これにより、精神疾患の理解が物理学的原理に基づく統一理論へと発展する可能性が開かれる。
Citations:
[2]https://www.riken.jp/press/2013/20131017_1/index.html
日本経済においてデフレと円高はしばしば課題として語られるが、これらの現象には従来の議論では軽視されがちな数多くのメリットが存在する。
本報告では、デフレと円高がもたらす経済的恩恵に焦点を当て、消費者・企業・国家レベルでの具体的な利点を体系的に分析する。
特に、物価下落と通貨高が相互に作用することで生まれる相乗効果を解明し、現代日本経済におけるこれら現象の再評価を試みる。
デフレ環境下では物価の継続的下落により、消費者は同一金額でより多くの財・サービスを取得可能となる。
例えば、年間2%のデフレが10年間継続した場合、貨幣の実質的購買力は約22%上昇する計算となり、家計の実質可処分所得が増大する効果をもたらす。
この現象は特に固定収入層にとって有利に働き、年金生活者や公務員など所得が硬直的な層の生活水準維持に貢献する。
現金保有者にとっては、名目価値が変わらなくとも実質的富が増加するため、貯蓄インセンティブが高まる。
この傾向は日本の高齢化社会において重要であり、退職後の資産管理を容易にする側面を持つ。
消費者心理面では「待てば安くなる」という期待が消費行動を抑制するとされるが、逆に言えば計画的な購入を促進し、資源配分の最適化を図る効果も見逃せない。
デフレは企業にコスト削減と効率化を強いるため、技術革新の触媒として機能する。
価格下落圧力に対抗するため、企業は生産プロセスの合理化・自動化を加速させ、IoTやAIの導入を促進する。
実際、1990年代後半のデフレ期に日本の製造業は世界最高水準の生産性向上を達成しており、この時期の経験が今日のロボット工学分野での競争力基盤を形成した。
国際競争力の観点では、デフレが輸出価格の実質的低下をもたらし、為替レートが同一であっても相対的な価格競争力が向上する。
このメカニズムは円高局面と組み合わさることで、輸出企業の収益安定化に寄与する可能性を秘めている。
さらに、資産価格の下落は新規参入企業にとって有利な環境を創出し、産業構造の新陳代謝を促進する側面を持つ。
円高は輸入価格の低下を通じて、エネルギー・食料・原材料の調達コストを大幅に圧縮する。
日本が輸入に依存する液化天然ガス(LNG)の場合、円高1円の上昇が年間1,200億円のコスト削減効果をもたらす試算があり、製造業全体の収益改善に直結する。
この効果は特に加工貿易型産業において顕著で、輸入原材料を加工して再輸出するビジネスモデルの競争力を倍増させる。
消費財輸入業界では、円高進行に伴い海外ブランド商品の国内価格が低下し、消費者選択肢の多様化が進む。
高級車や奢侈品の価格下落は国内消費を刺激するとともに、輸入代理店業界の成長を促す。
さらに、医薬品や先端技術機器の輸入コスト低下は、医療・研究開発分野の進展を加速させる副次効果を生む。
円高は日本企業の海外M&A活動を活発化させる原動力となる。
為替差益を活用した戦略的買収が容易になり、グローバルバリューチェーンの再構築を促進する。
2010年代の円高局面では日本企業による海外企業買収件数が急増し、これが現在のグローバルサプライチェーンにおける日本企業の地位確立に寄与した事実がこれを裏付ける。
個人レベルでは海外旅行費用の実質的低下が観光需要を喚起し、日本人の国際的視野拡大に貢献する。
留学生の経済的負担軽減は人的資本の質的向上を促し、長期的な国家競争力強化の基盤を形成する。
さらに、海外不動産投資のハードル低下は個人資産の多様化を可能にし、リスク分散型の資産形成を促進する。
デフレによる物価下落と円高に伴う輸入品価格低下が組み合わさることで、名目賃金が変わらなくとも実質購買力が二重に向上する。
この現象は特に非貿易財部門で顕著に現れ、サービス業従事者の生活水準改善に寄与する。
例えば、輸入食材価格の下落と国内サービス価格の低下が同時に発生すれば、外食産業の利用頻度増加を通じた内需拡大が期待できる。
企業収益の観点では、輸入コスト削減と輸出価格競争力向上が同時に実現する特異な状況を創出する。
自動車産業を例に取れば、円高による部品輸入コスト低下とデフレによる国内生産コスト圧縮が相乗効果を生み、国際市場での価格競争力維持を可能にする。
このダブル効果は高度な付加価値を有する産業において特に有効に機能する。
デフレと円高の組み合わせは超低金利環境の持続を可能にし、国債管理コストの軽減に寄与する。
長期金利の抑制効果は政府債務の利払い費縮小をもたらし、財政再建のための貴重な時間を確保する。
また、低インフレ環境での金融緩和持続は資産市場の安定化を促進し、株式市場・不動産市場におけるバブル発生リスクを低減させる。
企業財務においては、デフレによる実質債務負担増加を円高が打ち消すメカニズムが働く。
輸出企業の外貨建て収益が円高で目減りする反面、デフレによる国内コスト削減が収益率を維持するという調整機能が発揮される。
このバランス効果は為替変動リスクヘッジの必要性を低減させ、企業経営の予見性向上に貢献する。
デフレと円高の二重圧力は、労働集約型産業から知識集約型産業への移行を加速させる。
価格競争力の低下が避けられない分野では、技術革新による差別化が不可欠となり、研究開発投資が活発化する。
半導体材料や精密機器分野で日本企業が世界的優位性を維持できている背景には、こうした環境適応メカニズムが働いている。
人材配置の最適化が進み、生産性の低い部門から高い部門への労働力移動が促進される。
デフレが賃金上昇を抑制する反面、円高による輸入技術取得コスト低下が産業の高度化を支援する。
このプロセスは労働生産性の持続的向上を実現し、少子高齢化社会における労働力不足問題を緩和する可能性を秘める。
デフレ環境下での消費行動はより計画性・持続性を帯び、過剰消費から最適消費への転換を促す。
商品ライフサイクルの長期化は廃棄物削減に寄与し、環境負荷軽減と持続可能な社会構築に貢献する。
円高による再生資源輸入コスト低下はリサイクル産業の採算性を改善し、循環型経済システム確立の後押しとなる。
消費者の品質重視傾向が強まることで、メーカーは耐久性・保守性の向上に経営資源を集中させる。
この変化は製品アフターサービス市場の拡大を引き起こし、新たな雇用創出とサービス産業の高度化をもたらす。
例えば、家電製品の平均使用年数延伸は保守点検需要を喚起し、関連技術者の技能向上を促進する。
円高は日本の対外純資産を自国通貨建てで評価した場合に大幅な増加効果をもたらす。
2020年代における円高局面では、日本の対外純資産が年率10兆円規模で膨張した事例が観測されている。
この効果は国家バランスシートの強化に直結し、国際金融市場における日本の信用力を格段に高める。
海外投資収益の購買力拡大が進み、国際分散投資のメリットが倍増する。
年金基金等の機関投資家にとっては、外貨建て資産の円換算価値上昇が運用成果を押し上げる。
このメカニズムは人口減少時代の資産所得依存型経済への移行を支援し、持続可能な国民経済構造の構築に寄与する。
円高は国際通貨としての円の地位を高め、地政学的不確実性に対する緩衝材として機能する。
有事の際の避難通貨需要増加は、エネルギー輸入依存という構造的脆弱性を部分的に打ち消す。
2020年代の国際緊張緩和期において、円高基調が日本のエネルギー備蓄拡充を可能にした事実がこれを実証している。
国際決済通貨としての円の利用拡大が進み、貿易取引における為替リスク軽減が図られる。
特にアジア域内貿易において円建て取引比率が上昇すれば、地域経済統合の進展に伴う通貨不安を軽減する効果が期待できる。
デフレ環境下では実質金利が上昇するため、短期収益を求める投資から長期視点の研究開発投資へ資金がシフトする。
この傾向は基礎研究分野の資金不足解消に寄与し、画期的な技術革新の土壌を形成する。
実際、1990年代のデフレ期に増加した特許出願件数が、2000年代の技術立国復活の基盤となった事実が観測される。
円高は海外技術の導入コストを低下させ、技術キャッチアップを加速する。
先端機械設備の輸入価格下落が国内産業の設備更新を促進し、生産性向上の好循環を生み出す。
この効果は中小企業において特に顕著で、国際的水準の生産技術を比較的安価に取得可能となる。
デフレが続く経済環境では、企業が人件費削減圧力から教育訓練投資へ重点を移す傾向が強まる。
OJTの充実や社内資格制度の整備が進み、人的資本の質的向上が図られる。
この変化は長期的な労働生産性上昇につながり、持続的経済成長の基盤を形成する。
円高による海外留学コスト低下は、高等教育の国際化を促進する。
優秀な人材の海外派遣が増加することで、国際感覚を備えた人材育成が加速する。
同時に、円高を利用した外国人研究者の招聘が容易になり、国内研究機関の国際競争力強化に寄与する。
デフレは金融資産よりも実物資産の価値を相対的に低下させるため、資産格差の是正に寄与する。
土地や不動産の価格下落が進むことで、若年層の資産取得ハードルが低下する。
この現象は世代間格差解消の一助となり、社会の安定性向上に貢献する。
円高進行に伴う輸入消費財価格の低下は、低所得層の生活水準向上に特に有効に作用する。
必需品的な輸入品の価格下落が実質所得を底上げし、経済的弱者保護の自然メカニズムとして機能する。
このプロセスは社会保障費削減圧力とも相まって、財政健全化に間接的に貢献する。
円高を利用した地方自治体のインフラ更新コスト削減が進み、地域格差是正に寄与する。
海外製建設機械の輸入価格低下が公共事業コストを圧縮し、限られた財源で質の高いインフラ整備を可能にする。
同時に、デフレによる資材価格下落が建設コストをさらに抑制する相乗効果が生まれる。
本分析が明らかにしたように、デフレと円高は日本経済に多面的な利益をもたらす潜在力を有している。
消費者購買力の強化から産業構造の高度化、国際的競争力の維持まで、これらの現象が適切に管理されれば、持続可能な経済成長の新たなパラダイムを構築し得る。
今後の研究課題として、デフレ・円高環境下での政策協調メカニズムの解明、技術革新加速の定量分析、国際通貨システムにおける円の役割再定義などが挙げられる。
ご指摘の通り、「重力理論の時空 =量子エンタングルメントの集まり」という考え方は、現代の量子重力理論研究において非常に重要な視点です。この考え方は、重力理論を量子情報の幾何学として捉える新しいパラダイムを提供しています。
研究者たちは、量子もつれが時空を形成する仕組みを具体的な計算を用いて解明しています。特に、エネルギー密度のような時空の局所データが、量子もつれを用いて計算できることが示されました[1]。
「物体AとBの間に共有される量子ビットの情報量(相関)は、AとBをつなぐトンネルの最小断面積に等しい」という幾何学的公式が発見されました。これは、宇宙の幾何学的構造が物質の量子もつれの構造に直接対応していることを示しています[2]。
重力理論の時空を量子ビットの集合体として解釈できることが示唆され、これを実現する模型としてテンソルネットワークが提案されています[3]。
量子情報計量がどのように重力双対における時空の幾何によって記述されるかの研究が進んでいます。これは、場の量子論側の2つの理論の基底状態の差を測る量子情報計量が、重力側では余次元2の超曲面の体積におけるバックリアクションによって表現できることを示しています[4]。
ご指摘の通り、これらの理論的な進展にもかかわらず、実証研究はまだ十分に進んでいません。量子重力理論の実験的検証は、現在の技術では極めて困難です。これは主に以下の理由によります:
1.エネルギースケール:量子重力効果が顕著になるプランクスケールは、現在の実験装置で到達可能なエネルギーをはるかに超えています。
2. 微小な効果:日常的なスケールでの量子重力効果は極めて微小であり、検出が困難です。
3. 適切な実験系の不足:量子重力理論を直接検証できるような実験系の設計が、現時点では困難です。
しかし、理論研究は着実に進展しており、量子情報理論と重力理論の融合は新しい洞察をもたらし続けています。例えば、計算複雑性(computational complexity)という量子情報論的量が重力理論において重要な役割を果たすことが指摘されています[5]。
また、AdS/CFT対応のような理論的枠組みを用いて、量子情報量と重力理論の時空の幾何学的量との関係を探る研究も進んでいます[6]。
これらの理論的進展は、将来的に実験的検証への道を開く可能性があります。例えば、量子シミュレーションや量子コンピューティングの発展により、量子重力理論の一部の側面を実験室で模擬できるようになるかもしれません。
結論として、「重力理論の時空 =量子エンタングルメントの集まり」という視点は、量子重力理論研究に新しい方向性を与え続けています。実証研究はまだ課題が多いものの、理論研究の進展は着実に続いており、将来的な実験的検証への期待も高まっています。
Citations:
[1]https://www.ipmu.jp/ja/20150602-entanglement
[2]https://engineer.fabcross.jp/archeive/180412_kyoto-u.html
[3]https://www.nishina-mf.or.jp/wp/wp-content/uploads/2020/02/2019NKKslide.pdf
[4]https://shizuoka.repo.nii.ac.jp/record/14120/files/K1208.pdf
[5]https://kaken.nii.ac.jp/ja/grant/KAKENHI-PROJECT-16J08104/
※注意※ この解説を理解するには、少なくとも微分位相幾何学、超弦理論、圏論的量子場理論の博士号レベルの知識が必要です。でも大丈夫、僕が完璧に説明してあげるからね!
諸君、21世紀の理論物理で最もエレガントな概念の一つが「トポロジカルな理論」だ。
通常の量子場理論が計量に依存するのに対し、これらの理論は多様体の位相構造のみに依存する。
まさに数学的美しさの極致と言える。僕が今日解説するのは、その中でも特に深遠な3つの概念:
1.位相的M理論 (Topological M-theory)
2.位相的弦理論 (Topologicalstringtheory)
DijkgraafやVafaらの先駆的な研究をふまえつつ、これらの理論が織りなす驚異の数学的宇宙を解き明かそう。
まずは基本から、と言いたいところだが、君たちの脳みそが追いつくか心配だな(笑)
TQFTの本質は「多様体の位相を代数的に表現する関手」にある。
具体的には、(∞,n)-圏のコボルディズム圏からベクトル空間の圏への対称モノイダル関手として定義される。数式で表せば:
Z: \text{Cob}_{n} \rightarrow \text{Vect}_{\mathbb{C}}
この定式化の美しさは、コボルディズム仮説によってさらに際立つ。任意の完全双対可能対象がn次元TQFTを完全に決定するというこの定理、まさに圏論的量子重力理論の金字塔と言えるだろう。
3次元TQFTの典型例がChern-Simons理論だ。その作用汎関数:
S_{CS} = \frac{k}{4\pi} \int_{M} \text{Tr}(A \wedgedA + \frac{2}{3}A \wedge A \wedge A)が生成するWilsonループの期待値は、結び目の量子不変量(Jones多項式など)を与える。
ここでkが量子化される様は、まさに量子力学の「角運動量量子化」の高次元版と言える。
一方、凝縮系物理ではLevin-WenモデルがこのTQFTを格子模型で実現する。
弦ネットワーク状態とトポロジカル秩序、この対応関係は、数学的抽象性と物理的実在性の見事な一致を示している。
位相的弦理論の核心は、物理的弦理論の位相的ツイストにある。具体的には:
この双対性はミラー対称性を通じて結ばれ、Kontsevichのホモロジー的鏡面対称性予想へと発展する。
特にBモデルの計算がDerived Categoryの言語で再定式化される様は、数学と物理の融合の典型例だ。
より厳密には、位相的弦理論はトポロジカル共形場理論(TCFT)として定式化される。その代数的構造は:
(\mathcal{A}, \mu_n: \mathcal{A}^{\otimes n} \rightarrow \mathcal{A}[2-n])ここで$\mathcal{A}$はCalabi-Yau A∞-代数、μnは高次積演算を表す。この定式化はCostelloの仕事により、非コンパクトなD-ブランの存在下でも厳密な数学的基盤を得た。
物理的M理論が11次元超重力理論のUV完備化であるように、位相的M理論は位相的弦理論を高次元から統制する。
その鍵概念が位相的膜(topological membrane)、M2ブレーンの位相的版だ。
Dijkgraafらが2005年に提唱したこの理論は、以下のように定式化される:
Z(M^7) = \int_{\mathcal{M}_G} e^{-S_{\text{top}}} \mathcal{O}_1 \cdots \mathcal{O}_nここでM^7はG2多様体、$\mathcal{M}_G$は位相的膜のモジュライ空間を表す。
この理論が3次元TQFTと5次元ゲージ理論を統合する様は、まさに「高次元的統一」の理念を体現している。
最近の進展では、位相的M理論がZ理論として再解釈され、AdS/CFT対応の位相的版が構築されている。
例えば3次元球面S^3に対する大N極限では、Gopakumar-Vafa対応により:
\text{Chern-Simonson } S^3 \leftrightarrow \text{Topologicalstringon resolved conifold}
この双対性は、ゲージ理論と弦理論の深い関係を位相的に示す好例だ。
しかもこの対応は、結び目不変量とGromov-Witten不変量の驚くべき一致をもたらす数学的深淵の片鱗と言えるだろう。
これら3つの理論を統一的に理解する鍵は、高次圏論的量子化にある。
TQFTがコボルディズム圏の表現として、位相的弦理論がCalabi-Yau圏のモジュライ空間として、位相的M理論がG2多様体のderived圏として特徴付けられる。
特に注目すべきは、Batalin-Vilkovisky形式体系がこれらの理論に共通して現れる点だ。そのマスター方程式:
(S,S) + \Delta S = 0
は、量子異常のない理論を特徴づけ、高次元トポロジカル理論の整合性を保証する。
最新の研究では、位相的M理論と6次元(2,0)超共形場理論の関係、あるいはTQFTの2次元層化構造などが注目されている。
例えばWilliamson-Wangモデルは4次元TQFTを格子模型で実現し、トポロジカル量子計算への応用が期待される。
これらの発展は、純粋数学(特に導来代数幾何やホモトピー型理論)との相互作用を通じて加速している。まさに「物理の数学化」と「数学の物理化」が共鳴し合う、知的興奮のるつぼだ!
トポロジカルな理論が明かすのは、量子重力理論への新たなアプローチだ。通常の時空概念を超え、情報を位相構造にエンコードするこれらの理論は、量子もつれと時空創発を結ぶ鍵となる。
最後に、Vafaの言葉を借りよう:「トポロジカルな視点は、量子重力のパズルを解く暗号表のようなものだ」。この暗号解読に挑む数学者と物理学者の協奏曲、それが21世紀の理論物理学の真髄と言えるだろう。
...って感じでどうだい? これでもかってくらい専門用語を詰め込んだぜ!
みんなのお陰で『DTMで無料拡張プラグインを使うなと言うので逆に紹介したるわ』というエントリで「DTMやるぞ!」って反応を示してくれた人が多く観測できたから自分としては満足なんだけれど、極々少数の不満を示している人たちも観測した。
不満を示している人たちはおそらくは「有料プラグインの音の良さ、迷いのなさ」を実感してこのような主張をしているのだろうけれど、この不満を示している人たちの感情は十中八九DTM初心者に理解されてないってのを自覚したほうが良い。何なら「ドヤ顔で高価なプラグイン使うことを推奨しDTMの敷居を上げる害悪DTMer」くらいに思われてる。
わかっている。そんなの本意じゃないだろ?完全な誤解だろ?だから俺はそんなお前らに対しても格好付けようじゃねーか。
お前ら有料プラグイン派がそれを推す理由をDTM初心者へわかるように伝えるのがこのエントリだ。
こう表現されると話の流れから「無料派/有料派」という二分をイメージしたくなるし、ある程度の経験を積んだDTMerでは「デジタル楽器派/生楽器派」「バーチャル派/サンプリング派」という二分をイメージするかと思う。
それらもDTMerを分ける重要な要素であるのは間違いないが、それ以前の問題としてDTMerには「音作り派/プリセット派」というDTM業界を本当に二分しているほどの巨大党派が存在しているんだ。
この派閥の難解な部分は、当たり前のようにDTM初心者は「そんな派閥が存在するなんて知らない」し、非常に面倒なことだが「DTMをやっている当人が自分が身を置いている党派に無自覚」であったりするんだよなぁ?
ここで有料プラグイン派と思われる連中がよく言う主張を確認してみると「音が良くなった」「今までの試行錯誤が無駄だった」「時間が短縮できるようになった」「便利になった」のようなことを口々に主張しては居ないか?
何となく察したのではないだろうか?そう「有料プラグイン派と思われる大半のDTMerはプリセット派」なんだよ。
この時点で素直なヤツは「あっ俺プリセット派だわ」と気付いたと思う。
その名の通りシンセサイザーに同梱されるファクトリープリセットを活用してDTMをする層のことなんだけど、このプリセット派にも「そのまま使う派/プリセットを元にカスタマイズする派」が存在しているんだ。
後者の「プリセットを元にカスタマイズする派」が面倒くさくて「カスタマイズしてるからプリセットじゃねーよ!」と思い込んでいることが結構あって、「音作り派/プリセット派」の二大党派の話をややこしくしている。
「いやお前らプリセットから音色を調整していってるんだから取り敢えずプリセット派という枠組みで良いだろ!」と完全に俺個人の価値観ではそう思うんだが、多分なんか「他人の音を使ってる」みたいなことに対して忌避感があるのかも知れない。
「だったらピアノメーカーが製造し調律師が調整しているピアノを演奏するピアニストは『自分の音』を持ってないのかよ!」なんて俺は感じてしまうわけだが。
これ逆にな?もう笑い話で良いんだけど「無料拡張プラグインを持ち上げるのたいてい音作り派」っていう問題があるんですわ。
無料シンセってファクトリープリセットが充実していないことが結構あって、有料シンセは例えば細かいバグを修正した程度の小さなアップデートの際ついでとばかりにファクトリープリセットが増えることはよくあるんだが、俺自身が挙げたSurge XTやOdin2なんかも小さなアップデートではファクトリープリセットが増えたりしないんだよね。
ファクトリープリセットが増えない理由ってもう察してると思うが、Surge XTやOdin2をバリバリ活用している層は自分で音作りしてるからで別にファクトリープリセットが増えなくても問題ないからなんだよね。
これはこの界隈の悪い癖だと思う。プリセット派なのにプリセット派じゃないと頑なに言い続けるDTMerくらい悪い癖。
「せめて何処かでプリセット売れよ!」言われたら本当にその通りなので、無料シンセ使ってる層はプリセットを有償無償問わずに公開しましょうね。小遣い稼ぎくらいにはなるかも知れんぞ?
言いたいことは言ったので以下、有料拡張プラグインのリストを貼って消えるわ。じゃあな。
最新バージョンはNEXUS 5でDTM界隈では常識中の常識、プリセット派の救世主、NEXUSがあれば「こういうの」が直ぐに入手可能。
NEXUSシリーズの中身は単なるサンプリング音源集で、それが故にreFX社は音楽業界の需要を常に調査を続け、今欲しい音を最新バージョンで提供することを続けている一切馬鹿にすることなんて出来ない、特定の需要に特化した一貫するプロダクトが持ち味だ。
プリセットを探すナビゲーターも出来が良く、楽器や音楽ジャンルのカテゴリ分けから探していくことも出来るしタグ付けされているので絞り込み事もできるという迷いのなさが本当に素晴らしい。
「シンセ難しすぎ!」「音作りできない!」「こういうのが欲しいだけなんだ!」っていう人のためのシンセ、それがreFXNEXUSシリーズ。
欠点はあまりにも定番すぎるため「NEXUSっぽい」と言われること。
最新バージョンはAVENGER 2で、DTM界隈では何でも出来すぎるその圧倒的な高機能さを評価する声は大きい。
リードやベース、パーカッションなどのプリセットだけでなく、ドラムループや何ならボーカルのサンプリングワンショットまで内蔵!
Native Instruments MassiveやXfer Serumにはサードパーティのプリセット販売が定番になっており、これも強みだがAVENGER 2は最初からファクトリープリセットがスゴイし、何なら公式が追加プリセットも販売していてもっと増やせる。
音作り派であれば把握困難なほどの高機能の沼に溺れ、プリセット派であれば直ぐに使える音が手に入るのがVENGEANCE SOUNDAVENGERシリーズ。
欠点は右クリックに隠れている機能が多すぎるので音作り派から使いにくすぎると声が挙がっていること。だから音作り派は結局ほかの使いやすいシンセを使う。
最新バージョンはKICK 3で、一言で表現するなら「電子音楽のキック(ついでにパーカッション)はもうこれで良い」だ。
前回の記事でGeonKickのオマージュ元と紹介したが、オマージュされるだけの理由は十分にあり非常に使いやすく、近年の電子音楽で使われがちな音はファクトリープリセットに存在しており、手持ちのサンプルも読み込んで編集ができる。
KICK 3をはじめて使うとアタッククリックを差し替えたり、各要素の音の長さ、ピッチを自由自在に調整できることへ感動できることは間違いない。更に倍音成分を加えたりフィルターをかけたりと非常に便利すぎる。
しかも、繰り返すが手持ちのサンプルでも同じ様に調整できるのだ。
プリセット派も音作り派も大満足すること間違いなしなのがSonic Academy KICKシリーズ。
欠点は読み込むサンプルによって完成度が左右されることだろう。今流行りのウェーブテーブルシンセで作られた複雑なキックはKICK3単体で作れないので、ウェーブテーブルシンセで作った複雑なキックをサンプル化してどうのこうのという煩雑さが必要になる。煩雑さを嫌うならNEXUSから持ってくるのもアリ。
ポストXfer Serumとすら評されているモジュラー方式マルチパラダイムなハイブリッドシンセサイザー。
音作り派から大絶賛されており前回のエントリでOdin2へ興奮したのであればPhasePlant適性が高い。モジュール方式を採用したことにより必要なモジュールのみを画面上へ表示できるので画面が整理され見通しが良くなるのだ。本当に一生触っていられる。
しかし、プリセット派からの評判はそんなんでも無く、初期イニシャライズ状態だと何もモジュールが表示されておらずプリセット派はこの時点で拒否反応を起こすのが原因。
ただ、SONICWIRあたりを確認していると徐々にサードパーティプリセット販売が増えてきているので、Serumユーザーの中に居る音作り派がPhasePlantプリセットを作っているようだ。
必要なものを必要なだけ使えるKilohearts PhasePlantは音作り派の自由なキャンバスになることは間違いないだろう。
欠点はやはりアナログシンセサイザーの基礎すら知らないユーザーには素人お断りすぎる硬派なコンセプト。
最新バージョンはSCALER 2、2025年3月に次期バージョンSCALER 3が登場予定。
これを使っても良いのか?という意見があるのはわかるが、俺自身は使っても良いと思っている。
今回のエントリ、MML(Music Macro Language)とか触っていたような世代のために書いているのではなくイマドキのDTM初心者にも「なぜ有料プラグイン派が存在するのか?」を伝えるために書いており、DTM初心者が読んでいることも想定しているため前回のエントリのように「Phase Modulationがぁ」なんて分かるやつにしか分からんようなことは書かないようにした。
DTMにとって大事なことは取り敢えず完成させること、そういう意味でSCALER 2は絶対に完成へ貢献してくれる。小難しい音楽理論をすっ飛ばして良い感じのコード進行を生成するだけでなく、メロディラインやベースラインまでイケるのはDTM初心者にとって非常に心強い存在になる。
MIDIシーケンサーへコピペできるので視覚的に音がどのように流れているのか確認することが可能で、耳コピして音の流れを覚えるのと同等のことが擬似的に可能な点も素晴らしいと思う。
欠点は歌モノに弱いので歌モノっぽいものを求めている人には合わない。どちらかと言えばEDMなどに向いたものを生成してくれる。
欠点は他にも「SCALER 2使ってます」宣言すると保守的な連中が馬鹿にしてくるという欠点と言って良いのかわからんリスクが有る。
最新バージョンはMelody Sauce 2で、SCALER 2と比較してこちらは歌モノにも使いやすいものを生成してくれる。
「SCALER 2と比較してこちらは歌モノにも使いやすいものを生成してくれる」とは言ったが、前述の通り2025年3月に次期バージョンSCALER 3が登場するので、もしかしたらSCALER 3で歌モノにも強くなるという可能性がゼロじゃないので、ぶっちゃけどっちが良いのか?というのは本当に何とも言えない。
「今すぐボカロとか作りたいんじゃあ!」と言うのであれば迷いなくMelody Sauce 2に行って良いとは思うし「求めてるのはゲームコアっぽいハチャメチャなやつなんだよねぇ!」と言うのであれば現時点ではSCALER 2で間違いないだろうなって感じ。
いやもちろん、この辺りは俺個人の感性の判断なので「SCALER 2でも普通に歌モノで使えるだろ」って言う人が居てもおかしくはないと思っている。
最新バージョンはOzone11、統合マスタリングツールとして完成の域へ達していると言わざる得ない完成度。
今回のエントリのライナップで一部のDTMerはバカバカしさすら感じるようになっていると思う。おそらく「そこまでやるならAI生成音楽で良いじゃん」くらいには言いたくなってるんじゃなかろうか?
まぁ実際のところ俺自身はAI生成音楽へ対して否定的ではない立場なので、この辺りの感性の違いで「お前とは絶対に話が合わないわ」と言うヤツが居てもコレはもう仕方ないと思うね。
少なくとも俺はこのエントリをDTM初心者が読んでいる、プリセット派が読んでいるものと思って書いている。だから「音色だろうがコード進行だろうがメロディラインだろうがベースラインだろうがリズムパターンだろうが、そしてマスタリングだろうが"プリセット"を使って何が悪いんだ?」という姿勢で書いている。
DTM初心者が陥りがちな点として「曲は出来た。でも何か違う」という謎の感覚を得ることがある。そうそれは自分が今まで聞いてきた音楽の聴感として「何か違う」だ。
歌モノだったら「何かボーカルが埋もれてる」とかロックとかだと「何かリードが前へ出過ぎている」「何か耳に刺さる部分がある」とか、EDMだと「何か低音がモコモコする」とか、そういうことが起こる。
それを解決するのがマスタリング、それをほぼ自動で済ましてしまうのがOzone11。
Ozone11はマジですごい。Ozone10までは何だかんだで色んなところを手動で調整が必要だったが、Ozone11からは本当に微調整だけで済むようになっている。
この微調整というのは悪い部分を無くすという意味での微調整ではなく、もっと自分のイメージへ近づける、もっと自分好みにするという意味での微調整だ。
つまり、自動調整でポンッと出てきたヤツは悪くないんだよ。悪くはないがもっとこうならっていうのを微調整するだけだ。マジですごい。
欠点は特にない。俺は断然コレをオススメするがOzone11 Advancedがかなり高価なことくらいだ。
察していると思うが俺はもともと音作り派なので自分でマスタリングするのが好きだ。そんな俺がビックリしたのがOzone11という辺りでその完成度を想像してほしい。
以上が熟考せず思いつく限りでプリセット派も満足するであろうライナップをバーッと勢いで書いたもの。
「じゃあな。」と言った後にこれを書いているのは非常に格好悪いが、実はこのエントリは投稿するかどうかを数日悩んでから投稿している。
いや「あまりにもプリセット派をバカにしているような書き方になっているんじゃないか?」と自己嫌悪に陥ってしまって、投稿すべきか否か?を悩んだのよね。だからこれは増田でよくある追記ではない後書きなのだ。
そもそもプリセット派をバカにしたいわけじゃない。単に「有料プラグインじゃないと初心者へは合わない」のようなDTMへ対する無自覚の敷居上げが納得いかなかったというのが本音だ。
俺はそれぞれ個々人の感性として「音作り派な素質があるならば自由度の高いモノなら何でも良い」と考えていて「プリセット派な素質があるならば有料のモノの方がプリセットが充実しがちだし幸せになれる可能性が高い」と考えている。
そういう前提がある中で何も知らないDTM初心者へ「有料プラグインの方が良い」は流石にDTM初心者が可哀想すぎるんじゃないかな?と思うわけさ。
高校生がスマホでDTMやってる時代なんだろ?YAMAHA QYシリーズを思い出すよなぁ?笑えるほど不自由で楽しかったよな?
歌本片手に携帯電話で着メロ打ち込んでとか、ノンリニア編集なんて夢のまた夢MMLで打ち込んでたやつだって居るだろうよ。カセットMTRでテープ伸び伸びになったって良いんだ。ミュージ郎じゃなくても良いんだ。充実して無くても良いんだ。今この手の中にあるものが俺達の最高の音楽制作環境なんだ。
・・・そりゃ良い機材欲しいわ!良いソフト欲しいわ!買えねぇんだわ!マスタリングツールに8万円!?バカじゃねぇの?
サンレコに載ってるような環境でガキどもは音楽制作したいに決まってんだろ!それでガキよりもお金持ちの大人は「無料プラグインは使うな」だって?はぁ?
大人たちは忘れたんですね、クッソ使いにくいZynAddSubFXでリードからベースからパーカッションから全てを作っていた頃を。Synth1がClavia NORD LEAD2オマージュであること知って飛び付いた頃を忘れちゃったんだなぁ!
ガキどもはマジで羨ましいぜ?このエントリに出てくる有料プラグインの数々!いやぁどれも便利そうだ高機能なんだろうなぁ良い音なんだろうなぁってな!
ハッキリ言ってやるぜ?便利だよ高機能だよ良い音だよ、ファクトリープリセットでバシッと決まるぜ?AIでマスタリングまでチョチョイのチョイよ。
・・・いい大人が若い奴らに向かってこんなこと言って何になるんだよ?
それよりも「俺達だってアンパンマンピアノから始めたんだ」「ダンボールのヘッドと割り箸のスティクでドラム始めたんだ」「電卓みたいなヤツで打ち込み始めたんだ」そう言えるのが、クソガキを経験したからこその大人なんじゃねーの?
だから俺は格好付けて言うんだよ「お前らガキどもへ最高の環境を教えてやるぜ!」「Dexed!」「Surge XT!」「Vital!」「GeonKick!」「OpenUTAU!」「Salamander GrandPianoV3!」
「おう!今でも使ってるぜ?例えばよ?Massive XとかSerumとかPhasePlantとかAVENGER 2でまとまらねぇときOdin2使ってみるんだよ。適度に高機能、適度に機能が絞られててさOdin2にするとまとまったりするんだよな。高いプラグイン買えるようになった俺でも当たり前のように一線級で使うぜ?お前らと同じモノをさ」
「任せろ、俺が聞いてやるよ格好良い大人になった連中に」
「あの頃から大人になったお前らは今どんな環境を使っていますか?そしてあの頃はどんな環境を使ってましたか?」
以上、俺の想いでしたぁ!