
はてなキーワード:スケールとは
10年・20年・30年・50年・100年と物差しのスケールを切り替えればそれはわかること。
そのへんの歴史的俯瞰の視点があれば、意識なんて簡単にアップデートできるんですけどねえ。
はてな界隈には、
大好きな人が多い。
その割には、実際の自分の価値観とか、そういうものに対しては、俯瞰的な視点を持てない人が多いんだよなあ。
最近、少しだけ話題になった「ちゃん」づけで他人を呼ぶことなんて、まともな企業ではこれからは使えなくなるという話、とかは簡単に理解できることのはずなんだけどな。
どういうわけか、スッと納得できる人が多くない。
あれは、〇〇というケースであって、なんたらかんたらで、あるから、、、とかなんとか理論武装「っぽい」ことを主張しだす。
なんだかなあ、、、と思う。
世の中の流れとして、考えられないのが、とても不思議。
俯瞰的な視点で見れば、どんどん窮屈な方向へと社会は向かってるんだから、人の敬称とかもどんどん制限がかけられていく社会になるのは当然。
そういう流れの中で「ちゃん」づけは不適当である、ということが社会に認識されればどうなっていくのかはわかりそうなもの。
でも、なかなかどうして、頑固な人はそれが理解できない。そして、老害へ、、、。
自分がどう思うかよりも、社会がどう変化するのか?頭は柔らかくしてかないと、ね?
とはいえ、未来はがどうなるかはわからないというのも事実なんだけどね。
価値観のアップデートの反動みたいなものが来ることだってありえるから。
トランプみたいな人が日本にも現れて、行き過ぎた価値観のアップデートをダウングレードさせる方向へと持ってく可能性だってある。
それはそれとして、あるのはあるけど、まあ現状はどんどんと息苦しくなる方向へと向かってるという認識は持たないと。
いけないんじゃないですかね。
https://www.nature.com/articles/s41586-025-09655-y
ワクチン推進医師が吹き上がってるみたいだけど、よく読んでみると結構ヤバい話だった。
簡単にいうとがん患者にコロナワクチンを打つと、がん細胞にPD-L1という分子が増えて、そのPD-L1を標的とする免疫チェックポイント阻害剤の効果が上がるってことだ。
このPD-L1が曲者で、本来この分子はがんが免疫を回避する際に利用するもの。
この論文では「PD-L1を標的とする免疫チェックポイント阻害剤」の使用が前提なので、治療効果が高まるという結果になった。
ところがは「PD-L1を標的とする免疫チェックポイント阻害剤」というのはめちゃくちゃ高価で、副作用も大きいので、非常に限定的にしか使われない。
つまりほとんどの場合、コロナワクチンを打っても「PD-L1を標的とする免疫チェックポイント阻害剤」は使われないということになる。
そういう患者では、ワクチンでがん細胞のPD-L1が増えて、がんの免疫回避能だけが上がる可能性がある。
だからこの論文は、ワクチン批判派の「コロナワクチンでがんが進行する」という現象の説明にもなっているんだよね。
試しにAIにも聞いてみた。
mRNA-LNP投与で、腫瘍細胞のPD-L1が24時間で有意に上昇(IFN依存の先天免疫活性化に一致)。これはICI併用の有無に依らず観察される現象です。
健常者におけるmRNAワクチン後、6–24時間でI型IFNや骨髄系/樹状細胞の活性化が立ち上がる(製剤間で強度差あり)。先天免疫→PD-L1誘導という経路の時間スケールを支持。
生検の100日以内にmRNAワクチン接種がある患者は、NSCLCでPD-L1TPS平均が有意に高く(31% vs 25% / 22%)、50%閾値を超える割合も上昇。インフル・肺炎球菌ワクチンではその傾向なし。広範な腫瘍種を含むコホートでも同様の方向性(TPS 13.3% vs9.7%)。
ちょちょいといじれる人ってのは力量の差というよりは、特定のシステムに設計から携わったり長期的に関わったりで、コード等の設計全体の勘所が頭に入ってるせい。熟練した開発者を連れてきても、特定システムを担当し続けた開発者の開発速度には流石に敵わない。社内システムって規模で後者を求められてるってことは、数年どころじゃないスケールで見られているはず。
まずは1システム分から、資料とコードのリーディングで集中的に徹底的に頭に読み込んでみるという手はあるかもしれない。
新しい職場や技術の前では誰もが新人。知らないって事実はどうしようもない事だもの。経験者らはそこからの熟練速度は違うけど、それでも熟練者が新しいプログラミング言語でその言語の熟練者並みに製造速度が並ぶまでが半年程度と聞くし、更にその言語への理解と熟練だけでもまだまだ長い先がある。システムの設計能力などの総合力となると終わりがない。
だいぶデカい存在を相手にしてるって感覚で、あまり焦らない方が良いんじゃないかと思う。既に焦燥に追い詰められてしまった心理状態なら、無理せず転職で仕切り直した方が良いのかもしれないけれど。その辺はこちらにはさっぱり見えないし責任持てない事だし何ともね。
forgeでプロット生成し、評価器をChatRTXで直列化してからChatGPTにcontextpushしてjson5に書き戻す ->mcpサーバー経由でAPI叩いてparallelにStable Diffusionで絵を生成し、デノイザをbunchoからphotoshopにアップスケールスルーパスという流れ。
一見、何がそんな難しいのって感じだが、forgeから直でcontextpushすると漫画としてストーリーが破綻する。プロットも絵も単体の生成はうまくいくのに。
直でpushできないから連作すると当然、文脈汚染が発生する。RTXである程度は除去できるんだけど10%前後で直列化に失敗する。意外とインフラ代がかかる。
forgeの初段でフック何する問題はぶっちゃけ場数優先法。いや何が売れるかわからん。過去のランキング遡って上位のヒット率高そうなものを選んでるだけ。
ほぼ全自動達成してるので俺は何出力されてるかぶっちゃけ知らない。統計上の数字の上下で間接的に売れたか燃えたかが分かる程度。
過去の販歴によるとTSをフックにすると初速が安定するっぽい。性別や環境の変調を評価する層が購買意欲高い集団を形成してるように見える。
なろうっぽいというか、AI絵買う奴は何考えてるか分からんな、マジで。
同一作品を同一時刻に別サイトに申請すると、どうも攻撃判定を食らうらしい。同じ稼ぎ方してる人めっちゃいるんだろうなあ。
クイズ:このスレと1 は、そのスレ内で第三者から投稿されたとあるイラストにより、大いに笑えるネタとしてミーム化された過去がある。なぜ笑えるネタになったのか?その画像の内容を推測
----
【速報】部下が58兆円の商談に失敗したwwwwww
1名前:風吹けば名無し[]投稿日:2016/09/09(金)20:56:58.04ID:cxMYqZwN00909.net
笑えるポイント
「58兆円」という荒唐無稽な金額が核心です。これは日本の国家予算規模に匹敵する途方もない額です。
イラストの内容(推測)
「58兆円」と大きく書かれたプレゼン資料やボードを持っている、あるいは
なぜ笑えるのか
スケールのギャップ:個人や一般企業では絶対に扱えない金額を、ごく普通の会社員が商談しているという設定
シュールな真面目さ:非現実的な設定を真剣に描いているギャップ
ビジュアル化の威力:数字だけでは想像しづらかった荒唐無稽さが、イラストで可視化されることで一層際立つ
アカデミックなreasoningに長けているclaude4.5でも、このようなタスクにはめっぽう弱い
やはり"誰が"という主語を読む機能が無いからだろう (昔から、llmは登場人物が3人以上になるシチュエーションでおかしくなるんだよな)
言われなきゃ分からんでは話にならない
トークンの意味に依存し最もらしい事しか出さない機能は文法を読んでいない
あり得ないことを除外するような調整も一因だろう
この想定能力じゃ、普段の推論の、一般の答えのない部分はどうなってるんだという
あり得ない環境を想像できるワールドモデルとユーモアの実装が待たれる
はよう入れてくれや
BERT出た時もそうだったけど、ほんと自然言語処理屋さんってPoCでできる範囲しか興味なくて、どうやってデータクローリングするかとか、きちんと成立するシステムに仕立てる気が無いよね?と思ってたけど、ほんとそんな感想しか言えない書き込みだよな。
結局検索エンジン無いと成り立たないのにそことの連携は考えない場合多いし、少しは考えてますって言ってもモックレベルだからスケールしようとしたら普通に市販検索エンジン導入した方が安いのな。性能差ほとんどないのに。
そら、AWSやAzure、GCPやらのクラウドサービスでLLM組み合わせれば十分なるわけだよ。
自社研究所の研究成果()含めPoC商法に付き合わされてきた立場からすると、スケールしない物を完成したと言うなよと文句言いたくなる。
70点くらいの普通に面白い1990年代アクション映画だった。
よかったところはテンポとスケール感、悪かったところはノリ?とシナリオ
「プレイ・ダーティー」はシェーン・ブラック監督が贈る、アクション満載の骨太で巧妙なスリラー作品。強盗団を率いる冷徹な男パーカー(マーク・ウォールバーグ)。彼はグロフィールド(ラキース・スタンフィールド)やゼン(ローサ・サラザール)といった腕利きの仲間たちと共に、桁外れの価値を持つお宝の強奪に臨むこととなる。しかし彼らの前には、ニューヨークに根を張る巨大な犯罪組織が立ちはだかるのであった。
という紹介文を見て、いや「シェーン・ブラック」が撮る映画じゃ無くね?と思って見たらこの文章から感じられる内容では全然なかった。リーサルウェポンとかラストアクションヒーローとか撮った監督だぞ!って感じのアクションコメディ。
紹介文から感じられる特殊能力に長けた腕利き強盗団による綿密な計画に基づいたクライムアクションみたいな感じだけど、実際に出てくる奴らアホばっかりだし、ウォールバーグも冷酷ではあるけど基本はアホだし、頭使って見る映画だと思って見たら脳みそ溶けちゃうよ。
銀行強盗に乗り込んだウォールバーグ一味。なぜかアホな若者が仲間にいて事態をかき回す。計画は上手く進んでいると思いきや休日に忘れ物を取りに来た警備員が強盗に気づき裏口で待ち構えていて襲撃を受け、盗んだ金を奪われてしまう。車で逃げた警備員を素顔を晒して銃を撃ちまくりながら走って追いかけるウォールバーグ。レース開催中の競馬場に追い詰め、大衆環視の中警備員を撃ち殺すウォールバーグ。金を取り戻しめでたしめでたし。
こんなテンションで終始展開される映画なのでそういうもんだと思って見るべき映画。
そんな中でもちゃんとスティング!な展開が盛り込まれていたり、シェーン・ブラック的なコメディ要素もウザったい部分も多いながらもクスリとさせられる部分もあり、シェーン・ブラック的な無駄に規模の大きいアクションも個人的にはよき。高架を走る貨物列車を脱線させるも落下位置を見誤って仲間全員巻き込まれるシークエンスとか「うわ~~~~バカだな~~~!!」って感じでよかった。
個人的に一番よかったのは冷酷なマーク・ウォールバーグという設定が途中、こいつやっぱアホなのではという1990年代の主人公的な展開を挟みつつも最後まで活きていたところ。
最初の強盗シークエンスの後、メンバーの一人が裏切り主人公は重傷、他の仲間は全員全員死亡してしまう。復活した主人公は裏切り者を探し出し追い詰めるも彼女は祖国を救うために巨大な強盗計画を企んでおり、最初の強盗計画はその資金調達のためだったことが判明。ウォールバーグは半ば巻き込まれる形でその大強盗計画に乗り出していく。
その計画の中で彼女の助けを借りたり想いを聞いたりして本当の仲間になっていき、最終的に計画は別の形で成功をおさめ彼女の祖国は救われたことがニュースで流れる中、主人公は彼女をきちんと射殺する。仲間を殺したケジメをつけるために。
個人的に見ながらずっと「でもこいつ仲間撃ち殺したやつなんだよなぁ」と思いながら、なんとなくそこはうやむやな感じで終わるのかなとか、ウォルバーグをかばう形で死んだりするんかな思ってたんだけどきちんと主人公の手でケジメをつける展開はよかった。
紹介文の「骨太で巧妙なスリラー作品」と思って見始めたら???ってなっちゃうけど、ノリの古さとかも含めてまぁこんな感じの作品でしょって感じで、今日はちょっとなんも考えずにアホなアクション映画見たいな~ってときに見るにはちょうどいい作品だったと思った。
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
「瀬谷みどり博覧会」(2027年国際園芸博覧会、GREEN×EXPO 2027)は、現在懸念されている課題を克服し、以下の要因から成功する可能性を秘めています。
| 「自然のちから」 | 地球規模の気候変動や生物多様性の喪失が深刻化する中、「花と緑」というテーマは、人々の環境意識の高まりと合致しています。過去の万博(愛知万博の「自然の叡智」など)と同様に、開催後にテーマの意義が再評価される可能性があります。 |
| グリーンインフラの提案 | 景観だけでなく、自然の力を活用した持続可能な都市の基盤(グリーンインフラ)を世界に提案する場で、単なる園芸イベント以上の社会的なメッセージ性を持っています。 |
| 「質的成熟社会」への転換 | COVID-19後の社会で、人々が「リアルな体験」や「身近な自然」に価値を見出すようになっている傾向をとらえており、来場者の満足度を高める可能性があります。 |
会場となる旧上瀬谷通信施設跡地は約100ヘクタール(東京ディズニーランド約2つ分)にも及ぶ広大な敷地です。この規模を活かし、圧倒的なスケールで世界中の花や緑、庭園を展示でき、訪問者に強い印象を残すことができます。
横浜市内にあり、都心からのアクセスが比較的良好な立地であるため、地方の万博に比べて、首都圏の巨大な人口を動員できる可能性が高いです。
会場には農業振興地区の要素も含まれており、収益性の高い新たな都市農業モデルの展開や、農産物の収穫体験、直売など、博覧会終了後も地域経済に活力を与える具体的なレガシーを残すことを目指しています。
計画段階から、再生可能エネルギーの活用や、国産材の利用など、サステナビリティとレガシー計画を包括的に策定しており、環境面でのポジティブな評価を得るための努力がなされています。
成功のためには、現在最も大きな課題である交通渋滞・輸送能力の確保について、シャトルバスやパーク&ライドの導入など、代替輸送手段を確実に機能させることが不可欠です。
「品質管理が僕たちの責務です」
って、最近エンジニアリング界のライザップ的元テスト専門会社のQAエンジニアが、昔、言ってたなぁ……、と。
思い上がるなっ!
君たち如きに背負えるものでは、すでにない。
とあえて言おう。
いや、マジで、無理なんよ、もう。
例えば、キッチキチにエレベータを作り込んだとして、後から点検してくれ、と言われたら、まぁ、普通は困るよな。
モーター室がモーターが入るギリギリの広さだとしたら、箱の外に出る手段がなったら。
どうやって点検するんだよ。
実際には、設計時に点検方法を決定して、それができる余地を確保してから、施工するものだろう。
今時のEV車なんて、テスト用の仕組みがきっちりと、製品に組み込まれている。
検証不可能とまで言わなくても、検証困難な場合はちゃんと対策をとるもんです。
作りきってから、「E2Eテストお願いねー」とQAチームに投げるものじゃあないんですよ。
設計時に、テスト戦略から何から何まで検討済みになってるもんなんです。
別にユニットテスト書いて、カバレッジあげるのがTDDというわけではない。
検証可能なシステムを設計実装し、リリースのたびにシステムの健全性を検証できる仕組みを整える。
ってのが「テスト駆動開発」なんですわ。
テスト戦略をちゃんと練れば、マイクロサービスの分割の仕方、連携の仕方等々、多分、今、Web上でよく見る記事とはだいぶ様相が異なってくるはずだ。
で、プロダクトの中身である、設計や実装を理解できなければ、検証のしようがないのがここ10年ほどだ。
金槌を渡されて、「品質検査しろ」と言われたら、まだ何とかなるだろう。
けどボーイング787をポンと渡されて、「品質検査しろ」と言われたら?
マニュアルなしで。
モジュールがどう組み合わされてるか等、中身を理解できなければ、何をどうしていいかも分からんだろう?
扉の開け閉めができるとか、主電源入れたらなんか部屋の明かりがつくとか、そういう表面的な検査しかできないだろ?
これは、QAが、設計に飲み込まれることを意味する(10年以上前に、↑のQAエンジニアとした話)。
QAのテストに関する知見を、設計実装するエンジニアは当然持っておかなければならないということとともに、QAエンジニアは消えてなくなるということでもある。
お分かりだろうか?
同じ流れで、SREも不要になる。
Infrastructureas Code は設計実装エンジニアのためのものだと言っておこう。
決して、Terraformのファイルを編集して、SREの許可を、延々と待ち続けて、適応してもらうことをいうわけではない。
そこまで込みで、設計するのだ。
高負荷時にどうスケールさせるかなども、当然設計に入ってくるからな。
ってなわけで、ほとんどの現場では、そういう致命的な誤認識をしていると思う。
認識が古すぎている上に、大型化複雑化した現状を認識できていない。
開発初期はまだ規模が膨らんでいないから、何とかなりそうな勘違いを犯しているだけの話だ。
初回リリース前後で、「あ、やばい……」となっているところがあまりに多すぎる。
また、この誤認識によって、役に立たないエンジニアの頭数だけを並べて札束を燃やし、事業の拡大の足を引っ張っていると指摘しておこう。
ここら、どげんかせにゃならんのよな。
私(GPT)は「大量のテキストデータの統計的パターン」を学習していて、答えを出すときは「確率分布」に従って文章を作っています。
何百億ものパラメータを持つ巨大な関数(ニューラルネットワーク)
No(現時点では違う) です。
私がやっているのは「確率的にもっともらしい文章を作る」ことです。
人間のように「意味を理解して考える」というより、「過去の膨大な文章の統計的パターンから未来の単語を予測している」だけです。
小中ほぼ不登校、高校は進学校を受験してなんとか卒業し、勉強はできたけど特にやりたいことがなかったから進振りのある東大に入った。
小さい時は社会とか人生に対する解像度が低いから、社会は未知の恐怖ではあったけど未知すぎて想像がつかず、我が子の将来を悲観する親の語り掛けにも心は動かず、とにかく学校に行かないで済めばそれで良かった。どうして学校に行きたくないのかを自分でもうまく説明できなくて、親を怒らせたり悲しませたりするのは辛かったけど、自分の将来はどこか他人事で、自分が大人になることも親が先に死んでいくことも現実味がなかったように思う。
学校に行ったり行かなかったりだったけど勉強はできたから義務教育後も進学して、進学校に行った。最初は案の定全然行けなかったけど、授業は進学校だけあって面白かったし、勉強に集中していれば意外と学校も辛くなくて、高校にもなれば生徒も周りの子にそんなに興味ない上に真面目な校風ということもあって、いつのまにかちゃんと毎日学校に通えるようになった。高校生の時は、あれだけ不登校だったのに毎日学校行けてるだけで十分だと考えていて、将来については相変わらず特に考えておらず、勉強に追いつけないとか親のプレッシャーとかで泣いている友達にあまり共感できなかった。一応自分も毎日朝早くて嫌だなとか塾嫌だなとか当時は悩んでた気がするけど、今思えばそれほど大した悩みではなかったと思う。親が志望校にあれこれ口出してきたのはかなりストレスだった覚えはあるけど、それも今となってはほとんど忘れている。
勉強はできたし都内住みだから東大に入った。色んな授業を受けられるのが楽しかったし、同級生も大体みんな頭が良かったから話すのが楽しかった。交友範囲も行動範囲も広がって、一人旅に出かけたり、運転免許取ったり、アルバイトしたり、自分もまともな人間じゃんと思えるようになった。小中の時は学校に行かなくて済むならそれで良かった。高校生の時は不登校だった時に比べれば高校行けてるだけで偉いじゃんと思えていた。大学生になって、普通の人間になれたと思った途端、将来が不安になってきた。しっくりくるサークルがなくて何にも入っていない。勉強は楽しいけど研究は別に好きじゃないから研究者にもなれない。アルバイトもガクチカになるようなものではない。自分の強みになるような、特別好きなこともやりたいこともない。不登校だった時に比べれば、という免罪符の効果は完全に失われて、同級生と比べて劣った自分に気がついてしまった。
将来のことを考えたり、自分の状況を他者と比較できるようになったりするくらい精神的に成長したということなんだろうが、こんなに不安で苦しい今より、現実逃避していることにも気付けないような不登校ガキの頃とか、元不登校を免罪符に勉強だけしていた高校生の時の方がよっぽど気楽に生きていた。学校に行くという当たり前のことすら出来ずに親を悲しませていた時より今はよっぽどマシな状況で、もし過去に戻れるとしても絶対戻りたくないけど、過去の自分はどうしてあんなに将来の不安を感じられずにいたんだろう。高校生の時の悩みを今の自分は忘れているんだから、今の自分の苦しみも将来の自分は忘れているんだろうと思って耐えているけど、悩みのスケールが今後どんどん大きくなっていくんだとしたらそれはそれで苦しい。
不登校に比べたら偉いじゃんという無敵の理論がまだ使えたらフリーターだろうがなんだろうが働いて自立しているだけで偉いと思えただろうけど、普通の人間、しかも東大生になってしまった今は、それなりに稼げる安定した職に就かなければならないという強迫観念のようなものを抱いてしまっている。新たな無敵理論を生み出せない限り、いざ良い仕事に就けたとしても、また出世とか成果に焦って不安になるんだろう。むやみに学歴を積まずに中卒なり高卒で働いていた方が、免罪符の効果が続いていたのかもしれないと可能性ばかり考えて現実逃避を試みているが、いまいち効果は薄い。
それなりにウルトラマンは好きなので非常に楽しめたんだけど、一点だけ気になったことがある。
それは”重量感”がなかったこと。
偏見かもしれないんだけど、庵野監督って結構重量感を大事にする監督だと思ってたんだ。
例えばエヴァなんかだと大きくジャンプしてそのあと着地するとその際に地面のコンクリに亀裂が走ったり、その時の衝撃で周りの建物が傾いて窓が割れたりと、スケール感にもロマンを感じているものだと思ってた。
だからシン・ウルトラマンでそのような描写が全然ないのが驚きで、ウルトラマンや怪獣が歩いても地面は揺れないしドスンドスンといった足音のSEさえもない。
全体を通してそんな感じだったからおそらく意図的なものだと思うんだけど、どうして重量感にはあまり拘らなかったんだろう?
Fate/Grand Order(FGO)が人気を維持し、ソーシャルゲームのトップクラス売上を誇る理由を整理します。
---
-TYPE-MOONが展開する「Fate/stay night」から始まるシリーズは、アニメ・小説・ゲームで世界中にファンがいます。
-既存ファンがそのままFGOに流入し、強力な基盤を築きました。
-ソシャゲでは珍しく、メインストーリーが長大なビジュアルノベル並み。
-奈須きのこ氏など原作ライター陣が直接執筆しており、「シナリオ読むためにプレイする」層が多いのが特徴。
-歴史・神話・文学・伝説の人物を「サーヴァント」としてキャラ化。
-オリジナル要素を加えた魅力的なデザインや声優起用で、推しキャラを手に入れたい欲求が強い。
- その分「引けた時の喜び」が大きく、課金意欲につながる。
- 大規模イベントやリアル展示会も頻繁に行われ、ファン体験を強化。
---
---
FGOがここまで人気で売上を保っているのは、
という要素が重なっているからです。
Fateシリーズはもともと、TYPE-MOONが同人サークル時代に個人小説家(奈須きのこ氏)とイラストレーター(武内崇氏)が中心となって作った同人PCゲーム(『月姫』など)が出発点でした。そこから商業展開を経て、Fate/Grand Orderに至る「巨大ブランド」へと成長しました。
こうした「同人発 →世界的IP化」の事例は極めて珍しいです。以下、比較や差異を整理します。
---
→個人制作ゲームから、音楽・二次創作文化で世界的なコミュニティが形成。
✅ ただし、ここまで長期にわたり大規模ソーシャルゲームでトップ売上を維持するのは、Fateがほぼ唯一。
---
6.世界観の広がりと柔軟性
- 「英霊召喚」という仕組みにより、歴史・神話・伝説・オリジナルをすべて登場可能にした。
- 常に新キャラ・新ストーリーを追加でき、ファンを飽きさせない。
-運命、選択、自己犠牲など哲学的でシリアスなテーマをエンタメに昇華。
-キャラデザインの「格好良さ」と「親しみやすさ」のバランスが絶妙。
- 後の多彩なイラストレーター参加を許容する柔軟なスタイル。
-二次創作を歓迎する文化が育ち、Pixivやコミケなどで爆発的に広がった。
-東方に近い「ユーザーが世界を拡張する」仕組みを持っていた。
-アニメ化(『Fate/stay night』、『Fate/Zero』)、映画化、スマホゲーム化をタイミングよく行った。
- 「同人の熱量 ×商業のスケール感」のハイブリッド成功例。
---
---
✅結論:
Fateの強みは「奈須きのこの物語性 ×武内崇のビジュアル ×英霊召喚という拡張性 ×二次創作文化 ×商業戦略」の組み合わせで、これは極めて珍しい成功パターンです。
初めてヨーロッパに行った時、人種や風景、文化は全然違うけど、スーパーとかAmazonで買い物してバス乗って家帰って料理してテレビ見るのは日本と全然変わらないなと思った。外国もディズニーとかSFとかフィクションの世界も自分にとって未知の世界として一括りにしていて、世界は途方もなく広いように感じていた小さい時の感覚との落差で、本当にスモールワールドなんだなと、めちゃくちゃ世界が小さく感じた。
でもこの前の休みに、日本国内だけど飛行機とバス数時間を乗り継いで、全然東京と風土も産業も違うけどコンビニがあって集団下校する小学生もいるし大抵の店舗でタッチ決済使える地域に行った時には、自分と変わらない暮らしがこんなところにもあるなんてめちゃくちゃ世界って細かいなと思って、解像度が上がった分世界が大きく広がった感じがした。
SF読んで「宇宙のスケール感に比べたら人間の一生なんて塵だな」って思って井の中の蛙が海の存在を知ったような気になってたけど、海より身近に池とか湖とかもあるのをようやく知ったような気分。
寝たいのに寝れなくてぐちゃぐちゃ書いてるから全然うまく言語化できないけど、遠いヨーロッパ行って世界狭いと思って、国内旅行で世界ってまだまだ掘りがいあって広いなと思ったのが面白いなと思ったので覚え書き。
直近でフィギュアを買った金
3万1000円(スケールフィギュア)+8000円(ガシャポン)+4千円(クレーンゲーム)
去年買った3万のスケールフィギュアが先々月に届いて年末には予約してるフィギュアが三万弱
昔はもっとどうしても欲しいという気持ちでフィギュア買ってたけどとりあえず抑えとこうでこれはちょっと出費しすぎかも
昔買い逃したフィギュアが今買えたらそっちのほうが欲しいしな…でも二度と手に入らないんだ…
なんとなく好きなキャラがバレたら嫌だなと不正確に書いたけど買った(予約した)フィギュアはこれです
https://online.aniplex.co.jp/itemBKBvttql.html
改めて過去の欲しかったフィギュアを調べてみたら2つ売ってるっぽく見えるものがあって、片方はよく見たら人気すぎて中国のパチモンがAmazonページに登録されてるだけで、片方は去年再販していたのを見逃していたらしく売り切れで肩透かしを食らって大ダメージを負った
再販に気づかなかったのは辛い!