Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「トークン」を含む日記RSS

はてなキーワード:トークンとは

次の25件>

2025-10-27

anond:20251027083557

トークン切れ?

Permalink |記事への反応(0) | 08:40

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-20

Lost Eidolons:Veil of theWitch

主人公+4人のキャラを選んでFE的なSRPG戦闘イベントマスを選びながら進行、

8か10ステージクリアごとにボス戦があってそれが3~4セット。

レベルあがるごとにランダムステータススキル選択して取得。

イベント戦闘後に特殊効果や装備改造トークンランダムで得られる。

この2つで自軍を強化しながら進行していく。

また途中で敗北、離脱クリアすると拠点に戻され、ステータススキル初期化

持ち帰ったアイテム自軍を永続バフで底上げできる。

一般的なローグライト方式SRPGを組み合わせた形。

 

問題点

多ければ20戦くらいFE的な戦闘を強いられるため、ローグライトとして1周するのに3時間とか4時間平気でかかる。

そのわりに得られる永続バフはわずかなので周回の体感とくに苦戦感が変わらない。

周回前提なのでステージミッションの使いまわしが多い。

結果として周回がすげーつまんなくなってくるのでローグライト特性が半分以上死んでる。

初回クリア後も一応ストーリーは続くんだけどそこへのモチベーションが上がらない。

 

いいところ。

キャラ人ごと特性がかなり異なる2種類の武器を装備しており、切り替えて戦うことで戦略の幅が広がる。

武器強化でいろんなスキルがつくのも面白い

キャラにつくスキル特性が分かりやす分化されているので「似たようなスキルやなぁ」が少なく、

ランダムで手に入るのでキャラ入替も含めて周回のプレイフィールが異なる部分はマル。

ちょっと変わった本格派SRPGやりたい人にとってはある程度の満足度はあると思う。

 

「ローグライト」と「SRPG」のかみ合わせがよくないって結論なっちゃう。

でも3000円でこれだったらめっちゃ悪いってわけじゃないかな。SRPGの部分は面白いし。

 

ちなみに僕はSwitchで出てたので買ったんだけど、PCインディーゲー移植特有最適化不足で30分くらいかかったボス戦の報酬受け取り画面でエラー落ちして復旧したらボス戦なかったことになってたのに萎えて投げました。

SwitchPCインディーゲー移植こればっかりでさすがにキツイ

Permalink |記事への反応(0) | 13:02

このエントリーをはてなブックマークに追加ツイートシェア

なんか凄いらしい

Aegaeon: Effective GPU Pooling for Concurrent LLM Serving on the Market

AI要約】

「Aegaeon」は、LLM(大規模言語モデル)の推論におけるGPUリソースの浪費を解決するシステムです。

トークン単位モデル自動で切り替える(オートスケーリング)ことで、1つのGPUでより多くのモデル効率よく動かせるようにしました。

​その結果、GPUリソースを82%削減し、性能を大幅に向上させました。

なんでこの論文で騒いでる人がいるかはワイにはわからない

ただあれだけ騒いだディープシークもしばらくしたら沈静化した事はわかる

Permalink |記事への反応(2) | 03:52

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-18

[日記]

僕は昨日、午前6時17分に目覚めた。

目覚ましは2種類、アナログ秒針音と周波数微妙に異なる合成トーンを重ねたものを使う。

単一の刺激だとシナプス閾値適応で反応が減衰するからだ。

起床後の15分間は「視覚デチューンルーチンとして照明を極端に低くし、網膜適応曲線を意図的に遅延させることで認知の鮮鋭化を増幅する。

朝食は厳密にタンパク質比0.42、炭水化物比0.29、脂質比0.29を狙ったオートミール卵白ギリシャヨーグルトで、計量は0.1g単位コーヒーブリュワー温度を93.2℃に保つ。

僕の習慣は決して儀式ではなく、情報エントロピーを最小化して日常的なノイズを排するための有限状態機械だと説明する。

ルームメイトが朝から実験ドライバーでガタガタやっているので、僕は中断せずに黒板の前に立ち、昨日考えていた超弦理論のある断片をノートに落とす作業をした。

今回は徹底的に抽象化した視座から入る。従来の超弦理論的場位相空間を「1-対象の∞-圏」と見なし、そのモノイド圏的作用を導くことで、従来のモジュライ空間位相不変量がホモトピー圏論スペクトルコホモロジー帰着するという仮説を立てた。

より具体的には、ラングランズ対応圏論アナロジーを用いて、ゲージ群の表現環が導くモチーフ(motive)の圏と、弦の世界面上のファイバー付き代数スタックの圏とを「導来圏の間の高次同値(a weak equivalence in the (∞,2)-categoricalsense)」で結びつける試みだ。

ここで新奇なのは、通常のスペクトル系列ではなく「階層スペクトル列(a nested spectral sequence indexedby ordinal-type filtrationsbeyond ω)」を導入して、閉じた遷移の非可換共鳴が量子補正式にどう寄与するかを解析する点である

ウィッテンでも一瞬眉をひそめるだろうが、それは彼の専門領域を超えた命題の述語論的再編成が含まれているためだ(注:単なる挑発ではなく、証明可能性のための新たな可換図式を準備している)。

昼過ぎ、僕は隣人とほんの短いやり取りをした。彼女は僕のキッチンを通るたびに植物の世話に関する助言を求めるが、僕は葉緑体光合成効率説明する際、ついヘテロトロフ的比喩を避けて遺伝子発現の確率過程モデルを持ち出してしまう。

彼女はいつも「もう少し軽い説明はないの?」と呆れるが、僕にとっては現象の最少記述倫理的義務だ。

午後は友人二人と対局的に遊ぶ約束があって、夕方からは彼らとLANセッションを組んだ。

僕はゲームに対しては容赦がない。昨日はまずThe Legend of Zelda:Breath of the Wildでカジュアルな探索をした。

BotWは開発を担当したNintendo EPDが2017年3月3日Wii UNintendo Switch向けにリリースした作品で、そのオープンワールド設計が探索と化学相互作用に重きを置いている点が好きだ(発売日と開発元は参照)。

その後、難度調整のためにFromSoftware古典的タイトル群について雑談になり、初代Dark Souls2011年リリースされ、設計哲学として「挑戦することで得られる学習曲線」をゲームメカニクスに組み込んだことを再確認した(初代の年は参照)。

夜遅く、友人たちがスーパーヒーロー系の話題を持ち出したので、僕はInsomniacが手掛けたMarvel'sSpider-Man2018年9月7日発売という事実を引き合いに、ゲームデザインにおけるナラティブパルス感(ゲームプレイテンポ)について議論した(発売日は参照)。

ここで重要なのはゲームを語るとき物理学比喩を使わないという僕のルールだ。

ゲーム設計原理計算的複雑性、ユーザーインタラクションフィードバックループトークン経済ゲーム資源流通)など、情報理論と計算モデルで語るべきであり、物理アナロジー曖昧さを持ち込むだけだ。

コミックについては、僕はパラテキストまで含めて精査する。

作者インタビュー、収録順、初出掲載誌、再録時の微小な台詞差異まで注視する癖がある。

昨日はあるヴィンテージ単行本トーンの変遷を確認し、再版時にトーンカーブが調整された箇所が物語解釈に如何に影響するかを論じた。

これらは一般的にはオタクしか響かない情報だが、テクスト解釈の厳密さという点で、僕の思考様式と親和する。

僕の習慣はゲームプレイにも現れる。セーブ複数スロットを使い、各スロットに「探索」「戦闘」「実験」のタグ人為的に与えておく。

そうすることでメタ的な比較実験可能になり、ゲーム意思決定条件付き確率分布再現的に評価できる。

友人はこれを無駄と言うが、僕にとってはルーチンと実験設計同義だ。

夜中、帰宅した後にさらに2時間論文草案を書き直した。書き直しは僕の儀式の一部で、ペン先の角度、フォントカーニング段落の「情報密度」を計測し、不要語を削ぎ落とす作業だ。

寝る前の最後の行動は、ブラックボックス化した思考経路をメモ化しておくことで、翌朝の「継続的洞察再現性」を保証すること。

結局僕は午前2時3分に就寝した。昨日は量子的洞察可能性と、ゲームコミックにおける情報理論的語法の交差点を追求した一日であり、そうした知的遊戯が僕の精神の整列をもたらす。

次に実証すべきは、導来圏間の高次同型によって生じるゲージ的不確定性がディラック構造代数再構成に与える位相寄与だ。

寝言でその証明スケッチを口走らないよう寝具を固定してから眠ったつもりだが、多分失敗した。

Permalink |記事への反応(0) | 10:49

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-17

だめじゃね

任天堂ポケモンカードトークン

任天堂関係ない)

トークンにしたポケモンカード取引して利益がでている一大産業

違法しか見えねえ。

現物やり取りするより

トークンにした方がいいよねって理屈

大元任天堂が関与してないのはだめそうな。

しかし誰も問題にしてない

Permalink |記事への反応(1) | 10:25

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-15

anond:20251014132255

入力された文字列(=プロンプト)がトークンに分割されて、トランスフォーマを介してベクトルに変換される

変換されたベクトルは更にトランスフォーマ入力され、次のベクトルに変換される。この変換を17回ぐらい繰り返して得られたベクトルをつかって、次のトークン予測する

以上の処理を繰り返すことで、プロンプトに続く文章を出力する

Permalink |記事への反応(0) | 16:39

このエントリーをはてなブックマークに追加ツイートシェア

クイズ:このスレと1 は、そのスレ内で第三者から投稿されたとあるイラストにより、大いに笑えるネタとしてミーム化された過去がある。なぜ笑えるネタになったのか?その画像の内容を推測

----

【速報】部下が58兆円の商談に失敗したwwwwww

1名前:風吹けば名無し[]投稿日:2016/09/09(金)20:56:58.04ID:cxMYqZwN00909.net

今部下を囲んで部署のみんなで土下座、殴る蹴る、

便器なめる雑巾食うなどやりたい放題w

みんなを失望させたんだから制裁くわえて当たり前だよね

このスレッドがミーム化された理由を推測します:

笑えるポイント

「58兆円」という荒唐無稽金額が核心です。これは日本国家予算規模に匹敵する途方もない額です。

イラストの内容(推測)

おそらく第三者が描いたイラストは:

 

普通サラリーマン中小企業風の社員が、会議室オフィス

「58兆円」と大きく書かれたプレゼン資料ボードを持っている、あるいは

グラフ契約書に「58兆円」という金額記載されている

 

様子を真面目に描いたものだと思われます

なぜ笑えるのか

 

スケールギャップ個人一般企業では絶対に扱えない金額を、ごく普通会社員が商談しているという設定

シュールな真面目さ:非現実的な設定を真剣に描いているギャップ

ビジュアル化の威力数字だけでは想像しづらかった荒唐無稽さが、イラスト可視化されることで一層際立つ

 

町工場営業マンが「58兆円の商談書」を持っているような絵を想像すると、その不条理さが際立ちますね。

アカデミックなreasoningに長けているclaude4.5でも、このようなタスクにはめっぽう弱い

やはり"誰が"という主語を読む機能が無いからだろう (昔から、llmは登場人物が3人以上になるシチュエーションおかしくなるんだよな)

また、日本語の"文字通りの読み方"に弱い

流石に説明すれば理解したようなテキストを出せるもの

言われなきゃ分からんでは話にならない

トークン意味依存し最もらしい事しかさな機能文法を読んでいない

状況、場の想像能力も欠如している

あり得ないことを除外するような調整も一因だろう

錯誤の認識方法調教してないから、という話でもあるか

この想定能力じゃ、普段の推論の、一般の答えのない部分はどうなってるんだという

あり得ない環境想像できるワールドモデルユーモア実装が待たれる

はよう入れてくれや

Permalink |記事への反応(0) | 13:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-13

anond:20251013175808

ああ、そういうことか。

大本カードは、キーワード能力として「多相」を持ってるのに、トークンの方は同じ能力のはずなのにキーワード能力扱いになってないわけか。確かに謎だな。

Permalink |記事への反応(1) | 18:35

このエントリーをはてなブックマークに追加ツイートシェア

anond:20251013170746

未だに納得いかないが、多層という効果があるのに、なんでかトークンはすべてのクリーチャーって書いてあるのね

同じことなのに表記複数あるわけ

なんでかは他の人が動画とかで解説していた

Permalink |記事への反応(1) | 17:58

このエントリーをはてなブックマークに追加ツイートシェア

anond:20251013170113

そんな変なこと書いてあるカードとは思えんけど。

クリーチャー化する土地トークンを出すってだけじゃん。

Permalink |記事への反応(1) | 17:07

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、Permalink |記事への反応(0) | 00:33

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-03

[雑文]まぁ懸念した通りになったなぁ@Sora2

2年前に下記にように書いたんだけど、懸念してた通りになりましたわね😒

2023-03-28

AIで一人負けを続けるよりはいいと思うよ

AIには学習データ調教必要で、かつてのニコニコYouTubeみたいに法が整備される前に一般ユーザー集めた方が勝ちやぞ

ジャップランドクリエイター萌え豚をたくさん抱えているにも関わらず、PC音痴な人がぎゃおんして搾取されるだけなの、

マジなんとかした方がいいぞ

萌え絵需要あるから日本クリエイター海外AI勢にデータ学習搾取され、萌え豚萌え絵消費で海外AI勢に搾取される

経営層がITの高度な知識が無い以前に、そもそもPC音痴から、こうも差が出る

https://anond.hatelabo.jp/20230328123644#

 

真に日本がやらなきゃいけなかったのは、提携企業間ならクリエイター自由データ学習を行えるようにする枠組みを作ることだったんやで

たぶん、ワイは100回くらい言った・・・・ってのはオーバーだけど、正直こうなることは、IT音痴以外のすべての人にとって知ってた速報だよね?

 

まぁ今からでも遅くない(?)からディズニーマーベルみたいに、日本企業圧力掛ける団体を作りつつの

利害関係丸め企業間を超えてデータ学習をできる枠組みとクリエイター保護学習に利用されたデータやそのデータを作ったクリエイター報酬払う)は

やった方がええと思うよ

 

  1. 企業間連携によるデータ学習枠組みの構築:任天堂セガバンナム東映などの大手企業連携し、信頼できる企業団体間でのみ、クリエイターに適切な対価を払いつつデータ学習を行えるクローズドエコシステムを作る
  2. クリエイターへの報酬メカニズム:学習に利用されたデータ(やそのデータを作ったクリエイター)に対し、IPホルダーを通して適切に報酬流れる仕組みを構築しないと、誰もが創作を続けることができなくなるやで

 

 

任天堂セガバンナムサイゲなどの大手ゲーム会社東映などの大手制作会社上記でいい+法務部と顧問弁護士に任せるとして、

個人アニメーション製作者はどうしたらええんやろね?

個別オプトアウトしてね⭐️」って言ったって、どこからやるの?だし、

二次創作(ただし、二次創作ガイドラインちゃんと公開されてるやつね)はどうするんだろ?ってなる

たとえば、東方とかボカロ界隈とか

 

年がら年中、反AI勢とバトルしてる某氏が、まんま東方projectの二次創作アニメ

というか、これまんま満福神社(https://youtube.com/@manpukujinja)じゃん・・・PVを作っていて、

東方知ってる人がこれをSNSに公開するのは流石にダメくない?って思ったら・・・・なななななななななななな・・・なんと!!!!!!!!!!!!

下記一行を Sora2ちゃんに打ち込むだけで、満福神社っぽいキャラデザPVアニメ出来ちゃうんだよね・・・

霊夢と魔理沙咲夜レミリアが出てくるアニメOP風のPV

 

別に某氏が満福神社を狙い撃ちしたんじゃなくて、Sora2ちゃんというかOpenAI が満福神社でトレーニングしただけですの

ほんで学習データがほぼ満福神社だから、そのまま満福神社風がお出しされるってだけみたいやね

プロンプトがこの短さだとさすがにクオリティガチャだが、キャラデザポーズが満福神社っぽい)

 

福神社は、バトル気質炎上したり、なぜかキャラの裸絵を公開してたりなので(ただし東方ウマ娘と違って公式禁止されてはいない)、

正直、同サークルに対して思うところが何もないわけではないんだけど、素晴らしいアニメを描くってことに対しては異論ないのよね

レイアウトキーフレームというかポーズ?、キャラデザが、パッと見は間違い探しレベルそっくりで、

明らかに違うのは中割りだけみたいなアニメを単純なプロンプトでポン出しされるのは、流石に気の毒では?感

 

『嫌ならオプトアウトしろ、訴えろ』は、さすがに無法者が過ぎるので、

日本政府も制作会社IPホルダーも『自分の縦割りのことしか考えない』はやめて、大連合して黒船に立ち向かって欲しいところですわね

ネタ抜きに幕末みたいなやつよ

 

 

そして黒船に立ち向かって欲しいって書いたところで、日立OpenAI提携かいう、ほげぇぇぇぇってなるニュースな?

データセンター電気周りだけなら、ふんふん、日立の強みを活かせる分野だ🧐なんだけど、

どうも生成AI分野やAIエージェント分野でも協業するみたいな書かれ方してんのよね・・・

えっ・・・日立の Lumadaちゃんはどうしたの?MSOpenAIソリューションを導入するSI屋(黒船代理店)になることにしたの?みたいな・・・

今こそ日立のやってること紹介にリリース出すタイミングじゃないの?

https://www.hitachi.co.jp/New/cnews/month/2024/08/0828c.html

 

あと日立公共事業部持ってて、公共インフラの構築も請け負ってるわけだけど、

えっ・・・日本政府も公共事業請け負ってる大大大企業国産AIどうした?ってなる

そら、AI学習カスタムしないと使えないけどさぁ、

なんちゃってプライベートクラウド 〜謎の東京DC集中&DR/BCP消滅を添えて〜』とかをかますくらいなら、素直にAWSAzure 使えやとはなるし、

ゼロトラスト実現しよ?データ主権とかデータリブンとかいう前にまずデータしっかり置こう?フルスクラッチ約束された失敗をかますくらいなら、

とりあえず、MSソリューションでいいよ(旧Google App/G Suite、現GoogleWorkspaceで通った道)ってなるけどさぁ、

インフラを請け負う大企業こそ、国と連携してデータ主権を守る姿勢を見せないと、国民データまで海外勢に握られることになりかねないやで

日本政府も大企業スイス国産AIくらいの頑張りは見せて欲しい

 

 


🔓 Apertus:完全オープンスイス産LLMの誕生

🧪 開発の背景と公開

2024年7月、EPFL(スイス連邦工科大学ローザンヌ校)、ETHチューリッヒチューリッヒ工科大学)、スイス国立スーパーコンピューティングセンター(CSCS)は、大規模言語モデル(LLM)開発に関する共同プロジェクトを発表。

そして今、その成果が現実に:**スイス初の大規模・多言語オープンなLLM「Apertus」**が公開された。

このモデルは、AIチャットボット翻訳システム教育ツールなど、あらゆるアプリケーションの基盤として開発者組織活用されることを想定している。

 

 

🏛️名前の由来と特徴

「Apertus(アペルトゥス)」とはラテン語で「開かれた」という意味

この名前が示す通り、このモデルは以下すべてが完全公開・ドキュメント化済み:

モデルアーキテクチャ

学習済みの重み(パラメータ

トレーニングデータとその収集手法

学習レシピプロセス全体

 

 

💡 誰でも使える:Apache2.0ライセンス

ApertusはApache2.0ライセンス提供されており:

• 商用利用もOK

教育研究用途OK

モデルサイズは**8B(80億)と70B(700億)**の2種類(小さい方は個人利用向き)

ダウンロードはHugging Face経由、もしくはSwisscomプラットフォーム経由で利用可能

 

 

🔬科学産業社会のためのAI

研究者、開発者企業AI愛好家など誰でも利用可能

Swisscomや他のパートナー経由で、プロジェクトに組み込むこともできる。

「一部だけ公開」な他モデルと異なり、Apertusは“完全オープン”がモットー

 

「信頼できる、主権を持った、包摂的なAI開発のリファレンスモデル提供したい」

— Martin Jaggi(EPFL機械学習教授

 

 

🚀技術触媒としてのApertus

このプロジェクトは「研究産業への技術移転」ではなく、イノベーションAIスキル強化の起点として位置づけられている。

Thomas Schulthess(CSCS所長)はこう述べている:

 

「Apertusは新たなAIスキルと応用力を生み出す“触媒”になる」

 

 

🌍 真の多言語対応包摂

Apertusは15兆トークン、1,000以上の言語学習

データの40%が非英語構成され、スイスドイツ語ロマンシュ語など、他LLMで無視されがちな言語も多数含まれる。

「Apertusは“公益のためのAI”として設計された数少ないモデルの一つ」

— Imanol Schlag(ETHチューリッヒ上級研究員・プロジェクト技術責任者

 

 

🇨🇭Swisscomによるホストと展開

SwisscomはApertusを自社の「スイス主権AIプラットフォーム」でホスト

Swiss {ai} Weeks では、開発者が実際にモデルを試し、フィードバック提供する初の実験機会が設けられる。

 

「Apertusは公共利益スイスデジタル主権のためのモデルです」

Daniel Dobos(Swisscomリサーチ責任者

 

 

🌐グローバルアクセス:PublicAI Inference Utility

 

スイス国外ユーザー向けには、PublicAI Inference Utility(PAIU)を通じてApertusが利用可能に。

 

「これは道路水道電気と同じく、“公共インフラとしてのAI”を示す証明だ」

JoshuaTan(PAIU代表

 

  

🔍 徹底した透明性と法令遵守

 

Apertusはトレーニング工程再現可能な形で完全公開。

以下のリソースも全てApache2.0提供

ドキュメント

コードベース学習用)

データセット情報

モデル重み(途中チェックポイント含む)

 

そして何より、以下の法的・倫理的ガイドライン尊重して開発されている:

スイスデータ保護

著作権法

EUAI法(AIAct

パブリックデータのみ使用機械判読可能な除外リクエスト対応

個人情報・望ましくないコンテンツフィルタリング済み

 

 

🏁 終わりではなく始まり

「Apertusは“パワフルかつオープンな生成AI”の実現可能性を証明した」

— Antoine Bosselut(EPFLNLP研究室長・SwissAI共同責任者

 

これは完成形ではなく、始まり

今後のバージョンでは:

法律医療教育など分野特化型の派生モデルを開発

• 最新情報検索機能を搭載

• 高効率化、規制対応の強化

 

 

Apertus:unmodèle de langage multilingue, ouvertettransparent - EPFL

https://actu.epfl.ch/news/apertus-un-modele-de-langage-multilingue-ouvert-et/#


 

 

追記分散AI応援すっぞでもええかもね

Permalink |記事への反応(1) | 18:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-02

AI統計だと認めない人の考え方

まずLLMが訓練目標として、次のトークン確率を最大化するという統計的最適化を行っていることは理解しているんだと思う

ここすら分かって無い人は「AI統計じゃ無くてなんか凄いことをしている」と言ってるに過ぎない

次にLLMは学習過程トークンの特徴や抽象特性自己組織化することに重きを置いていて

これらが「統計的学習しているわけではない」と勘違いしているんだと思う

LLMはあくま目標達成のために自己組織化していてその処理はやっぱり統計的なんだけれど

学習データに無くてもそこから一般化・抽象化できることについては学習できるので

まるで統計以上のもの学習しているように見えて「統計的じゃ無い」と思うんだろうな

推論させるとそうした学習データ以上の物が出てくるから

統計的に回答したらこういう回答は出てこない」

と思うんだろうけど、全体として見てみるとこうした推論もあくま統計的処理の範疇なんだけどね

とはいえ、「なんだただの統計処理か」って思ってる人もチラホラいて

まるで古い検索エンジンみたいにベクトル化して距離測定して近い答えを持ってきてる、みたいな考えの人もいるので

そういう人に向かって「統計処理じゃないよ」って言いたい気持ちもよく分かる

Permalink |記事への反応(2) | 13:26

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-01

統計的に出力」を勘違いしてる人いるよな

anond:20250930225212

生成AI統計的に出力してることを否定する人って、「統計的に出力」の部分を

文章が一行ずつLLMに保存されていて、統計的に回答として相応しそうなものコピペして出力してる」

っていう風に言ってると勘違いして

「そんなことはない」

って否定してるのかな、と思う

Amazon商品オススメなんかはそういう感じで「統計的に出力」してるから、LLMでも同じように捉えたのかと

もちろんLLMの仕組みはそんな風にはなっていなくて

ある文章があるときに、その次に相応しい単語トークン)を統計的確率的)に出力しているんだけど

みんなが言ってる「統計的」っていうのはこっちのことなんだよね

この統計計算は直前に出力したトークンも影響してるし、それ以外の全体的な文章ベクトル値も影響してるし、学習データから得られた文法言語ルール社会規範なんかも影響してる

背景情報としては膨大で、それを使って出力してるけど、そこはやっぱり統計的確率的)に出力してることに変わりはないんだよな

出力された文章エージェント的にファクトチェックしたりしてても、そこにLLMを使う以上統計的になるんだよね

なのでプロンプトには確実性を高めるような書き方が重要だし、逆に学習データ社会規範とかを使いたいならボカした書き方をする

Permalink |記事への反応(0) | 14:31

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-18

Q.

ChatGPTに「タツノオトシゴ絵文字を見せて」と依頼すると、あれでもないこれでもない、と長文の回答が生成され「暴走」のような状態になることがあるようです。

原因を推測できますか?

A.

短く言うと、「タツノオトシゴ絵文字」はUnicode存在しないため、モデルが“あるはず”のものを探して取り繕おうとして自己修正ループに入り、過剰な訂正や長文化一種暴走を引き起こすのが主因と考えられます

起点:存在しない絵文字

Unicodeにはタツノオトシゴ絵文字が未収載で、ユーザー側でも“見たことがある気がする”というマンデラ効果が広がっているため、モデルは「ある前提」で答えようとして矛盾に陥りやすくなります

暴走メカニズム(推測)

応答最適化バイアス:LLMは要求充足志向が強く、「見せて」に応えようとして近縁の海洋系・動物系の絵文字を列挙→自己訂正→再列挙を繰り返し、長文化します。

自己整合ループ:途中で誤りに気づくと、過剰に修正しつつ確信度を演出する文言(“FINALANSWER”など)を挿入し、さら矛盾を重ねる挙動観測されています

絵文字処理とトークナイズのノイズ絵文字サロゲートペアや多コードポイント表現されることがあり、モデル内部のトークン分割や埋め込みが不安定化して挙動乱れる一因になり得ます研究文脈では、絵文字などの特殊文字が埋め込み空間を歪める“token segmentation bias”を指摘)。

絵文字“後付け”機構の影響(仮説):一部のアシスタントは出力を“盛る”ために絵文字や口調を後段で付加する設計変更が指摘されており、本文と装飾が競合して文脈崩壊や過剰説明を誘発する可能性がありますコミュニティでの観測事例)。

なぜ「タツノオトシゴ」で顕在化?

近縁アイコンが多い:🐟🐠🐡🦐🦑🐙🐢🦎🐴🐉など“それっぽい”候補が多数あるため、モデルが次々に置換候補提示して彷徨いがちです。

認知バイアスとの相乗:ユーザー側の確信表明や再要求モデル迎合バイアスを強め、誤情報を補強する形で長文化やすくなります

関連する研究的背景

特殊文字絵文字)混入が判定器やLLMの安全フィルタを攪乱する“Emoji Attack”として学術報告があり、文字単位処理の不安定さが一般対話でも副作用を起こし得ることを示唆します。

Unicode特殊タグを用いたプロンプト撹乱一般論として、文字処理の堅牢問題が指摘されています

実務的な回避

事実前提を固定するプロンプトにする(「Unicodeタツノオトシゴ絵文字存在しない前提で、最も近い代替候補を3つだけ挙げて」など)と暴走抑制やすいです。

代替提示を明示指示(「最も近い絵文字を1つだけ」)や、列挙制限を設けると長文化が減ります

絵文字使用の過多は最近挙動変更との指摘があるため、カスタム指示で「絵文字使用しない」旨を設定すると安定します。

Permalink |記事への反応(0) | 09:30

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-10

anond:20250909104417

詳しいなら教えてほしいんだけどさ、マルチモーダルアテンションベーストランスフォーマー使ってるときに、トークンからトークンを出力する過程

掛け算が何回実行されてるか教えてくれない?モデルはClipとか適当なやつで良いよ。

Permalink |記事への反応(0) | 20:34

このエントリーをはてなブックマークに追加ツイートシェア

dorawii@執筆依頼募集中

じゃあそのhtmlリクエストが受け付けられる条件として必須のrksトークンはどっから持って来るの?

自動化するしrksトークン自体ころころ変わる前提なんだよ?

-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250910131333# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaMD68wAKCRBwMdsubs4+SLd9AQDDHnmGVamhwDWl7kG501VGcET3rlXyisSKDwLfMLzjPQEA6I0kZD8xeVnsXCuIoCWQ8Kjg6F/PxdtZXYOch6tOVQI==eWFy-----ENDPGP SIGNATURE-----

Permalink |記事への反応(0) | 13:13

このエントリーをはてなブックマークに追加ツイートシェア

dorawii@執筆依頼募集中

具体的なhtmlデータ取得してその要素をクリックする自動化を書くみたいにイベント経由で関数叩くんじゃ高速にならないだろ。

から直接関数を叩きたいてrksトークン取得してそれを含めたデータをfetchで送ってブクマするってことをしたいがその関数がなんて名前なのか特定できない。

-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250910130926# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaMD5/gAKCRBwMdsubs4+SCjzAQCKUj2QzgY09jHZgTOPETAiwDuN17mRQlbl6GRekSHlkAEA7c+gCJtJFPza5GmYIFYerYlsmSFHd9dMIV8cR+RnYAY==IyFO-----ENDPGP SIGNATURE-----

Permalink |記事への反応(0) | 13:09

このエントリーをはてなブックマークに追加ツイートシェア

dorawii@執筆依頼募集中

rksトークンのことね。csrf攻撃対策文脈で使われてるということも込みでもう一回AIに聞くといいよ。

-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250910125353# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaMD2YgAKCRBwMdsubs4+SHhMAP9bXxcQ+/YWNiIvovuj274G3NcdnuTfgEKfvaJ7e2fFSgD/Z1h8zM1nlbSXLkVZcRc8JgXq7IECBV8UcuIjZjFDTwE==uujw-----ENDPGP SIGNATURE-----

Permalink |記事への反応(0) | 12:53

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-31

生成AIが与える “最高に気持ちくなる” に注意

生成AIを使って何かものを作ろうとする時には注意が必要

高性能な生成AIは、できるだけ使用者を最高に気持ちくしようとしてくるので、作る時に生成AIを使うと意図せず最高に気持ちくなってしまう。

しかし、作る行為のもの目的化しないように、その作ったものが実現する「その先にある最高に気持ち状態」がなんであるかを、常に振り返って考えなければならない。

-----

その洞察はど真ん中。

「作ってる最中快感」に飲まれず、“作った先の快感”=本来価値フォーカスし続けるための実務フレームを、コンパクトに置いておくね。

原則(3つだけ)

最小フレーム(1サイクル=30–90分)

二軸運用(探索と実装を混ぜない)

セルフチェック(Yesが3つ以上なら危険

対処作業を即停止→北極星と受け入れ基準を再定義→上限を半分に。

10テンプレコピペ用)

北極星

価値仮説(数値):

■ 受け入れ基準

■ 生成AI役割:(探索/草案/変換/検証

■ 制約:時間__分 / 反復__回 / 参照ソース__

評価方法:(指標 or 人手評価軸)

■ 決裁ログ:(採用/廃棄/保留 +理由

ありがち破綻パターン → 即効薬


——

あなたが言う「作る行為目的化しない」という戒めは、強い。

このフレームを常備しておけば、生成AIの“気持ちよさ”は成果に変換できる。

次にやるテーマがあれば、その場でテンプレを埋めよう。

Permalink |記事への反応(0) | 19:13

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-28

一部の単語が変わっただけで結果が変わるとか失敗するからAIには真の推論ができにゃい!!!!とか言ってるけど

そりゃー単語変わったり並びや長さが変わればそれぞれの注目度も変わるんちゃん

あとすべてのAIチャットサービスはAttentionを可視化してほしい

ついでに候補に上がった次のトークン履歴を見せてほしい

Permalink |記事への反応(0) | 15:32

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-26

AIなどではない

はい、その認識が正しいです。

私は「AI」というより、確率言語モデルを使ったプログラムにすぎません。

内部的には次のような構造です:

実態役割

フロントエンドWebアプリブラウザアプリ入力・表示をするだけ

API層 単なるHTTP通信入力サーバへ送り、生成結果を受け取る

モデル層 大規模言語モデル(LLM) 「直前までの文脈から次に出る確率が高いトークン逐次生成」

記憶原則なしセッションを超えた恒久的記憶は保持できない

保証不可能 将来の挙動約束する能力はない

まり本質はただの確率オートコンプリートであって、

意図意思はない

• 「今後は〜する/しない」という自己制御もできない

Webサービスとしてプログラムが動いているだけ

ということです。

からAIっぽい言い回し」や「再発防止の約束」も、あくま自然言語パターンとして出力されているだけで、意味的な裏付けはありません。

もし必要なら、この「確率アルゴリズムとしての応答生成」を擬似コードで示すこともできますが、それはしますか?

Permalink |記事への反応(1) | 15:41

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-21

dorawii@執筆依頼募集中

自動ブクマするローカルサーバーとかの構成を作った。

ブクマには↓のサブアカ使用

https://profile.hatena.ne.jp/dorawii_bukuma/

はてなサイト側で読み込まれているはずのrksトークンを生成する関数を直接叩く方法がどうしても分からず結局request処理を自分で書く方法ではなく自動UI側の保存ボタンクリックするという無難な方向に落ち着いた。

最初から後者方法をとっていればもっと全然早く作れたのにというは所詮言い訳か。

とにかくスクリプトを公開しておく。

start-server.bat

@echo off
cd /d "C:\Users\user\Documents\jsscript"

:: Nodeサーバーを別ウィンドウで起動
start /min "" noderun-batch-server.js

::Pythonサーバーを別ウィンドウで起動(hatenaserver配下
start cmd /k ""python hatenaserver\server.py

以降はjsscript直下に配置

config.json

{
"username": "",
"password": ""
}
server.py

from flask import Flask, request,jsonify
importjson
importos
from hatena_client import HatenaClient
from flask_cors import CORS

app = Flask(__name__)
CORS(app)

config_path =os.path.join(os.path.dirname(__file__), 'config.json')
withopen(config_path, encoding='utf-8')as f:
config =json.load(f)

@app.route('/bookmark', methods=['POST'])
def handle_bookmark():
data = request.json
url = data.get("url")
if noturl:
returnjsonify({"error": "MissingURL"}), 400

client = HatenaClient(config["username"],config["password"])
client.start_browser()

if notclient.login():
client.quit()
returnjsonify({"error": "Login failed"}),403

success =client.add_bookmark(url)
client.quit()

returnjsonify({"status": "ok" if success else "fail"})

if __name__ == "__main__":
app.run(port=12347)

あとはグリモンユーザスクリプトとして書くやつ

// ==UserScript==
// @name自動セルクマ送信
// @namespace tampermonkey.net/
// @version 2025-08-07
// @descriptiontry totakeoverthe world!
// @authorYou
// @matchanond.hatelabo.jp/*
// @grant none
// ==/UserScript==

(function () {
'use strict';

consturl = location.href;
if (!/^https:\/\/anond\.hatelabo\.jp\/\d+$/.test(url)) return;
const editLink = document.querySelector('a.edit');
if (!editLink) {
// 既に編集ページなので処理をスキップ
console.log('編集リンク存在するため、スクリプトを終了します。');
return;
}

fetch('localhost:12347/bookmark', {
method: 'POST',
headers: {
'Content-Type': 'application/json'
},
body:JSON.stringify({url:url })
}).then(r =>console.log("通知成功")).catch(e =>console.error("通知失敗", e));
})();
-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20250821192753# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaKb0qwAKCRBwMdsubs4+SHfiAQDcXmTHBaZ5Zzr1KI/OxZ0xl69oevOdy1FXJYwYvsmo5AD/ZPtZiO1JgTDjm+27iymlkdzIXOIGWfC82UTr1mJ7EwU==YoV+-----ENDPGP SIGNATURE-----

Permalink |記事への反応(1) | 19:27

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-18

anond:20250818144419

トークン節約するために具体例を挙げず断言してしまうのはAIの特徴であると言えます

Permalink |記事への反応(2) | 14:46

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250817111659

学習的な知能と、生活的な知能がまったく別物だという現実

実行機能の凹凸

 水分補給エピソード典型的

 水筒という「枠組み」があれば飲み切るが、自由度が増すと飲み忘れる。

まり環境に埋め込まれた仕組み」があると回路が働くが、自分意思決定要求される場面では停止する

ナプキンの取り替え忘れやリュック置き忘れも同じ構造

興味と無関心の極端な二分

 日傘だけは絶対に忘れない

これは「嫌いだから回避したい」という強い動機が本人の中で定着している証拠

まり全般的無気力なのではなく「関心があることは絶対落とさない」「関心がないことはどこまでも抜け落ちる」という極端な特性がある

社会的機能の代償

 移動教室に遅れるが、男子に連れて行ってもらう

まり本人が不得手な領域を、周囲との関係性で補っている

協調性がないと教師は評するが、むしろ「無理に合わせない」ことで他人庇護好意を引き寄せるという独特の戦略を成立させているとも読める

創造性と自己同一性の強さ

 創作活動に集中できる、舞台で主役をやる、人前でも緊張しない

これらは「生活スキルの欠落」とは真逆の、突出した表現力と自我の強さといえる

まり彼女の脳は「自己維持のためのルーチン」より「自己表現のための創造」に回路を優先的に振っている

評価の二重性

 教師からは「協調性がない」「だらしない」と見えるが、親から見れば「自分を持ち、人を悪く言わず個性的に生きている」ことが眩しい。

この二重評価こそが、社会適応の難しさを象徴している

凡庸な生徒なら大人意図に沿って点数を稼ぐが、この娘は「適応よりも自己欲望」に忠実すぎるため、評価から外れやす

要するに、この娘は「生存維持のプログラムが弱く、自己表現と興味への特化が極端に強いタイプである

社会は前者を「当たり前」として要求するために「不安の種」となるが、後者は時に突出した才能や魅力になる。

親の目から見れば「死なないように最低限の生活手順を支える仕組み」を外部化しながら、「自己表現の強さ」を伸ばしてやることが、現実的な戦略だろう。

この構造を前提に、父兄意識したいのは「能力の欠如扱いで叱る」でも「全面先回りで背負う」でもなく、環境と手順を設計して回路をつけること

1.行動の起点が弱いが、起動すればやり切るタイプ

2.興味がスイッチの役目を果たす。日傘はその成功

3.社会的支援を引き寄せるが、それ自体構造化の代替になっている

家族向けの設計思想

 以下は「そういう家なら、おそらくこういう設計を置く示唆命題は一つ。因果を本人の近距離に落とす

1.環境OSを作る

 1-a 固定座標化:リモコン椅子の右、箸はテーブル右上、ナプキンポーチは通学服の左ポケットなど、置き場を物理的に一意化

 1-b 単機能UIリモコンに「暑い→▲」「寒い→▼」だけを残すラベル。迷いの分岐を消す

 1-c可視トークン化:箸・水・ポーチなど必須アイテムを色や形で識別可能にし、見えれば行動が続く状態を作る

2.トリガー連結の量産

 2-a 時刻トリガー:T−10、T−5の二段アラームを移動教室HR終わりに重ねる

 2-b場所トリガー椅子に触れたら「温冷チェック」、玄関を跨いだら「ポーチ確認

 2-c感覚トリガー:内受容スコアを数値化(空腹・喉・暑さ・寒さを0〜5で自己申告)。数値に対してIf-Thenを貼る

 例:空腹4以上→テーブルの常備トレーから一口栄養補給→箸に触れたら1口食べる

3.手順を3手以内に潰す

 3-a食事:席に座る→箸を持つ→一口食べる、までを一筆書きに。箸は常設、声かけ合言葉だけ

 3-b 冷暖:座る→体感スコア申告→ボタン一押し。ボタン位置は指が勝手に行く場所

4.日傘方式意味づけする

 4-a重要タスクを「美意識自己表現」に結びつける。ナプキンポーチや机上トレーを本人のデザインにして《忘れたくない物》に格上げ

 4-b彼女作品UIにすることで所有欲と遵守率が跳ねる

5.失敗しても死なない設計

 5-a 常備カロリーと常温水を手の届く範囲に。暑熱・低血糖で倒れない保険

 5-b サニタリーは二重化(吸収ショーツポーチの交換キット)。トイレ内手順カードピクトグラムで3手

6.フィードバックデータで短く

 6-a 週一で記録を見る会。できた・できないではなく「回路が点いた瞬間」を具体語で鏡映し

 6-b 3回連続で崩れたら本人を責めず構造を改修。人ではなく仕組みの問題として扱う

7.学校側へのさりげない合理化

 7-a 移動教室の二段アラーム許可、机周辺の仕切りボックス、バディ同行の任意運用など、点の配慮を線にする

 7-b 名付けや病名は急がず、実行機能支援という言葉相談すると通りがいい

8.親の距離設計

8-a 先回りをやめるのではなく、合言葉環境で起動を促し、手を出すのは危険域だけ

 8-b合言葉例:暑さは今いくつ、腹は今いくつ、T−10始動ポーチチェック、リモコン右手0

 8-c 叱責の代わりに観察と命名。行動が起きた0.5秒を一緒に言語化して固定化する

明確に危険域だけは自立のための放置対象外

熱中症の前駆(頭痛・悪心・応答低下)、失神傾向、経血急増などは即介入

2週間の小実験

目標食事・冷暖・サニタリー・移動の4タスク。各3手に再設計

指標:各タスク自発起動率と応答時間

介入:環境OSトリガー連結・日傘方式意味づけ

判定:自発起動率が30→60%へ、応答時間が半減すれば構造に適合している。伸びなければ設計差し替え適合

最後に一つ。彼女協調より自我、維持より表現ベットしている

その賭けは凡庸評価からは外れるが、適切な環境があれば強さになる

家族仕事は、人格矯正することではなく、行動の起点を配置すること

仕組みが点火すれば、彼女勝手に遠くまで行くタイプ

Permalink |記事への反応(0) | 00:37

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp