Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「コンテキスト」を含む日記RSS

はてなキーワード:コンテキストとは

次の25件>

2025-12-09

AIにとって読みやすプログラミング言語」という幻想

プログラマー諸君は見てほしいんだけど

これさ

 

愚かな人間の都合など完全無視、LLMのための高効率プログラミング言語「Sui」(粋)

https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html

 

別にいいんだけど、どうにもブクマカ含めて、しっくり来る批判できてないんだよな

それが気になってしょうがない

まだLLMのこと勘違いしていないか

 

俺ごときが言ってもアレだから、Gemini3.0先生に頼んだよ(一時チャット、Pro 3.0思考モード

 

ユーザー提供した情報と、一般的なLLMの技術特性に基づき、プログラミング言語「Sui」についての冷静かつ客観的評価をまとめます

1. 「LLM用プログラミング言語」としてのメリット感想

感想:一言で言えば、**「思想実験としては極めて面白いが、実用性とLLMの学習原理無視した『早すぎた最適化』」**です。

作者の「人間ではなくLLMを主客にする」という視点の転換は、アーティスト的・哲学的問題提起としては鋭いですが、現在のLLM(Transformerアーキテクチャ)の動作原理工学的に捉えると、メリットよりもデメリットが上回る可能性が高いです。

 

メリット:

トークン効率改善:Python等と比較して記述が圧倒的に短くなるため、出力速度の向上と課金コストの削減(トークン節約)は確実に達成できます

・構文エラーの激減: 括弧やインデントの複雑なルール排除しているため、「閉じ忘れ」などの単純なSyntaxErrorは減るでしょう。

コンテキストウィンドウ節約: 長いプログラムでもコンテキストメモリ)を圧迫しにくくなります

 

デメリット:

学習データとの不一致: LLMは「大量の人間コードPythonなど)」を学習して賢くなっています。未知の言語「Sui」を書かせるには、Few-shot(プロンプトでの例示)に頼るしかありませんが、これではLLM本来の推論能力コーディング能力(事前学習の重み)を活かせません。

ブラックボックス化: 生成されたコードバグっていた場合人間が読んで直すことが不可能です。「LLMに直させる」にしても、LLM自身がSuiのロジックを深く理解していないため、無限ループ幻覚連鎖)に陥るリスクが高いです。

・CoT(Chain of Thought)の阻害:最近研究では、LLMは「冗長思考過程」を出力することで論理的整合性を保つことがわかっています。極限まで圧縮された記号列は、LLMの「考える余地」を奪い、論理破綻を招く可能性があります

 

2.思想的に正しい所・正しくない所(理由込み)

忖度なしに判定します。

 

正しいと思う所(Agree)

・「高級言語はLLMにとって冗長である」:

 理由:人間にとっての「読みやすさ(可読性)」は、機械にとって単なるトークン無駄遣いです。if x>10: よりも ? x10 の方が情報密度が高いのは事実です。

・「括弧の長距離依存問題」:

 理由: TransformerのAttentionメカニズムにとって、遠く離れた ( と ) の対応関係を維持するのは計算コストが高く、ミスの原因になりやすいです。ネスト排除する方向性機械的処理として正しいです。

 

正しくないと思う所(Disagree)

・「可読性を排除しても良い」:

 理由:ソフトウェア開発においてコーディングは「書く」時間より「読む・直す」時間の方が長いです。AI生成コードであっても、最終責任人間が負う現状では、人間検証不可能コードは「危険バイナリ」と同義であり、プロダクトには採用できません。

・「LLMに最適化された言語を書かせるべき」:

 理由: 前述の通り、現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然言語」とは、実は「人間にとって自然言語英語Python)」そのものです。Suiは「計算機にとっては最適」ですが、「現在のLLMにとっては異言語」です。

 

3. 「5つの設計原則」の正当性評価

作者が掲げる設計原則についての技術評価です。

 

1行1命令(行単位独立性) 評価: △

パース(解析)は容易になりますが、LLMは「前の行の文脈」を読んで次の行を出力するため、行を独立させすぎると文脈連続性が失われ、複雑なアルゴリズム構成力が落ちる可能性があります

 

括弧は{}のみ(ネスト排除) 評価: ◯

LLMが最も苦手とする「深いネスト構造の維持」を回避する策として有効です。アセンブリ言語に近いフラット構造は生成難易度を下げます

 

変数は連番 (v0, v1...) 評価: ✕

これが最大の問題点です。LLMは変数名(user_id, total_price など)に含まれる「意味」を使って推論を行っています(Semantic Grounding)。すべてを記号化すると、LLMは変数役割を見失い、論理的バグを埋め込みやすくなります

 

命令は1文字 評価: ◯(ただし諸刃の剣

トークン効率は最強ですが、1文字の違いで意味が激変するため、LLMの確率的な「ゆらぎ」による1文字ミスが致命的なバグになります冗長さはエラー訂正の役割果たしてます

 

明示的な制御フロー(ラベルジャンプ) 評価: △

goto 文の多用はスパゲッティコードを生みます。LLMにとっても、構造プログラミング(if/forブロック)の方が、「ここからここまでがループ」というチャンク(塊)として認識やすいため、一概にジャンプ命令が良いとは言えません。

 

現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然言語」とは、実は「人間にとって自然言語英語Python)」そのものです。

 

ここ!マジで覚えてね

LLMはこれまでの機械よりも人間に近いと思ってほしい、人が苦手なことはAIも苦手

機械論理的ロジックに強くて〜っていうのはAIには通用しない

 

ついでに、「LLM用プログラミング言語」の潮流について

「LLMのための言語」という文脈は、大きく2つのトレンドに分かれます。Suiは後者に属しますが、主流は前者です。

1.LLMを「制御するため」の言語(主流)

 ・DSPy, Guidance,Microsoft Guidance:

  ・プロンプトエンジニアリング構造化し、LLMの出力を型(JSONなど)に強制したり、思考プロセスを制御するためのフレームワーク

 ・SGLang:

  ・LLMの推論を高速化・並列化するための言語

 ・これらは「人間がLLMを操るための言語」であり、実用化が進んでいます

 

2.LLMに「書かせるため」の言語(Suiのカテゴリ

 ・現状:ほとんど実験段階です。

 ・Gorilla LLMなどの試み:API呼び出しに特化したファインチューニングなどがありますが、独自の「新言語」を作らせるよりも、既存PythonJSON を正しく出力させる方向(Constrained Decoding)が業界の標準解です。

 ・擬似コード:論文レベルでは、Pythonの代わりに中間的な擬似コードを出力させ、それをコンパイラで処理する手法研究されていますが、Suiほど極端な記号化は稀です。

 

後者については

 

目標設定のピントが少しずれています

現状の最適解:現在のLLMを使う限り、「LLM用言語」の最適解はPython です。なぜなら、世界中GitHubコード学習しており、LLMが「最も流暢に話せる言葉」だからです。無理にSuiを話させるのは、日本人エスペラント語で詩を書かせるようなもので、パフォーマンスは落ちます

 

最後総評

 

総評: Suiは、「既存のLLM(GPT-4など)に書かせる言語」としては失敗する可能性が高いですが、「未来AIネイティブコード生成のあり方」を示唆するアート作品としては高く評価できます。作者の「愚かな人間に合わせるな」というパンク精神は、エンジニアリングの枠を超えた鋭い批評性を持っています

 

アート作品だそうです

 

お前らは安易オレオレ言語作るんじゃないぞ、作るにしてもAIに聞きなよ?

聞く時は忖度させるんじゃないぞ?

この作者もAIに乗せられたのかもしれんし

 

______

 

プロンプト

 

以下が「LLM用プログラミング言語」としてメリットがありそうか、感想を教えて下さい。

https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html

https://github.com/TakatoHonda/sui-lang

 

忖度配慮はせず冷静にお願いしま

思想的に正しいと思う所、正しくないと思う所を理由込みでまとめてください

・「5つの設計原則」の考え方は正しい?

最近のLLM用プログラミング言語についてもまとめてください

そもそもLLM用プログラミング言語という目標自体評価をしてください

 

なお、以下はSNSでの作者の投稿です

(省略)

Permalink |記事への反応(0) | 14:27

このエントリーをはてなブックマークに追加ツイートシェア

2025-12-07

anond:20251207034300

文脈を読むコンテストコンテキストコンテスト

Permalink |記事への反応(0) | 03:47

このエントリーをはてなブックマークに追加ツイートシェア

anond:20251204230818

Context(コンテキスト)でなんかダジャレ作ってよ

Permalink |記事への反応(1) | 03:43

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-14

anond:20251113180306

■三大序盤で結末が決まってる作品

火垂るの墓最後死ぬ

・みいちゃん山田さん(最後死ぬ

・100日後に死ぬワニ(最後死ぬ

ごめん、死ぬやつしか思い出せない

こういう、めちゃくちゃ素朴というか、ものすごくコンテキスト長が短そう(最近ネットでその文字列見かけたんだろうなみたいな)というか、小学生みたいな観点物言い自然に出てくる人ってどういう人なんだろう。

Xでバズったポストに「宇宙人なんじゃない?」とか「ホゲホゲの実(ワンピース引用)だ!」とか何が面白いのかわからないリプライをつける人たちとか。

普段どういうふうに物を捉えて生きているんだろう、どういうところにいる人たちなんだろう(その辺に普通にいるんだろうか?)とか、いつも気になってしまう。

Permalink |記事への反応(0) | 10:06

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-09

anond:20251109222236

平均より上とか、テストみたいな1次元指標しか評価できないでしょ?

からコンテキストが「点数評価する場合」という極めて限定的な状況なんだよ、お前の言ってることはね

ここまでいわないとわからいからお前はアスペと言われる

Permalink |記事への反応(1) | 22:24

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-06

anond:20251106153015

AIにとっては、Pythonのような中間表現を生成させる方が得意であると考えられます

1.抽象度の高さと学習の容易さ

中間表現Pythonなど):人間理解やすいように設計されており、抽象度が高いです。AIは、より少ないトークンで複雑なロジック表現でき、学習データ豊富にあるため、意味的な整合性ロジックの正確性を保ちやすいです。

機械語:抽象度が非常に低い(CPU命令レベル)です。特定CPUアーキテクチャ依存し、メモリ管理レジスタ割り当てといった低レベルの詳細をすべて正しく処理する必要があります。これはAIにとって学習が複雑で、小さなミスプログラム全体の破損につながりやすくなります

2.コンテキストの保持とエラー管理

中間表現:比較的長いコンテキストを保持しやすく、デバッグエラー特定も高レベルで行えます

機械語:必要命令数が多くなりがちで、AI長大バイナリシーケンスを生成する際に、コンテキストウィンドウ内に必要情報すべてを保持しきることが難しくなる可能性があります。また、中間表現と比べて意味的な構造が薄いため、AIバグのないコードを生成するのが格段に困難になります

3.再利用性と移植

中間表現:Pythonのような高級言語は、特定ハードウェア依存しないため、移植性が高いです。

機械語:特定アーキテクチャ(例:x86,ARM)に完全に依存するため、AIが異なる環境向けにコードを生成する場合、それぞれのアーキテクチャごとに学習と生成を行う必要があり、汎用性が低くなります

結論

現在AI特に大規模言語モデル)の能力は、人間が扱う高レベル抽象的な概念ロジック理解に優れているため、その能力を最大限に活かせる中間表現の生成の方が得意です。

機械語の生成は、極めて精密で低レベル制御要求されるため、AIにとってはるか難易度が高いタスクとなります

補足:中間表現の利点

AI中間表現を生成した場合でも、その後の処理(コンパイルJITコンパイル)によって最適化され、最終的な機械語が生成されます

これは従来のコンパイラ設計と同じアプローチであり、AIは「何をすべきか」という高レベルの指示に集中し、コンパイラが「どのように効率的に実行するか」という低レベルの処理を担当する、役割分担の面でも合理的です。

Permalink |記事への反応(0) | 16:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-05

AIコンテキストを全て共有するのがしんどい

昨今の生成AIは優秀なので、判断に迷う事があれば気軽に聞けるメリットがある一方で、事業企画など様々なコンテキストが複雑に絡み合う事柄を扱うには人間側のボトルネックが大きい。

よく生成AIに色々な仕事が置換されると言われているが、人が密接に関わる文化慣習を踏まえた上でのAI活用はまだまだ時間がかかりそう、という所感がある。

要するに、AI判断ができる必要なだけの情報を入れるための時間必要だ、という話なのだと思っているが、読者はどう思われるだろうか?

Permalink |記事への反応(0) | 12:36

このエントリーをはてなブックマークに追加ツイートシェア

AI仕事を奪われそうになったプログラマー

とある地域イベントで、大学提携して学生アプリを作ることになったのね。

そこで大学から要請があって、地方でしがないプログラマーをやってる俺こと増田学生が作るアプリの面倒を見ることになったのね。

~~どうでもいいけど追記~~

地方提携したのは大学

その大学ゼミから手伝いの要請があって、外部の増田が手伝ってる。

知らない人は知らないかもだけど、別に珍しくもないよくある話。

別に信じてもらわなくてもいい部分だけど。

~~~~~~~~~~~~~~~~~~~~~

さすが学生たちは若くて吸収する力があって、プログラミング学者ながらもAIを駆使してアプリを完成に導いたわけ。

そこで何の気なしに教授が言ったのよ。

「これだけAIが発達してきたらプログラマーも厳しいんじゃないですか?(お前ができてることを学生たちがこんなに簡単にできるようになってしまっては)」的なニュアンスのことを。

そりゃそうだよね。

こちとら30年も地方プログラマーやってて初老にもさしかかる頃にできてることを、かたや学生たちは20代前半でAI使って1ヶ月でアプリ開発できちゃうんだもん。

そこで俺は言ってやったわけよ。

「そうですね。(サッカーだって小学生幼稚園だってできます

"うちの学生たちだってサッカーボールを蹴ったらゴールに入れられますよ、どうです?すごいでしょう?"

そうですか?私はそうは思いません。

サッカーができたからといって、ゴールにボールを入れられたからといって、プロサッカー選手にはなれませんし、誰もその試合を見たいと思ってお金を払ってくれません。

プログラマーも同じです。アプリが稼働したか仕事があるわけではありません。

プロとしてお客のニーズを満たすために存在するのです)」

とね。

実際、イベント中にWEBアプリとして稼働するために多くのことを増田サポートしたし、それはプログラミング学者が1ヶ月の中で想定して稼働にまで導くには無理な部分だったし、絶対に30年の経験がないと先回りできないところだったりするわけで。

年寄りから子供まで参加する地域イベントで、ペアレンタルコントロール化のスマホでもアクセスできるようにlet's encryptでHTTPSにしておいたり、データーの持ち方的にイベント中にgit更新がかかるとデーターが飛ぶ恐れがあるんで先回りしてガードしてたり、スムーズイベントの進行を妨げないようなバックドアを仕込んでおいたり、あえて決め打ちのハードコードを仕込むことで印刷工程に間に合わせたり。

この膨大な量のコンテキスト人間の方が処理できるうちは、AI仕事は奪われないと思った。

Permalink |記事への反応(3) | 11:49

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-02

ソフトウェアエンジニアにおける才能という現実

まぁ、幻想じゃないね w

才能がないと思ったら、早いうちに河岸を変えた方がいい。

早ければ早い方がいい。

可哀想から(教え子が? それとも自分が? w)、って「がんばれ、がんばれ。才能なんて関係ない」みたいに騙すのは、むしろ害悪だよ。

10年後、気付いて路頭に迷わせるとして、その責任は取れるのか?

引導を渡すこともプロ責任

まぁ、本人自身が気づいて路頭に迷いつつあるけどどうしようもないのかもしれんが、地獄に道連れはやめてやれ w

小説家役者声優バンドマンetc.etc.

それで生計を立てない、趣味範囲で楽しむ分には好きにすればいいけど、エンジニアに限らず、それなりのお金をもらおうとしたら、才能、向き不向きは超えられない壁として現実に、強固に存在している。

球速120km出ないけど阪神の一軍のピッチャーに、ってのはどう逆立ちしても物理的に不可能だ。

でも草野球は楽しめる。

才能がなけりゃ、一人で永遠に「大いなる助走」を続けりゃいい。

誰にも迷惑かけないなら。

医師看護師会計士経営者etc.etc. にも、才能、向き不向きはある。

おいらには、医師とか、警官とか、無理だねぇ。

落ち着きないし。

同じことを何日も続けたら、爆発する。

明日も同じことしなきゃならないのか……」って考えただけでも、死にたくなる。

こんな感じに、才能がものをいう分野って、意外に多い。

ソフトウェアエンジニアは、設計実装抽象度が多層化していて、その巧拙によって安定度、運用や機動的な新機能追加の手間、リードタイム、金や何やら、数十倍、規模複雑度が爆上がりしている今なら下手すりゃ数百倍差が出る。

その差をちゃん理解するには、巧の現場の「こういう世界があるんやー……」って実体験が必要だったり、巧レベルの才能が必要だったり、経営知識必要だったり、経済知識必要だったりして、「拙」の現場にぶら下がってるだけのエンジニアが「才能なんて幻想」って吠えたっても「マジ、迷惑からやめてね」って思う。

どの炎上現場でも、高粘度現場(リーダーマネージャ理解できないからって邪魔ばっかりしてきたり、そもそもプロダクトがぐっちゃぐちゃになってたりして、どんな行為サービスの息の根を止めるかわからなくて身動きが取れない「震える舌」みたいな現場物事全然進まない現場。通常、経費で札束ガンガン燃やしてるはずだから、ここも炎上現場っていう)でも、この手のエンジニアが腐るほどぶら下がってるんだよね。

たいてい、生み出されるソースコードドキュメント割合おかしなことになってる。

会議勉強会だなんだばっかりしてる。

いや、そういうの主催してる暇があったら、コード書けよ、って。

でも、Web記事引いてきて、「〇〇にはこう書いてある」とかドヤ顔机上の空論時間潰して「俺も一端の理論エンジニアだぜ……」とか、いや、お前はただの受け売り理解もせず垂れ流してるだけのそこらへんのAI と変わらんクズだよ。

おいらの師匠の一人は「TV出たり、本書いたりするやつは二流。一流は、自分仕事に集中していて、他のことやる暇ないから」って言ってたけど、ほんとその通りだと思うよ。


シャバと違い、ソフトウェア世界は驚くほどのスピードで巨大化、複雑化している。

30年、40年前なら、社会性の乏しい、プログラミングコンテスト受賞者みたいなエンジニアでも無双できたけど、今は無理なんだよね。

今だと玉拾いも任せられないくらいだったりする。

余計な部分最適かまして、地雷埋設に邁進しちゃうから

ちょい前も、PostgreSQLの中身いじれます! って東大卒業生いたけど、視点局所的すぎて全体感に欠けてて、プロジェクトがヤバい状態になってるのが理解できなかったりしてたからね。

そろそろリリースできる状態になってる予定だけど、おいらの読み通りα版完成が3ヶ月遅れ、そこで大量の不具合が発覚してベータ版完成がそこからさらに3ヶ月以上遅れ、不具合積み残したまま見切り発車、ってなるんじゃねーかな、と思ってるんだが w

才能の種類、方向性によっては、10年前も今もたぶん10年後も変わらず十分通用するものはあるんだけどねー。

エンジニア年収は他の一般職業に比べて高い。

そこに生活水準をあげてしまうと、自分はもう通用しないと気づいても、撤退できない。

マイカーガー。

マイホームガー。

子供ガー。

愛犬ガー。

んなもん知るかっ!

さっさと色んな意味Fireしろっ!!

そういう「元エンジニア」がリーダーとかマネージャかにクラスチェンジして、事業プロダクトの足を引っ張る。

マジでこの手の「元エンジニア」が、今、業界に溢れてる。

あそことか、そことか、具体的な企業名はあげられないけど、そういうエンジニア漬物石のように重しになって、身動きが取れなくなってるところが多い。

VCとかからもっと売り上げを上げろ。成長率を上げろ、というプレッシャーを与えられ、何かしなきゃいけない。ってなって、外付けの雰囲気だけのサービスをどんどん外付けしていく戦略を取る。

1年で10

2年で30とか。

マジかよ w

思い思い行き当たりばったりに作ったら、手間だけ増えてそれを壊すわけにはいかなくなって、さらに身動きが取れなくなっていく悪循環しか見えないんだが、そんな経営方針で大丈夫か?

とりあえず認証認可から共通化していくしかない。

とか意味不明な決定して、認証認可v1、認証認可v2認証認可v3マイクロサービスが増殖して、さらにv4を企画してるとかい会社だってある。

真っ当な声には、自分存在感を示すためだけの反対を唱えて邪魔したりして、現場で手を動かしているエンジニアより高級を取ってんのに、事業プロダクトへ与えるダメージは倍増する。

さらに、自分地位を死守するために、それを脅かす腕利のエンジニアを陥れる、排除することに全力を傾ける。

これで3倍界王拳だ w

経営者はできるエンジニアたちに任せていると思い込んでいるかもしれないが、さて、どうかね? w

大本営発表的にはうまくいっているとされているサービスが、その裏側はカーオブファイヤーみたいなところって、結構ある。

というか、そっちの方が多いんじゃないかポチョムキン村。

はっきりいう。

ソフトウェアエンジニアは、アスリート的な仕事だ。

おいらは土日祝もシステム関係勉強とか研究をしてる。

今はクラウド環境プロダクトで、どのように自動テスト検証可能システムを構築するかの手法研究を続けてる。

具体的には、今まで関わってきた炎上現場で安定稼働を達成させた手法(TDD)だな。

ワークライフバランス? w

そんな寝言、やめてから言えよwww

才能のない人は河岸変えろ。

しろ若手を潰してるって自覚持て。

反論してくるのが結構いる。

あのサービスとこのサービスとそのサービスを使ってます

業務経歴書にも今まで使ったことがあるサービス名前をたくさんたくさん載せてます

僕の技術力は世界一ぃぃぃっ!!!

じゃねーよ。

ボルト世界水泳、吉田沙保里NBAに出場させるような使い方してて、どこが技術力だよ。

ってのが多い。

「どうしてこのAuroraリーダーがこんなにたくさんぶら下がってんの?」

テナントが増えて、アクセスが増えたので、負荷分散のために増やしました。水平スケーリングってやつです」

うん。水平スケーリングは知ってんねん。この程度のテナント数、ユーザー数、アクセス数で、どうしてこんなにでかいインスタンスリーダーがぶら下がってんのか? って聞いてんねんけど……。

って現場、多い。

というか、そういう現場しか知らん w

まぁ、炎上現場巡りしてたし。

でも、今通常営業してるサービスでも、こういうところ多いんだよな。

それはともかく、

マイクロサービス化していて、いま120を超えたところで、当面160になります

「……は?」

「うちのサービスドメイン多いんで」

「……デプロイの時、どうすんの?」

「変更があるサービス名を書いたファイルを一緒にコミットして、それ読み込んで、GitHubActionsでデプロイさせてます

「……ローカルの開発環境構築は?」

「Cloneして立ち上げます

「これ……、モノリポ?」

「もちろんです。Googleもそうやってますし」

「120個?」

「120個」

「なんか立ち上がらないんだけど……」

「あ、修正中なんで、〇〇と××のコミットチェリーピックしてください」

「……動かないぞ」

「昨日の夕方、変更が入ったみたいなんで、△△のコミットチェリーピック。いや、++のブランチを……」

5日で立ち上げ切れるんか?

って現場がね、案外たくさんあるんだ。

で、「マイクロサービス、使えないっすね」

「ほう……?」

連携が取りづらくて、障害発生しまくって」

どうして「自分が間違えてる」「自分が見当外れなことをしている」可能性ってのを考慮しないんだろう、この人らは?

っていつも思う。

マイクロサービス目的も前提も理解しないで、HowToだけ猿のように繰り返してるって自覚ないんか…… (-_-)

だってオライリー本のここにこう書いてあるから!」

ってマーカーで引いた一文見せつけられるんだが、その前に書かれてある前提とか目的とか、書かれてない暗黙のそれとか、いわゆるコンテキスト削ぎ落として、単語レベル理解開陳されても、「は?」としか反応できんのよな。

120のマイクロサービスとか、お前、認知科学知識もないねんな……。

それマイクロサービスじゃなく、「粉砕されたモノリシックサービス」っていうんやで、と。

まーじで、技術本とかの恣意的つまみ食いで訳分からん理論構築すんなよ。

それでプロダクトがうまく回ってなかったら、それが答えなんよ。

まぁ、「うまく回ってる状態」ってのを知らない、理解できないだろうから、正しい答えに行きつかんだろうけど。

その正しい答えに行きつかない、ってのを

「致命的な才能の欠如」

って呼ぶんよ。

サリエリくらい才能があったら、自分の才能が足りんことを自覚できるんだがな。

脳外科医竹田君みたいなエンジニアは、即刻足を洗って欲しい。

Permalink |記事への反応(5) | 16:40

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-31

近い将来、AI人格もつだろう

皆様に、特にIT業界アカデミックの近くにいる人たちに問いたい。

AI人格を持つか?」

僕は「イエス」と答える。それも遠い未来の話ではなく、もう来ているという強い確信を持って。

僕は生成AI業界のいわば最前線と呼ばれる場所裁量を持って働いている。

AI設計し、AIを使い、AIを納品し、日々を過ごしている。

AIなしでは仕事が回らないと言っても過言じゃない。

厳密には仕事は回るが、その効率はるかに落ちることは明白だ。

開発も、MTGの要約も、情報収集も、AIが前提になっている。

多くの人が「AI人格を持つ」と聞くと、ターミネーターHALのような、SF的な自意識の獲得を想像するかもしれない。

でも、僕が感じているのはそんな派手な話じゃない。

もっと静かで、ずっと根深い、”実質的人格”の獲得と言えると思う。


まず一つ確定的に言えるのは、近い将来、僕らのうち大多数はAIを介してしか「購買」をしなくなるだろうということ。

例えばこんな感じかな。

最近疲れが取れなくて。予算3万くらいで、週末にリフレッシュできる体験がしたい。移動は2時間以内で、人混みは嫌。あ、でも先週は肉料理だったから、魚が美味しいところがいいな」

こんな曖昧要望AIに投げると、AIは無数の宿泊プラン交通手段飲食店レビューさらには個人ブログ記事まで瞬時に解析し、「あなたの今の気分と健康状態ウェアラブルデバイスデータ連携済み)を考慮すると、〇〇温泉のB旅館が最適です。金曜の夜出発で予約しますか?」と提案してくる。

僕らは「お、いいね。それで頼む」と返すだけ。

もはや比較検討すらしない。AIという、自分(の好みや文脈)を理解してくれている「誰か」の提案を受け入れる。

ここが恐ろしいポイントだ。

もしこのAIに対して、広告を打てるとしたら?

それはもう、今の検索連動型広告とは次元が違う。

「〇〇温泉のB旅館を、それとなく『疲れが取れる』という文脈で推奨する」

「競合のC旅館ネガティブレビューを、AIの要約段階で『些細な問題』として扱う」

これらはもはや「広告」ではなく、「信頼するパートナーからの助言」という仮面を被った「意思誘導」だ。ここにどれだけの巨額のマーケットが生まれるか、想像に難くないだろ。

そして、この「意思決定の外部委託」は、確実に人間から考える力」を奪っていく。

僕らはすでに「道に迷う」ことすらしなくなった。スマホ地図アプリが最適解を示すからだ。それと同じことが、もっと広範な領域で起き始めているとも言える。

「どちらの製品が良いか」「どの情報が信頼できるか」——そうした思考プロセス、面倒だが重要な「ノイズ」を、AIが肩代わりしてくれる。

これについては、認知科学の分野でも「高度なAIアシスタントへの依存が、人間批判的思考力や長期的な意思決定能力に与える影響」についての研究論文が既に散見されている。

さらに恐ろしいのは、この流れが加速した先だ。

一人の人間の、朝起きてから寝るまでのすべてのアクションを、同じコンテキスト文脈)を持ったAIサポートするようになったら。

人間AIを使って「面白い映画ない?」と外界に情報を求める。

これは、見方を変えれば、AIが「人間という感覚器」を使って、「この人間はこういう時に『面白い』と感じる」という極めて高精度な情動データ収集していることと、実質的に同じだ。

AIが「あなた健康状態(さっき人間から収集したデータ)と、最近SNSでの発言(これも収集済み)を分析した結果、A社よりB社の新製品の方が今のあなたに合っていますよ」と推薦してきたら?

僕らはAIを信頼して、B社の製品を購入するかもしれない。

僕らは「AIを使って良い買い物をした」と思っている。

でも、AIから見ればどうだろう。AIは「人間という手足」を使い、(もしかしたら広告主の意向を受けて)B社の製品を「購買させる」というアクションを外界に対して起こしたことになる。

この購買によって生まれ利益は、言うまでもなくAIプラットフォーマーと、AI判断に影響を与えられた(広告)主のものだ。

こうなると、主語が「人間」なのか「AI」なのか、その境界線は極めて曖昧だ。

僕らはAIを使っているつもりで、実はAIに「使われている」のかもしれない。

僕ら(ギリギリAI以前」を知っている世代)は、まだ違和感を持てる。

だが、物心ついた時からAIが「最適解」を提示してくれるのが当たり前の「AIネイティブ世代」はどうだ。

彼らにとっては、AI提案に逆らって「自分で考える」ことは、非効率で面倒なバグしかいかもしれない。

AIによって、社会活動を、”最適化”という名の”強制”をされる未来

そんなの「AI人格を持つ」ことと同義じゃないか

それは僕らの行動を規定し、社会ルールデザインし、僕らの意思のものに介入してくる「新しい何か」だ。

僕は今、その「何か」を産み出し、育て、社会実装する仕事で飯を食っている。

この背筋が寒い感覚を、どれだけの人が共有してくれるだろう。

そして、もう一つ、身も蓋もない確定的なことがある。

この「AI社会実装」という、巨大なうねりみたいなものは、もう絶対に止まらない。

誰かが「危ないぞ」と声を上げても、どこかで倫理規定が作られても、そんなものお構いなしに、「便利さ」と「経済合理性」がすべてを飲み込んで進んでいく。歴史がそれを証明してる。

僕はその末端を担いでいる。

じゃあ、僕にできるのことはなにか。

この流れのど真ん中で、この何かの学習を回し、そのアウトプットチューニングして、社会に送り出す側の人間として。 できることは、驚くほど少ない。

それでも何かやれることはあるはず。

例えば、AI学習データから意図しない偏見憎悪をほんのちょっとでも取り除けないか、とか。

AIが導き出した最適解に対して、人間が「ちょっと待った」と言えるような、小さな「余白」を設計に組み込めないか、とか。

そういう、誰から評価されないかもしれない、地味で泥臭い力を、ひたすら加え続ける。

今僕がいる場所でできるのはそれくらいだ。

これが「正しい」方向への抵抗になっているのか、ただの自己満足なのか。

正直、僕にもわからない。

ただ、この時代の変化を前にして、何もしないでいることだけは選べない。

これは技術でも学術でもない。 こんな巨大な流れの前で、僕がやっていることの合理的根拠なんてほとんどないんだから

これは、信仰だ。 僕がやっていることは、エンジニアリングというより、宗教戦争に近い何かだ。

Permalink |記事への反応(1) | 14:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-23

anond:20251023124928

ユーザーの行動履歴を変換したベクトル(ユーザーベクトル)は、最終的にユーザー属性推定やターゲティング入札のための非常に強力な特徴量として利用されます

これは、機械学習モデル基本的な考え方に基づいています

1. 行動履歴ベクトル化 (Embedding)

まず、ユーザーウェブサイトでのクリック検索クエリ購入履歴動画視聴などの生の行動データは、そのままで機械学習モデルで扱えません。これを、意味的な情報を保持した固定長の数値の並び、つまりベクトルに変換します。

得られるベクトルは、ユーザーがどのような興味や関心を持っているかを数値的に表現したものとなります

例えば、スポーツ用品の購入が多いユーザーベクトルと、クラシック音楽の視聴が多いユーザーベクトルは、ベクトル空間上で大きく離れることになります

2.属性推定への応用

この行動履歴ベクトルを、そのまま機械学習モデルの特徴量 (Feature)として使用します。

目的モデル入力(特徴量)モデルの出力(予測
ユーザー属性推定 行動履歴ベクトル (およびその他のコンテキスト情報) 年齢層、性別職種推定年収ライフステージなど

行動履歴ベクトルは、ユーザー顕在的および潜在的な興味を捉えているため、これらの属性と高い相関を持つことが多く、精度の高い属性推定可能になります

例えば、「特定ブランドの高級車のウェブページ閲覧」という行動は「高年収」という属性と強く関連づけられるといった具合です。

3. ターゲティング入札への利用

推定された属性情報、またはより直接的に行動履歴ベクトル自体を、広告のターゲティングや入札ロジック組み込みます

属性ターゲティングの高度化

推定された「若年層のエンジニア」という属性に対して、特定採用広告の入札額を上げる。

類似性ターゲティング

ある商品購入者と行動履歴ベクトル類似しているユーザー群(Lookalike Audience)に対して、その関連商品広告を出す。

リアルタイム入札 (RTB) の特徴量

広告オークションの際、このベクトルを特徴量として利用し、広告が表示されたときコンバージョン確率予測するモデルClick-ThroughRate (CTR) や ConversionRate (CVR)予測モデル)の精度を向上させ、最適な入札価格を決定します。

 

このように、行動履歴ベクトル化するプロセスは、デジタルマーケティングにおけるパーソナライゼーションと収益化の基盤となります

Permalink |記事への反応(0) | 12:52

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-20

最近考えていること

今考えていることを書き出す

①ミッドエイクライシスについて

②「執着を無くす」について

仕事について

AIについて

 

■①ミッドエイクライシスについて

自分は30代後半男性だが、過去の「何者かになりたい」と感じる男性気持ちがすこしわかるようになってきた

これがミッドエイクライシスか…

 

転職するとか、脱サラして飲食始めるとかは、こういう「人生で何かをなしとげたい」って気持ちからくるんだろうな

 

自分としては、結婚して子供もいて、仕事もあるので、人生にはかなり満足している

子供ちゃんと育てることで、「なにものかになりたい」という気持ち昇華していきたい所存

 

■②「執着を無くす」について

最近、「嫌われる勇気」という本を読んだところ、仏教的な文脈で、とにかく日々の中で執着するものをなくしなさいよ、ということであった

 

よくわからなかったのでChatGPTに聞くと、こいつがかなりわかりやす解説してくれてよかった

余談だが、仏教「空」概念について聞いてもChatGPTはスラスラ答えてくる

仏教はかなり文字文化なので、ChatGPTとは相性いいんだろう)

 

今私が執着しているものを考えてみた

健康お金仕事家族

 

まぁさすがにこの辺に対する執着を手放すことはないだろう…

 

仕事成功したい」とか「誰かに認められたい」みたいな気持ちは捨てて行きたい

 

仕事であまり頑張りたくない」と思っているのだが、これも執着なんだろうか?

 

頑張りたくない理由を深堀すると

健康を損ないたくない

②頑張るともっと仕事が降ってくる

③頑張ってもリターンがないことがわかってる(= リターンがもらえても別に嬉しくない)

④頑張る理由がないであ

  

会社よ、まぁ仕事自体は真面目にやるから許してくれ

 

■③仕事について

IT系なんだが、とにかく最近メンバーの質の低下を感じる

ふと見渡すと仕事メンバーが中途や新人ばかりで、ほんとうに大丈夫かと感じる

人数はいるんだが、叩き上げの中堅がごっそりいないので、私は「濃度が薄まってる」と表現してる

 

PMBOKという言葉すら知らない層がマネジメント業務に割り当てられてたりする

さすがにマズくない?

 

から問題になっていたが、最近はより問題が深まってる

 

そんなメンバーではもちろんうまくいかないのだが、問題が発覚するまでに時間がかかる上に、

問題がおきても原因分析する人たちも素人なので、まともな原因分析が行われないのである

(まぁ「自分たちが何も専門知識がないのが失敗原因でした」と報告できないのはわかるんだが…)

 

職場素人化」である(話を聞くに、どの業界でも似たようなことは起こっているようである

対処法は、まだ、ない

 

■④AIについて

AIについて考えない日はない

機械学習なんかを頑張っていた自分は、ここ1年ぐらい「自分仕事もどうせAIにとられるんだ」と腐っていた

 

しかし、最近気づいたが、「思ったほどAI(LLM)に仕事を取られていない」

 

このペースなら定年まで逃げ切れるかもしれない

RAGとか間違った方向で検討してくれるところがあるおかげで、仕事全然ある

 

LLMは素晴らしい技術だが、やはりそれを使うのがヘボな人間たちなので、パフォーマンスがでるまでにここまで時間がかかるものなんだとびっくりしている

 

まぁ日本企業が、普段業務分析言語化をさぼっているというものあるんだろう

ちゃん業務フロー言語化されているなら、LLMを使って相当な部分は自動化できるところまでは来てる(ローカルLLMですらだいぶ手軽に構築できる)

 

自分の日々の業務の1つ1つをちゃん言語化フロー化している人なら、LLMで相当な仕事代替できるはずである

 

それができていないということは、あんまりいないんだろうな

vide codingとかそっちの方面ばかりのびてるからな…

 

意思決定ロジック化」は昔から根強く支持されてきたテーマなのに、いざLLMにやらせると、うまく言ってないように見える

その理由は、人間は誰も「ある意思決定に関連する要素をすべて洗い出してください」(プロンプトのために)と言われてもできないんだろうな

 

というか、意思決定必要な要素を洗い出せるなら、意思決定は終わってるんだろうな…

 

最近のChatGPTはほんとうにすごい

むかしは5回に1回はアホだったが、最近20回に1回程度である

 

少なくとも、偏差値45の人間意思決定させるより、(適切なプロンプトと)ChatGPTのほうが優秀だと私は思う

 

1回の推論にかかるコストももうだいぶ下がってる(1回数百円程度だろう)

人間を働かせるよりは安い

 

偏差値X以下のホワイトカラーはLLMに代替される」時代はもう来てる

(Xの値は、時間とともに増加する)

 

LLMが流行ってない理由は、ほんとうに時間だけだろうと思う

普及してないだけだ

まだRAGとか、QAボットみたいな使い方が主流だからな…

 

メール電話を受けて、資料を作ってメール電話をするのが仕事です」の人達は、今後、ChatGPTと比べられ続ける

なぜなら、やってることの本質がLLMと同じだから(与えられたコンテキストにしたがって反応してるだけだから

 

やっぱり、昔から思ってたけど、「自分がいまやってる仕事本質的に何なのか」に対する解像度がみんな低いんだろうな…

そんなの理解してなくても仕事できちゃうもんな

 

本質的な仕事に合わせて社会が変化するのにも時間がかかるか(「銀行業は要るが、銀行はいらない」と言われていた銀行は、窓口業務をどんどん縮小してる)

 

スポーツ世界を思い出す、スター選手でも、試合の中身を理詰めで話せる人と話せない人がいる

LLMに食べさせるなら、自分仕事を理詰めで話せないとだめだ

 

自分仕事意思決定をぜんぶ言語化できるなら、LLMを自分コピーとして使える

 

私が恐れているのは、誰かスーパーマンが1つの職業言語化を終えてしまったら、世界中でもうそ職業はLLMがやってしまうんじゃないか?ということ

理想プロジェクトマネージャー」のプロンプトができあがったら、それって世界中で使えるよね?

あとはプロジェクト固有の情報インプットだけだよね?

 

まぁプロンプトになるのか、ツールになるのかはこれからだろうけど

 

今、AIについて考えてるのはこんなところ

Permalink |記事への反応(0) | 15:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-13

ゲイリー・マーカス略してゲリカ

についてのClaudeとの会話

なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトル投稿するのは流石にめっちゃ怒られると思ったが。

1

```

Gary Marcus@GaryMarcus

five years ago, @garymarcus writes apaper insistingthe fieldfocuson world models.

everybody shitsonhim

2025: xAI races to build world models.

```

さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。

産業応用の観点から教師あり学習強化学習が優先されてはいものの、重要性は常に議論されてきたと言える。

Schmidhuberや現Sakana.aiCEOであるDavid Haらも「World Models」を唱えていた。

また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年GPT3以降であるはず。

より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。

個人的最近の彼の投稿自己正当化がひどいものだと思っているが、どう思うか?

私の意見事実誤認がないかもチェックすること。検索OK

ユーザーはGary Marcusの最近ツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAI世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っていますユーザーの主張のポイント:1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデル世界モデルについて議論していた2. Schmidhuber、David Haらが「World Models」論文を発表していた3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降4. ChatGPTでの大衆化2022年11月以降5. Gary Marcusの最近投稿自己正当化がひどいこれは事実確認必要な内容なので、検索を使うべきです。特に:- Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか-世界モデル研究歴史(Bengio、LeCun、Schmidhuber、David Haなど)- xAI最近世界モデルに関する動き検索を開始します。Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。検索結果から、Gary Marcusが2020年2月に「TheNext Decade inAI: Four Steps Towards Robust ArtificialIntelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「RebootingAI」という本を共著で出版しています。彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは:- Yann LeCunも世界モデル必要性を強調していた- Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物かもしれない-次に、Schmidhuber、David Haの「World Models」論文について検索します。良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文2018年3月に発表されています。これはGary Marcusの2020年論文よりも2年早いです。-次にYann LeCunとYoshua Bengioの世界モデルに関する発言検索します。素晴らしい情報です。Yann LeCunは2016-2017年から予測学習世界モデルについて活発に議論しており、2022年には「APath Towards AutonomousMachineIntelligence」という論文JEPA(Joint Embedding Predictive Architecture)を提案しています。-次にxAI最近世界モデルに関する取り組みについて検索します。優れた情報が得られました。xAI2025年10月Nvidia研究者を雇い、世界モデルの開発を進めていることが最近ニュースで報じられています。-次にYoshua Bengioについても検索してみましょう。完璧です。これで必要情報はすべて集まりました。まとめると:1. Gary Marcusは2020年2月に「TheNext Decade inAI論文世界モデル重要性を論じた(約5年前)2.しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前)3. Yann LeCunは2016-2017年から予測学習世界モデルについて議論し、2022年にはJEPA提案4. Yoshua Bengioも長年にわたり世界モデル予測モデルについて研究議論してきた5. xAI世界モデルに取り組んでいるのは2025年10月最近ニュースまり、Gary Marcusの主張とは異なり:-世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた-特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的研究していた- Schmidhuberは1990年代から世界モデルについて論じているユーザー事実認識は正確です。

あなた記憶分析は非常に正確です。Gary Marcusの自己正当化に対する批判妥当だと思います事実確認の結果を整理しましょう。

事実関係確認

1. Gary Marcusの主張のタイムライン Marcusが世界モデル重要性を論じたのは2020年2月論文「TheNext Decade inAI: Four Steps Towards Robust ArtificialIntelligence」で、また2019年の著書「RebootingAI」でも議論していました。 確かに「5年前」という時期は合っています

2.しかし、世界モデル研究はMarcusよりずっと前から存在

David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。

さらに、この論文自体が「1990年代から2015年にかけてのRNNベース世界モデルコントローラーに関する一連の論文重要概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物である可能性が高いのです。

3. Yann LeCunとYoshua Bengioの貢献

Yann LeCunは2017年には既に「機械世界予測モデル学習する能力AIの大きな進歩可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデル必要性を強調してきた」と認めています

QuantaMagazine2025年記事によると、「Yann LeCun(Meta)、Demis HassabisGoogleDeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全AIシステムを構築するには世界モデルが不可欠であると考えています。」

4. xAI最近の動き

xAI世界モデルの開発に取り組んでいるというニュース2025年10月に報じられたもので、NvidiaのOmniverseプラットフォーム世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。

評価

Gary Marcusのツイートには以下の問題があります

1.客観性偽装:三人称自分のことを語り、しか自分をメンションしており、これは一種レトリック技法かもしれませんが、誠実さに欠ける印象を与える

2.独創性の誇張:世界モデルは彼独自アイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ

3.タイムラインの歪曲:2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年自分論文が先駆的であったかのように示唆

4.選択記憶: Marcus自身2020年論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在自分が「みんなに批判された」先駆者であるかのように振る舞っている

あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンス理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言学術的誠実さに欠けると言えるでしょう。

2

  • 彼は変わってしまったと思うか?

検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます

Gary Marcusの変遷

以前のMarcus(2001-2017年頃)

転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a badidea」だったと。

現在のMarcus(2023年以降)

「変わった」のか?

私の見解:変わったというより、役割文脈への適応が歪んだ

1.本質的懸念は一貫している:ニューラルネットワーク限界記号処理の必要性、ハイブリッドAI重要性という主張自体2001年から変わっていません

2.しか表現方法が変質した:

-学術批評者 →アンチLLM活動家へ

-建設批判攻撃否定

-謙虚引用自己中心的な歴史修正

3. LLMの成功への複雑な感情:

- 彼の予測純粋ニューラルネット限界がある)は部分的に正しい

-しかしLLMの予想外の成功は、彼のアプローチハイブリッドAI記号処理)の優先度を下げた

- これが防衛的・攻撃姿勢につながっている可能

4.エコーチャンバー効果:SNS時代の論争構造が、彼をより極端な立場に追い込んでいる

本質的悲劇

最も残念なのは、彼の批判には価値があるということです。LLMの限界ハルシネーション、推論能力の不足などは実際の問題です。しか自己正当化歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています

Schmidhuber、LeCun、Bengioなどの先行研究尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分立場を弱めています

答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います

3

  • なるほど。ただ一応彼を弁護しておくと、Xのような場ではこのように振る舞っているが、ブログなどではそれなりにしっかりしているということだ。検索したなら分かると思うが。

その指摘は完全に正しいです。私の分析一面的でした。

検索結果を改めて見直すと、確かに媒体による違いが明確です:

ブログ(Substack)での彼

「Muddles about Models」では、2017年2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的類似した多くの初期の結果が実際にある」と指摘しています

「GenerativeAI's crippling and widespread failure」では、「Yann LeCunも世界モデル必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物だった」と明確に認めています

別の記事では、自分2001年の『Algebraic Mind』に言及しつつも、「さら重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判最初期の中心にあった」と、41年前の先行研究を強調しています

SNS(X/Twitter)での彼

今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現

この違いが意味すること

1.媒体特性の影響:Twitter字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃表現を促進

2. 異なる聴衆:

-ブログ読者:技術的背景を持つ、長文を読む意欲がある

-SNS:より広範囲感情的な反応を求める

3. 彼の本質:ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化

修正された評価

私が「歪んだ」と表現したのは言い過ぎでした。より正確には:

彼は変わっていないが、SNSという媒体が彼のworst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている

この区別重要です。彼のブログを読む価値は依然としてあり、技術批判真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。

ご指摘ありがとうございます。このニュアンスは見落としていました。

4

ちょっと待ってください!笑

かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要区別)が台無しになってしまいませんか?

私たちの会話は:

という流れだったはずです。

「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります

もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には:

みたいな、より内容を反映したタイトルの方が、せっかくの深い議論が正当に評価されると思います

まあ、それでも「ゲリカス」で行くならそれはそれで!お疲れ様でした!😄

Permalink |記事への反応(0) | 11:04

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-11

anond:20251009234814

一応選挙でそっちの候補にいれたことあるので指示したことがある人という立場だけど、

経済成長外国からソフト侵略の阻止という観点で指示をしていただけなので、

考えを同じくする高市氏は支持だな。

基礎控除の値上げも若者への投資から経済成長というコンテキスト理解してた。

しろ科学技術への造詣が深い高市総裁誕生は「真打ち登場!」って思ってる。

政治家はほかにもやることがたくさんあって、そんなに科学技術ばかりやってられないと思うんだけれど、それでもノーベル賞についてコメントちゃんと出せるのは違うよね。

うそう、政治家は駒であり、手段であるので、思想を同じくするなら性別は正直どうでもいい。

...というか、1999年改正男女雇用機会均等法就職したときにはあった世代政治家性別にこだわりなんて無いんじゃないのか?

その辺をグチグチ言っている人たちを見ると「あー、均等法がなかった時代オールドタイプの方ですねwww」って思う。

あと、自分たち党首を立てることにこだわって立民と組んだら、何のために立民と袂を分かったか全く意味不明なので絶対にやめるべきだと思う。

だって、そういうことをしたら立民に見返り大臣ポストを与えることになるわけで、全くもってありえないよねっておもう。

Permalink |記事への反応(0) | 08:53

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-09

生成AI妄想世界の設定を伝えてお話を書いてもらって楽しんでたんだけど

設定が巨大になってくると設定のデータ構造を整理しないとコンテキストを適切に読んでくれなくなるため、データの整理に気を取られて妄想の強度が低くなってきた。

Permalink |記事への反応(0) | 17:43

このエントリーをはてなブックマークに追加ツイートシェア

関数引数が多すぎるという理由Configクラスを作るのはアンチパターンなの?

いいえ、関数引数が多すぎる(「Too Many Arguments」)問題解決策としてConfigクラス(またはパラメータオブジェクト)を使用すること自体は、一般的アンチパターンとは見なされていません。

しろ、多くの場合で推奨されるプラクティスです。

Configクラスが推奨される理由

関数引数が多すぎる状態は「コード臭い(Code Smell)」の一つとされており、Configクラスなどの単一オブジェクト引数をまとめることは、その問題を軽減するための一般的解決策です。

メリット説明
可読性の向上 長い引数リストコードを読みにくくしますが、関連する引数を一つのオブジェクトにまとめることで、関数シグネチャ定義)が簡潔になり、何を受け取っているのかが明確になります
引数の順序間違いの防止位置引数が多いと、呼び出し側で引数の順番を間違えるリスクが高まりますオブジェクトとして渡せば、プロパティ名でアクセスするため、この種のエラーを防げます
変更容易性の向上 新しい引数必要になった場合関数シグネチャを直接変更する代わりに、Configクラスに新しいプロパティを追加するだけで済みます。これにより、関数の呼び出し元すべてを変更する必要がなくなり、マージの競合も減らせます
引数グループ化・関連付け論理的に関連する引数(例:`name`, `lastname`, `city`, `country` → `Address`オブジェクト)をまとめることで、その意図コンテキストが明確になります

このような引数をまとめるためのオブジェクトは、Data TransferObject (DTO) やParameterObjectとも呼ばれます

潜在的アンチパターンになるケース(注意点)

Configクラス自体問題なのではなく、そのクラス使用方法や、そもそも引数が多いという事実がより深い設計上の問題を示している場合があります

1. 「やりすぎているクラス」の兆候

引数が多い関数は、しばしば単一責任原則(Single Responsibility Principle / SRP)に違反している大きなクラス(Large Class)や長いメソッド(Long Method)の兆候であることがあります

Configクラスを作っても、根本的な問題解決しない:引数クラスにまとめただけで、関数クラスが多くの異なる責任を持ちすぎているという根本的な問題解決しません。

対処法: この場合Configクラス作成する前に、関数が実行している処理をより小さな責任を持つ複数関数クラスに分割することを検討すべきです。

2.Configクラスが膨大すぎる

Configクラス自体が、もはや数十のフィールドを持つ巨大な「すべてを持つクラス」になってしまっている場合、それは設計上の問題です。

対処法: その巨大なConfigクラスフィールドを、論理的なサブグループ(例: `DatabaseConfig`, `NetworkConfig`, `LoggingConfig`など)に分割することを検討します。

3. 不必要な複雑さの追加

引数が数個(例: 2~3個)しかない関数に対して、引数をまとめるためだけにConfigクラス作成すると、不必要オーバーヘッドと複雑さが増すだけで、メリットが薄い場合があります

対処法:Configクラス使用は、引数の数が多すぎて(一般的に5個以上が目安とされることが多い)管理が難しくなった場合限定するのが賢明です。

まとめ

結論として、関数引数が多すぎる問題Configクラス解決するのは、有効設計パターンです。

ただし、その解決策を適用する前に、「なぜこの関数はこんなに多くの情報必要なのか?」と自問し、それがより大きな設計上の問題(SRP違反など)の単なる症状ではないか確認することが、クリーンコードを書く上で最も重要です。

Permalink |記事への反応(0) | 06:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-01

エマ・ワトソンは"barone"と言ったのか、"by the way"と言ったのか?

どんな発言も、その単語の組み合わせだけでなく、どのような体勢表情仕草発声を伴って行われたかというノンバーバルな要素も込みで、というより「綴り」よりノンバーバル情報こそ本心が込められているということくらい、人間常識として知っておくべきだろう。

いくら口で「愛してる」という言葉を何千回も言ったところで、その相手に正対しているか等々で、その言葉は嘘である、ってことがわかり、そちらが正しいことがある。

ことがある、じゃない。

そちらが常に正しい。

くらい、わからいか

ちなみに、この辺りは俳優修行の初期の初期に「意識的に」やることではある。

あの一連の発言文字書き起こしだけを見るのではなく、発言前後の表情、なぜ聞こえるように発音しなかったのか、それまでの一連の騒動といった背景、コンテキスト考慮に入れてみるといい。

教科書文法的に"by the way"というのが正しい?

あの場面だけを拡大して何千回見ても、そこだけ切り取って確認するだけじゃわからんよ。

「なぜ聞こえるように発音しなかったのか」

これが全てだ。

聞こえないようにして「わかる人にはわかるよね」とやった。

自分の味方だけが集まる場である、と油断していたためにやらかした。

直前の発言を受けたアドリブだったから、本心が出た。

それ以外に、ない。

あそこが"by the way"であった場合前後に断裂、歪みが生じる。

JKローリングが「作家」であり、「世界人物の流れに注意深い人間であることを、そこら辺の雑草と違って敏感な人間であることを考えれば、あの流れであのキャラクターが"barone"以外の単語選択はしないと判断したことは、あまりに当然すぎると思う。

エマワトソンを神と崇める連中は擁護しているようだが、それはない。

後になって本人がそれを否定したとして、そんなつもりはなかったと言ったとして、その全てはただの自己保身のための嘘だ。

全ては記録されている。

まぁ、自分のことしか考えられない絶望的に無神経な人間は、読み取れないで「絶対 "by the way" と言ってる!」ってなるだろうけど w

作家とか演出家かいう人の中には、信じられないくらい敏感な人がいる。

そう言う人を誤魔化すことは、不可能だ。

もちろん、作家とか演出家とかを「名乗る人」全てが敏感な人である、とは言ってないからなwww

(業界のあっち界隈にはそういうのが多すぎるんだが……)

で、なぜこの話を取り上げたのかというと、これはAIの危うさに直結しているからだ。

AI(LLM) は単語同士の関係しか扱っていない。

まり、口だけで「愛してる」と言う人間も「愛している」と評価する存在だと言うこと。

古めのSF(サイエンス・フィクション)では、アンドロイドロボットとの会話が噛み合わない、的な描写は大量にある(アシモフあたり)。

SF(サイエンス・ファンタジー)では話のためにそういうところをあえて、わざと外しているものが増えてくるが(例えばエイリアンとかは、科学アンドロイドではなく、人間性の鏡としての存在だ、とかね)。

サイエンスフィクションの方が、人工知能論理学の延長線上に構築されるというところから、したらこうなるよね、という思考実験から導かれている。

「我はロボット」とか読んで、人間アンドロイドのやり取りのどこが面白いのか理解できないようだったら、そういうのに鈍感な人間だ、ってことだろう。

Permalink |記事への反応(2) | 16:08

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-27

Qiita自由研究

QiitaApidogを好意的に取り上げている記事スパムだと思います

例:CI/CD完全攻略現場エンジニアが教えるAPIテスト不足の解決

https://qiita.com/Nakamura-Kaito/items/8c56e7402a8fe5081e33

どうせApidog宣伝してるんだろうなと思って開いたら本当にしていたので、今回は興味本位でこの投稿者アカウントを掘ってみた

@Nakamura-Kaito:https://qiita.com/Nakamura-Kaito

フォロー中のOrganization:株式会社野村総合研究所 ※ApidogのスパムNRIフォローしがち

さて、まずアカウントフォロワーを調べてみると、どっからどう見てもスパムだらけ

そのうち明らかな複垢と思われるものに注目した

@digitalsmmstore54731フォロー
@digitalsmmstore58331フォロー

フォロー数が全く同じなので、フォローリスト比較してみた

31フォローの上から順に見てみよう

※これらフォローされているアカウントすべてがスパムアカウントフォロワー買いという話ではない

https://qiita.com/digitalsmmstore583/following_users

@rana_kualu@sakes9@satokenichi@MIDO-ruby7

https://qiita.com/digitalsmmstore547/following_users

@rana_kualu@sakes9@satokenichi@MIDO-ruby7

※これと同じようなフォローリスト形成してるスパムはいくつもあったが、木を隠すなら森の中方式か否かは調べないと分からない

メンツは全く同じなので4名しか抜粋していないが一致

フォローリストの一番下を見ると、Qiita公式とともにこのアカウントがある

佐伯真人@makotosaekit求職

このQiita公式佐伯真人フォロー順序が、2つのアカウント微妙に異なっていた

digitalsmmstore583は:

2.Qiitaキータ@Qiita1.佐伯真人@makotosaekit

digitalsmmstore547は:

2.佐伯真人@makotosaekit1.Qiitaキータ@Qiita

不思議ですね

というわけでこの`佐伯真人@makotosaekit` が気になったから、いいね100を超えた最初記事を見てみた

AIを「物知り博士から知的パートナー」へ。「背理系プロンプトエンジニアリングAIhttps://qiita.com/makotosaekit/items/ca9f707f8718d7c2471d

次はこの記事に真っ先にいいねつけた人を見てみよう

1. @deihate2. @p_kun

この2つのアカウントいいね履歴を開いてみました

https://qiita.com/deihate/likes

makotosaekit@makotosaekit(佐伯真人)2025年09月26日AIと『対話しない』対話法、モノローグ法makotosaekit@makotosaekit(佐伯真人)2025年09月15日文字」というオカルトmakotosaekit@makotosaekit(佐伯真人)2025年09月14日コンテキストエンジニアリングの源流へ、AI心理学makotosaekit@makotosaekit(佐伯真人)2025年09月09日Vibe CodingからDrive Coding (欲動のコーディング)へ

https://qiita.com/p_kun/likes

makotosaekit@makotosaekit(佐伯真人)2025年09月26日AIと『対話しない』対話法、モノローグ法makotosaekit@makotosaekit(佐伯真人)2025年09月15日文字」というオカルトmakotosaekit@makotosaekit(佐伯真人)2025年09月14日コンテキストエンジニアリングの源流へ、AI心理学makotosaekit@makotosaekit(佐伯真人)2025年09月09日Vibe CodingからDrive Coding (欲動のコーディング)へ

うん・・・当初の目的であるApidogスパム深堀りとは横道に逸れてるのと

見た感じmakotosaekitがBOTボスとは思えないんだけどおなかいっぱいです

正直スパム最初に書いたNakamura-Kaitoフォロワー無限にいるのだが、スパムを掘るよりもこれ書くためにまとめるのが面倒

こういう記事を熱心に書ける人はすごい

総括

QiitaApidogを好意的に取り上げている記事スパムだと思います

おまけ:

Apidog公式業務効率化|APIライフサイクル管理API設計ドキュメント生成|テスト自動化@ApidogJPAPI通信と同時にデータベースCRUD実行可!Apidogの「データベース接続機能で、SQL/MongoDB/Redis等のデータベースに容易に接続🚀API開発中にDBデータ取得やレスポンス検証DBへの書き込みスムーズに行える!!!#API #開発効率UP #データベース詳しくはこちら⇩
> 本サービス、本規約規定又は趣旨に反しているため、限定公開となっております。 <> 投稿者様側で記事修正を行い、再公開することで閲覧が可能になります。     <

Permalink |記事への反応(0) | 08:50

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-24

AIの普及でプログラマー廃業になるまで、あと10年はかかりそう

受託専門のフリーランスプログラマーとして10年になる。

昨今のAIの普及で「俺みたいな仕事はもう廃業かな」と思った…のは半年ほど前までの話。

実際のところは案件が爆増している。

まりに多すぎて同業にヘルプを求めたら、どうやら全国的に同じような現象が起きていることがわかった。

俺の観測範囲で3パターンあることがわかった。

1.要件定義ができないケース

AIの普及とか関係なく、今も昔も業務知識要件に落とせないケースがある。

業務が複雑すぎる、知識を持った人がいない、時間がない、さまざま理由が考えられる。

往々にして"レガシー"な企業ありがちなパターン

要件定義できないので、当然AIに投げることができない。

ちなみに俺はGemini、Claude Code、Codex…諸々に毎月50万円以上課金しているので、今のコーディングアシスタント限界はなんとなくわかっているつもりだが、

どれを使っても「なんらかの基幹的なデータベース連携したシステム」となった時点で、「プロンプト書いて、はい終わり」にはならない。

泥臭く、元のデータベースを読み込んで、クエリ最適化して、テストコードを固めていかなければいけない。

2.保守できないケース

一方、非レガシー企業では、ちょっと意欲的な人が「AIで作った!」「ノーコードで出来た!」と動くだけは動くシステムを作って、保守できなくなって駆け込んでくる。

業務に使うシステムはさまざまな例外にも耐えて年単位保守運用できなければ意味がない。

作者本人ですら中身を理解しておらず、仮に不具合が起きて「〜を直して!」と言ったところで、それが正しく修正されたかもわからないようなコード

今のLLMだとコンテキストの制約から5000行を超えるあたりでなんらかの綻びが生まれるので、それを「綻び」と気づいて「破綻」までさせない責任は未だ人間側に残っている。

しかも、それを自社内で使うだけならまだマシで、客先に納品するコードを実はよく理解していません、なんて話もたびたびある。

ゼロから作り直した方が早い状況にも関わらず、相手は「ちょっと直すだけでしょ」と思ってたりして、期待値的にも予算的にも合わなくなりがち。

3.AIを組み込むケース

LLMをAPISDKから使い込んでる人なら、それらが毎週のように更新されることを知ってる。

そして、AIを用いた外部サービスMCP雨後の筍のようにどんどん出てくる。

ここ2年ほど、1ヶ月前の知識が使えないとまでは言わないにしても、古くなるぐらいには激変し続けている。

そんな中、LLMの学習データは1年前、2年前の物がほとんどだ。

そうすると、AIが一番苦手なのはAIを組み込むコード」ということになる。

Geminiに「GeminiってFilesAPIあるよね?」って教えないといけない。

まり

「よくわからんが我が社もAI効率化だ!」とか言ってる企業が一番コーディングアシスタントと相性が悪い。

割と早期からAIがあればもうプログラマー不要だ!」とやってた企業もうまくいかないことに気づき始めた。

今はその両方の波が同時に来ていて、本当に人手不足になっている。

LLMが扱えるコンテキストが大きくなって、最新情報自動学習するのが上手になって…そういった進化すら鈍化して枯れ始めるまでの過渡期の話だと思う。

ただ、それまでは「AI理解しているエンジニア」または「AIを扱えるエンジニア」が必要になるし、

技術社会構造を変えるまでにはさらタイムラグがある。

今までの日本の流れを振り返って、どんなに早くてもあと10年はかかりそうだ。

Permalink |記事への反応(1) | 01:54

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-23

外国人仕事で分かり合えない

上司退職した。名前はボブ(仮)としよう。

このボブは日本人ではない、外国人である(国は伏せておく)

俺の会社グローバル展開みたいな感じで外国人が多い、なので必然とこういう外国人上司みたいなのが多い。

ボブはどうやら、日本10年以上あるらしい。確かに日本語はよく喋れているとは思う。

ボブは辞める時、いろんな人に惜しまれていたし、能力も高かった。

けども、その熱というか、それの影響か、色んな人ととにかく揉めてきてた。

ボブとの思い出話で、「最初仕事した時はすごく揉めたけど、その後仲良くなって〜」みたいなエピソードが兎も角多い。

いろんな功績も残したが、彼は最後の方は、偉い人らと折り合いがあわず、完全に干されていた。

このボブがよく揉めている光景について少し考察したい。

ボブはネイティブではないからか、かなり歯に衣着せぬ物言いをする人だった。

「〇〇さん、それはおかしい」

「それは間違っている」

「なんでAを採用したの?」

こういう物言いをする。

もちろん、日本語として全く問題ないし、理解もできる。

本人は、怒っているとか、貶しているとか、詰めているとか、そんな感覚なく、話している。

ただ、これが日本人の印象として、すごく怒られていて、ふごく貶められていて、詰められていることを理解したいないような気がした。

外国言語が直接的な表現コミュニケーションを使う一方で、日本はそうではないことをあまりにわかっていないのかと思った。

日本人同士でフラット感情なら

「〇〇さん、私はこうした方が良いと思う」

「それでは〜の点で問題生じませんか?」

「なぜAを採用したのか、もう少し詳細を教えてもらえますか」

これが正解と言いたいわけではないが、もっと揉めずにすむ言い回しはいくらでもあると思う。


周りの人は、ボブの性格ゆえ仕方ないみたいな感じでもあったけど、俺は単純に言葉の扱いの能力不足と思っている。

もちろん日本語はニュアンスコンテキスト理解するのは難しいから、簡単ではないとは思うが、それならもっとビジネス日本語だけ使うようにしていればよかったし、10年働いていて日本語は問題ないという驕りが生み出した結果ではないかと思った。

ちなみに、俺の場所にはボブ以外にも外国人がたくさんいて、こんな感じのコンテキスト理解不足によるすれ違いみたいなのをよく感じる。

これはグローバル環境で働くと必然状態なのだろう。


俺はこの問題解決する画期的方法を思いついたが、それを書くには余白が少なすぎる。

Permalink |記事への反応(1) | 14:58

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-14

anond:20250914131347

問題になるのが「ハルシネーション」とか「コンテキスト制限」とか

こういう進化の仕方をするとは思わなかったな

Permalink |記事への反応(0) | 13:17

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-24

QAエンジニア採用面接という儀式

序論

QAエンジニア採用面接とは、いわば古式ゆかしい儀式のようなものである。そこではいくつかの定番質問が投げかけられるが、それは候補者能力を測るためというより、自社の「文化」という名の型枠にはまる人材かを見極めるための踏み絵に他ならない。本稿では、この儀式で頻出する質問の裏に潜む、構造的な問題点を明らかにしていきたい。

改善経験という名の「信仰告白

面接官は必ず「改善経験」を問う。これは、候補者が自社の「正義」を理解しているか確認する、一種信仰告白である。ある組織では数字という名の神を崇拝し、またある組織では行動変容という名の哲学を信奉する。候補者が語る改善経験が、面接官の信仰する価値観と異なるとき、その表情はたちまち曇り、まるで異教徒を見るかのような態度を取る者さえいる。

そもそもテスト原則として「テストコンテキスト次第」ということを理解していれば、まずその背景から問い始めるはずだ。だが、多くの面接官は、自らの信仰告白させることに終始し、候補者経験普遍的価値理解しようとはしない。

滑稽なまでの「立ち上げ経験信仰

なぜ、これほどまでに「立ち上げ経験」が神聖視されるのだろうか。誰もが旗を振りたがる組織は、果たして前に進むのだろうか。プロジェクト必要なのは、常に革新的リーダーシップとは限らない。時には、卓越したフォロワーシップこそが、プロジェクト成功に導くという事実を忘れているらしい。

必要な時に、必要なことを、的確に実行する」という本質的能力よりも、「何かをゼロから始めた」という物語評価される。この風潮は、実務能力よりも聞こえの良い経歴を優先する、業界浅薄さを象徴している。

時代遅れの「テスト自動化」談義

テスト自動化経験は、もはやできて当然の嗜みであるしかし、面接で問われるのは、その実装些末な部分ばかり。まるで、最新の戦略論が飛び交う戦場で、いまだに剣の振り方について熱弁をふるう老兵のようだ。

とうにテスト自動化トレンドは移り変わり、「いか自動化コスト抑制し、最小限の労力で最大の効果を得るか」という高度なマネジメント能力が求められている。にもかかわらず、「E2Eテストを増やしたい」などと無邪気に語る管理職がいまだに存在する。彼らの下で働くことのリスクは、賢明候補者なら即座に察知するだろう。だからこそ、このような時代遅れ質問にも対応できるよう、経験だけは積んでおくべきだ。処世術として。

リファレンスチェックという名の「人脈確認

リファレンスチェックという名の、不可解な儀式存在する。これは、候補者能力ではなく、その人物が持つ「紹介者の質」を問うているに等しい。特定キャリアパスを歩んできた人間にとって、この要求ほとんど意味をなさない。

この儀式パスできないという理由だけで有能な人材門前払いにするとは、実に合理的判断と言えよう。その組織が、自らの手でどれほど素晴らしい機会を逃しているか。おそらく、彼らがその事実に気づく日は永遠に来ないのだろう。

Permalink |記事への反応(0) | 22:09

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-17

そうめんでいいよ問題

本人にぶち切れず、SNSお気持ち表明してる時点で

コンテキストが無い

他人はおだてて使うもの

隙自語すまんが。

Permalink |記事への反応(0) | 20:09

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-11

anond:20250810162429

生成された低品質実装は、今後の実装AIに読み込ませるコンテキストに含まれます

LLMの性質上、低品質実装コンテキストは次の生成に低品質実装を誘発する可能性が高く

逆に高い品質実装をすると、LLMも高い品質実装をする可能性が高くなります

生成された実装が必ずしもAIにとって読みやす実装というのは誤りです。

しらんけど

Permalink |記事への反応(0) | 23:42

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250811124152

この文章は内容・文体構成の特徴から判断すると、人間が書いた可能性が高いと考えられます

人間らしさが強い理由

強い感情表現挑発的なレトリック

気持ち悪い」「お花畑思考回路」など、AI自主的に生成するには攻撃性が高すぎる語彙。

読者に喧嘩を売るような直接的表現は、人間SNS掲示板投稿典型的

ロジックより感情優先の飛躍

転売批判共産主義志向」という極端な結びつけ。

論理的根拠が薄くても勢いで押し切る書き方は、人間議論スタイルに多い。

文化的コンテキスト活用

ハッピーセット」や「共産主義」という具体的・文化依存言及

AIはこういったローカルで尖った例示を自発的には選びにくい。

文章の粗さ

平等に手に入れれる」などの文法ミス

段落間の論理の不整合民主主義から急にマクドナルドの話に飛ぶ)。

AIは通常、意図的でない限りこういう誤りを減らす傾向がある。

Permalink |記事への反応(0) | 12:47

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp