Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「機械学習」を含む日記RSS

はてなキーワード:機械学習とは

次の25件>

2025-10-23

anond:20251023124928

ユーザーの行動履歴を変換したベクトル(ユーザーベクトル)は、最終的にユーザー属性推定やターゲティング入札のための非常に強力な特徴量として利用されます

これは、機械学習モデル基本的な考え方に基づいています

1. 行動履歴ベクトル化 (Embedding)

まず、ユーザーウェブサイトでのクリック検索クエリ購入履歴動画視聴などの生の行動データは、そのままで機械学習モデルで扱えません。これを、意味的な情報を保持した固定長の数値の並び、つまりベクトルに変換します。

得られるベクトルは、ユーザーがどのような興味や関心を持っているかを数値的に表現したものとなります

例えば、スポーツ用品の購入が多いユーザーベクトルと、クラシック音楽の視聴が多いユーザーベクトルは、ベクトル空間上で大きく離れることになります

2.属性推定への応用

この行動履歴ベクトルを、そのまま機械学習モデルの特徴量 (Feature)として使用します。

目的モデル入力(特徴量)モデルの出力(予測
ユーザー属性推定 行動履歴ベクトル (およびその他のコンテキスト情報) 年齢層、性別職種推定年収ライフステージなど

行動履歴ベクトルは、ユーザー顕在的および潜在的な興味を捉えているため、これらの属性と高い相関を持つことが多く、精度の高い属性推定可能になります

例えば、「特定ブランドの高級車のウェブページ閲覧」という行動は「高年収」という属性と強く関連づけられるといった具合です。

3. ターゲティング入札への利用

推定された属性情報、またはより直接的に行動履歴ベクトル自体を、広告のターゲティングや入札ロジック組み込みます

属性ターゲティングの高度化

推定された「若年層のエンジニア」という属性に対して、特定採用広告の入札額を上げる。

類似性ターゲティング

ある商品購入者と行動履歴ベクトル類似しているユーザー群(Lookalike Audience)に対して、その関連商品広告を出す。

リアルタイム入札 (RTB) の特徴量

広告オークションの際、このベクトルを特徴量として利用し、広告が表示されたときコンバージョン確率予測するモデルClick-ThroughRate (CTR) や ConversionRate (CVR)予測モデル)の精度を向上させ、最適な入札価格を決定します。

 

このように、行動履歴ベクトル化するプロセスは、デジタルマーケティングにおけるパーソナライゼーションと収益化の基盤となります

Permalink |記事への反応(0) | 12:52

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-21

数学の分類はこんな感じか

フェミニズムの分類が多すぎると聞いて

anond:20251020210124

0. 基礎・横断

集合論

公理集合論(ZFC, ZF, GCH, 大きな基数)

記述集合論(Borel階層, Projective階層, 汎加法族)

強制法フォーシング),相対的一致・独立

理論理学

述語論理(完全性定理,コンパクト性)

モデル理論(型空間, o-極小, NIP, ステーブル理論

証明論(序数解析,カット除去,直観主義論理

再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)

圏論

関手自然変換, 極限/余極限

加群圏,アーベル圏,三角圏,派生

トポス論,モナド,アジュンクション

数学基礎論哲学

構成主義,直観主義,ユニバース問題,ホモトピー型理論(HoTT)

1.代数学

群論

組み合わせ群論(表示, 小石定理,自由群)

代数群/リー群表現, Cartan分解,ルート系)

幾何群論ハイパーリック群, Cayleyグラフ

環論

可換環論(イデアル,局所化,次元理論, 完備化)

可換環アルティン環, ヘルシュタイン環, 環上加群

体論・ガロア理論

体拡大, 分解体,代数独立, 有限体

表現

群・リー代数表現(最高ウェイト,カズダン–ルスティグ)

既約表現,調和解析との関連,指標

ホモロジー代数

射影/入射解像度, Ext・Tor,派生関手

K-理論

アルバースカルーア理論, トポロジカルK, 高次K

線形代数

ジョルダン標準形,特異値分解,クリフォード代数

計算代数

Gröbner基底,多項式時間アルゴリズム,計算群論

2. 数論

初等数論(合同, 既約性判定,二次剰余)

代数的数論(代数体, 整環,イデアル類群,局所体)

解析数論(ゼータ/ L-関数,素数定理,サークル法, 篩法)

p進数論(p進解析, Iwasawa理論, Hodge–Tate)

算術幾何楕円曲線, モジュラー形式,代数多様体の高さ)

超越論(リンマンヴァイエルシュトラス, ベーカー理論

計算数論(楕円曲線法,AKS素数判定, 格子法)

3. 解析

実解析

測度論・ルベーグ積分, 凸解析,幾何的測度論

複素解析

変数リーマン面, 留数, 近似定理

変数(Hartogs現象, 凸性, severalcomplex variables)

関数解析

バナッハ/ヒルベルト空間,スペクトル理論, C*代数, von Neumann代数

調和解析

フーリエ解析,Littlewood–Paley理論, 擬微分作用素

確率解析

マルチンゲール,伊藤積分, SDE,ギルサノフ, 反射原理

実関数論/特殊関数

ベッセル, 超幾何,直交多項式, Rieszポテンシャル

4.微分方程式力学系

常微分方程式(ODE)

安定性,分岐, 正準系,可積分系

偏微分方程式(PDE)

楕円型(正則性,変分法, 最小曲面)

放物型(熱方程式, 最大原理, Harnack)

双曲型(波動, 伝播, 散乱理論

非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)

幾何解析

リッチ流, 平均曲率流,ヤンミルズ,モノポールインスタント

力学系

エルゴード理論(Birkhoff, Pesin),カオス, シンボリック力学

ハミルトン力学,KAM理論,トーラス崩壊

5.幾何学・トポロジー

位相幾何

点集合位相,ホモトピーホモロジー, 基本群,スペクトル系列

幾何トポロジー

3次元多様体幾何化, 結び目理論,写像類群)

4次元トポロジー(Donaldson/Seiberg–Witten理論

微分幾何

リーマン幾何(曲率,比較幾何,有界幾何

シンプレクティック幾何(モーメント写像, Floer理論

複素/ケーラー幾何(Calabi–Yau, Hodge理論

代数幾何

スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間

有理幾何(MMP, Fano/一般型,代数曲線/曲面)

離散幾何・凸幾何

多面体, Helly/Carathéodory,幾何極値問題

6.組合せ論

極値組合せ論(Turán型, 正則性補題

ランダムグラフ/確率方法(Erdős–Rényi, nibble法)

加法組合せ論(Freiman, サムセット, Gowersノルム)

グラフ理論

彩色,マッチング,マイナー理論(Robertson–Seymour)

スペクトルグラフ理論,拡張グラフ

組合設計ブロック設計, フィッシャーの不等式)

列・順序・格子(部分順序集合, モビウス反転)

7.確率統計

確率論(純粋

測度確率, 極限定理, Lévy過程, Markov過程, 大偏差

統計

数理統計推定, 検定, 漸近理論,EM/MD/ベイズ

ベイズ統計MCMC, 変分推論, 事前分布理論

多変量解析(主成分, 因子,判別,正則化

ノンパラメトリックカーネル法, スプライン,ブーストラップ

実験計画/サーベイ,因果推論(IV,PS,DiD,SCM

時系列(ARIMA,状態空間, Kalman/粒子フィルタ

確率最適化/学習理論

PAC/VC理論,一般境界,統計学習

バンディット,オンライン学習,サンプル複雑度

8.最適化オペレーションリサーチ(OR)

凸最適化

二次計画, 円錐計画(SOCP,SDP),双対性,KKT

凸最適化

多峰性, 一階/二階法, 低ランク,幾何的解析

離散最適化

整数計画,ネットワークフロー, マトロイド, 近似アルゴリズム

確率的/ロバスト最適化

チャンス制約,分布ロバスト,サンプル平均近似

スケジューリング/在庫/待ち行列

Little法則, 重み付き遅延, M/M/1, Jackson網

ゲーム理論

ナッシュ均衡,進化ゲーム,メカニズムデザイン

9. 数値解析・計算数学科学計算

数値線形代数(反復法,直交化, プリコンディショニング)

常微分方程式の数値解法(Runge–Kutta,構造保存)

PDE数値(有限要素/差分/体積,マルチグリッド

誤差解析・条件数,区間演算,随伴

高性能計算HPC)(並列アルゴリズム,スパー行列

シンボリック計算(CAS,代数的簡約, 決定手続き

10.情報計算暗号(数理情報

情報理論

エントロピー,符号化(誤り訂正, LDPC,Polar), レート歪み

暗号理論

公開鍵RSA,楕円曲線, LWE/格子),証明可能安全性,MPC/ゼロ知識

計算複雑性

P vsNP,ランダム化・通信・回路複雑性,PCP

アルゴリズム理論

近似・オンライン確率的,幾何アルゴリズム

機械学習の数理

カーネル法, 低次元構造, 最適輸送, 生成モデル理論

11. 数理物理

古典/量子力学の厳密理論

C*代数量子論, 散乱, 量子確率

量子場の数理

くりこみ群,構成的QFT, 共形場理論CFT

統計力学の数理

相転移, くりこみ, Ising/Potts, 大偏差

可積分系

逆散乱法,ソリトン, 量子可積分モデル

理論幾何

鏡映対称性,Gromov–Witten, トポロジカル弦

12.生命科学医学社会科学への応用数学

数理生物学

集団動態,進化ゲーム, 反応拡散,系統樹推定

数理神経科学

スパイキングモデル,ネットワーク同期, 神経場方程式

疫学感染症数理

SIR系,推定制御, 非均質ネットワーク

計量経済金融工学

裁定,確率ボラ,リスク測度, 最適ヘッジ, 高頻度データ

社会ネットワーク科学

拡散, 影響最大化,コミュニティ検出

13.シグナル・画像データ科学

信号処理

時間周波数解析,スパー表現,圧縮センシング

画像処理/幾何処理

変動正則化, PDE法, 最適輸送, 形状解析

データ解析

多様体学習,次元削減, トポロジカルデータ解析(TDA

統計機械学習回帰/分類/生成,正則化, 汎化境界

14.教育歴史方法

数学教育学(カリキュラム設計, 誤概念研究,証明教育

数学史(分野別史,人物研究,原典講読)

計算支援定理証明

形式数学(Lean,Coq, Isabelle), SMT,自動定理証明

科学哲学数学実在論/構成主義,証明発見心理

Permalink |記事への反応(0) | 10:29

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-20

最近考えていること

今考えていることを書き出す

①ミッドエイクライシスについて

②「執着を無くす」について

仕事について

AIについて

 

■①ミッドエイクライシスについて

自分は30代後半男性だが、過去の「何者かになりたい」と感じる男性気持ちがすこしわかるようになってきた

これがミッドエイクライシスか…

 

転職するとか、脱サラして飲食始めるとかは、こういう「人生で何かをなしとげたい」って気持ちからくるんだろうな

 

自分としては、結婚して子供もいて、仕事もあるので、人生にはかなり満足している

子供ちゃんと育てることで、「なにものかになりたい」という気持ち昇華していきたい所存

 

■②「執着を無くす」について

最近、「嫌われる勇気」という本を読んだところ、仏教的な文脈で、とにかく日々の中で執着するものをなくしなさいよ、ということであった

 

よくわからなかったのでChatGPTに聞くと、こいつがかなりわかりやす解説してくれてよかった

余談だが、仏教「空」概念について聞いてもChatGPTはスラスラ答えてくる

仏教はかなり文字文化なので、ChatGPTとは相性いいんだろう)

 

今私が執着しているものを考えてみた

健康お金仕事家族

 

まぁさすがにこの辺に対する執着を手放すことはないだろう…

 

仕事成功したい」とか「誰かに認められたい」みたいな気持ちは捨てて行きたい

 

仕事であまり頑張りたくない」と思っているのだが、これも執着なんだろうか?

 

頑張りたくない理由を深堀すると

健康を損ないたくない

②頑張るともっと仕事が降ってくる

③頑張ってもリターンがないことがわかってる(= リターンがもらえても別に嬉しくない)

④頑張る理由がないであ

  

会社よ、まぁ仕事自体は真面目にやるから許してくれ

 

■③仕事について

IT系なんだが、とにかく最近メンバーの質の低下を感じる

ふと見渡すと仕事メンバーが中途や新人ばかりで、ほんとうに大丈夫かと感じる

人数はいるんだが、叩き上げの中堅がごっそりいないので、私は「濃度が薄まってる」と表現してる

 

PMBOKという言葉すら知らない層がマネジメント業務に割り当てられてたりする

さすがにマズくない?

 

から問題になっていたが、最近はより問題が深まってる

 

そんなメンバーではもちろんうまくいかないのだが、問題が発覚するまでに時間がかかる上に、

問題がおきても原因分析する人たちも素人なので、まともな原因分析が行われないのである

(まぁ「自分たちが何も専門知識がないのが失敗原因でした」と報告できないのはわかるんだが…)

 

職場素人化」である(話を聞くに、どの業界でも似たようなことは起こっているようである

対処法は、まだ、ない

 

■④AIについて

AIについて考えない日はない

機械学習なんかを頑張っていた自分は、ここ1年ぐらい「自分仕事もどうせAIにとられるんだ」と腐っていた

 

しかし、最近気づいたが、「思ったほどAI(LLM)に仕事を取られていない」

 

このペースなら定年まで逃げ切れるかもしれない

RAGとか間違った方向で検討してくれるところがあるおかげで、仕事全然ある

 

LLMは素晴らしい技術だが、やはりそれを使うのがヘボな人間たちなので、パフォーマンスがでるまでにここまで時間がかかるものなんだとびっくりしている

 

まぁ日本企業が、普段業務分析言語化をさぼっているというものあるんだろう

ちゃん業務フロー言語化されているなら、LLMを使って相当な部分は自動化できるところまでは来てる(ローカルLLMですらだいぶ手軽に構築できる)

 

自分の日々の業務の1つ1つをちゃん言語化フロー化している人なら、LLMで相当な仕事代替できるはずである

 

それができていないということは、あんまりいないんだろうな

vide codingとかそっちの方面ばかりのびてるからな…

 

意思決定ロジック化」は昔から根強く支持されてきたテーマなのに、いざLLMにやらせると、うまく言ってないように見える

その理由は、人間は誰も「ある意思決定に関連する要素をすべて洗い出してください」(プロンプトのために)と言われてもできないんだろうな

 

というか、意思決定必要な要素を洗い出せるなら、意思決定は終わってるんだろうな…

 

最近のChatGPTはほんとうにすごい

むかしは5回に1回はアホだったが、最近20回に1回程度である

 

少なくとも、偏差値45の人間意思決定させるより、(適切なプロンプトと)ChatGPTのほうが優秀だと私は思う

 

1回の推論にかかるコストももうだいぶ下がってる(1回数百円程度だろう)

人間を働かせるよりは安い

 

偏差値X以下のホワイトカラーはLLMに代替される」時代はもう来てる

(Xの値は、時間とともに増加する)

 

LLMが流行ってない理由は、ほんとうに時間だけだろうと思う

普及してないだけだ

まだRAGとか、QAボットみたいな使い方が主流だからな…

 

メール電話を受けて、資料を作ってメール電話をするのが仕事です」の人達は、今後、ChatGPTと比べられ続ける

なぜなら、やってることの本質がLLMと同じだから(与えられたコンテキストにしたがって反応してるだけだから

 

やっぱり、昔から思ってたけど、「自分がいまやってる仕事本質的に何なのか」に対する解像度がみんな低いんだろうな…

そんなの理解してなくても仕事できちゃうもんな

 

本質的な仕事に合わせて社会が変化するのにも時間がかかるか(「銀行業は要るが、銀行はいらない」と言われていた銀行は、窓口業務をどんどん縮小してる)

 

スポーツ世界を思い出す、スター選手でも、試合の中身を理詰めで話せる人と話せない人がいる

LLMに食べさせるなら、自分仕事を理詰めで話せないとだめだ

 

自分仕事意思決定をぜんぶ言語化できるなら、LLMを自分コピーとして使える

 

私が恐れているのは、誰かスーパーマンが1つの職業言語化を終えてしまったら、世界中でもうそ職業はLLMがやってしまうんじゃないか?ということ

理想プロジェクトマネージャー」のプロンプトができあがったら、それって世界中で使えるよね?

あとはプロジェクト固有の情報インプットだけだよね?

 

まぁプロンプトになるのか、ツールになるのかはこれからだろうけど

 

今、AIについて考えてるのはこんなところ

Permalink |記事への反応(0) | 15:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-15

anond:20251015131618

俺はプログラム機械学習もできるから、自前でアルゴ用意している。スマホ操作は1日30分ぐらいだけど、30分で収まるように色々工夫はしているし、日々知識更新はしている

あと、俺は株を本気ではやってない。デイトレで画面に張り付くとか、株価一喜一憂するとか、アホの所業だよ。

プログラム機械学習知識をつかって、本業を頑張ったほうが確実に稼げる。

Permalink |記事への反応(0) | 13:21

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-13

ゲイリー・マーカス略してゲリカ

についてのClaudeとの会話

なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトル投稿するのは流石にめっちゃ怒られると思ったが。

1

```

Gary Marcus@GaryMarcus

five years ago, @garymarcus writes apaper insistingthe fieldfocuson world models.

everybody shitsonhim

2025: xAI races to build world models.

```

さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。

産業応用の観点から教師あり学習強化学習が優先されてはいものの、重要性は常に議論されてきたと言える。

Schmidhuberや現Sakana.aiCEOであるDavid Haらも「World Models」を唱えていた。

また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年GPT3以降であるはず。

より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。

個人的最近の彼の投稿自己正当化がひどいものだと思っているが、どう思うか?

私の意見事実誤認がないかもチェックすること。検索OK

ユーザーはGary Marcusの最近ツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAI世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っていますユーザーの主張のポイント:1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデル世界モデルについて議論していた2. Schmidhuber、David Haらが「World Models」論文を発表していた3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降4. ChatGPTでの大衆化2022年11月以降5. Gary Marcusの最近投稿自己正当化がひどいこれは事実確認必要な内容なので、検索を使うべきです。特に:- Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか-世界モデル研究歴史(Bengio、LeCun、Schmidhuber、David Haなど)- xAI最近世界モデルに関する動き検索を開始します。Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。検索結果から、Gary Marcusが2020年2月に「TheNext Decade inAI: Four Steps Towards Robust ArtificialIntelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「RebootingAI」という本を共著で出版しています。彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは:- Yann LeCunも世界モデル必要性を強調していた- Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物かもしれない-次に、Schmidhuber、David Haの「World Models」論文について検索します。良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文2018年3月に発表されています。これはGary Marcusの2020年論文よりも2年早いです。-次にYann LeCunとYoshua Bengioの世界モデルに関する発言検索します。素晴らしい情報です。Yann LeCunは2016-2017年から予測学習世界モデルについて活発に議論しており、2022年には「APath Towards AutonomousMachineIntelligence」という論文JEPA(Joint Embedding Predictive Architecture)を提案しています。-次にxAI最近世界モデルに関する取り組みについて検索します。優れた情報が得られました。xAI2025年10月Nvidia研究者を雇い、世界モデルの開発を進めていることが最近ニュースで報じられています。-次にYoshua Bengioについても検索してみましょう。完璧です。これで必要情報はすべて集まりました。まとめると:1. Gary Marcusは2020年2月に「TheNext Decade inAI論文世界モデル重要性を論じた(約5年前)2.しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前)3. Yann LeCunは2016-2017年から予測学習世界モデルについて議論し、2022年にはJEPA提案4. Yoshua Bengioも長年にわたり世界モデル予測モデルについて研究議論してきた5. xAI世界モデルに取り組んでいるのは2025年10月最近ニュースまり、Gary Marcusの主張とは異なり:-世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた-特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的研究していた- Schmidhuberは1990年代から世界モデルについて論じているユーザー事実認識は正確です。

あなた記憶分析は非常に正確です。Gary Marcusの自己正当化に対する批判妥当だと思います事実確認の結果を整理しましょう。

事実関係確認

1. Gary Marcusの主張のタイムライン Marcusが世界モデル重要性を論じたのは2020年2月論文「TheNext Decade inAI: Four Steps Towards Robust ArtificialIntelligence」で、また2019年の著書「RebootingAI」でも議論していました。 確かに「5年前」という時期は合っています

2.しかし、世界モデル研究はMarcusよりずっと前から存在

David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。

さらに、この論文自体が「1990年代から2015年にかけてのRNNベース世界モデルコントローラーに関する一連の論文重要概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物である可能性が高いのです。

3. Yann LeCunとYoshua Bengioの貢献

Yann LeCunは2017年には既に「機械世界予測モデル学習する能力AIの大きな進歩可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデル必要性を強調してきた」と認めています

QuantaMagazine2025年記事によると、「Yann LeCun(Meta)、Demis HassabisGoogleDeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全AIシステムを構築するには世界モデルが不可欠であると考えています。」

4. xAI最近の動き

xAI世界モデルの開発に取り組んでいるというニュース2025年10月に報じられたもので、NvidiaのOmniverseプラットフォーム世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。

評価

Gary Marcusのツイートには以下の問題があります

1.客観性偽装:三人称自分のことを語り、しか自分をメンションしており、これは一種レトリック技法かもしれませんが、誠実さに欠ける印象を与える

2.独創性の誇張:世界モデルは彼独自アイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ

3.タイムラインの歪曲:2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年自分論文が先駆的であったかのように示唆

4.選択記憶: Marcus自身2020年論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在自分が「みんなに批判された」先駆者であるかのように振る舞っている

あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンス理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言学術的誠実さに欠けると言えるでしょう。

2

  • 彼は変わってしまったと思うか?

検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます

Gary Marcusの変遷

以前のMarcus(2001-2017年頃)

転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a badidea」だったと。

現在のMarcus(2023年以降)

「変わった」のか?

私の見解:変わったというより、役割文脈への適応が歪んだ

1.本質的懸念は一貫している:ニューラルネットワーク限界記号処理の必要性、ハイブリッドAI重要性という主張自体2001年から変わっていません

2.しか表現方法が変質した:

-学術批評者 →アンチLLM活動家へ

-建設批判攻撃否定

-謙虚引用自己中心的な歴史修正

3. LLMの成功への複雑な感情:

- 彼の予測純粋ニューラルネット限界がある)は部分的に正しい

-しかしLLMの予想外の成功は、彼のアプローチハイブリッドAI記号処理)の優先度を下げた

- これが防衛的・攻撃姿勢につながっている可能

4.エコーチャンバー効果:SNS時代の論争構造が、彼をより極端な立場に追い込んでいる

本質的悲劇

最も残念なのは、彼の批判には価値があるということです。LLMの限界ハルシネーション、推論能力の不足などは実際の問題です。しか自己正当化歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています

Schmidhuber、LeCun、Bengioなどの先行研究尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分立場を弱めています

答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います

3

  • なるほど。ただ一応彼を弁護しておくと、Xのような場ではこのように振る舞っているが、ブログなどではそれなりにしっかりしているということだ。検索したなら分かると思うが。

その指摘は完全に正しいです。私の分析一面的でした。

検索結果を改めて見直すと、確かに媒体による違いが明確です:

ブログ(Substack)での彼

「Muddles about Models」では、2017年2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的類似した多くの初期の結果が実際にある」と指摘しています

「GenerativeAI's crippling and widespread failure」では、「Yann LeCunも世界モデル必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物だった」と明確に認めています

別の記事では、自分2001年の『Algebraic Mind』に言及しつつも、「さら重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判最初期の中心にあった」と、41年前の先行研究を強調しています

SNS(X/Twitter)での彼

今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現

この違いが意味すること

1.媒体特性の影響:Twitter字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃表現を促進

2. 異なる聴衆:

-ブログ読者:技術的背景を持つ、長文を読む意欲がある

-SNS:より広範囲感情的な反応を求める

3. 彼の本質:ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化

修正された評価

私が「歪んだ」と表現したのは言い過ぎでした。より正確には:

彼は変わっていないが、SNSという媒体が彼のworst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている

この区別重要です。彼のブログを読む価値は依然としてあり、技術批判真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。

ご指摘ありがとうございます。このニュアンスは見落としていました。

4

ちょっと待ってください!笑

かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要区別)が台無しになってしまいませんか?

私たちの会話は:

という流れだったはずです。

「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります

もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には:

みたいな、より内容を反映したタイトルの方が、せっかくの深い議論が正当に評価されると思います

まあ、それでも「ゲリカス」で行くならそれはそれで!お疲れ様でした!😄

Permalink |記事への反応(0) | 11:04

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-03

[雑文]まぁ懸念した通りになったなぁ@Sora2

2年前に下記にように書いたんだけど、懸念してた通りになりましたわね😒

2023-03-28

AIで一人負けを続けるよりはいいと思うよ

AIには学習データ調教必要で、かつてのニコニコYouTubeみたいに法が整備される前に一般ユーザー集めた方が勝ちやぞ

ジャップランドクリエイター萌え豚をたくさん抱えているにも関わらず、PC音痴な人がぎゃおんして搾取されるだけなの、

マジなんとかした方がいいぞ

萌え絵需要あるから日本クリエイター海外AI勢にデータ学習搾取され、萌え豚萌え絵消費で海外AI勢に搾取される

経営層がITの高度な知識が無い以前に、そもそもPC音痴から、こうも差が出る

https://anond.hatelabo.jp/20230328123644#

 

真に日本がやらなきゃいけなかったのは、提携企業間ならクリエイター自由データ学習を行えるようにする枠組みを作ることだったんやで

たぶん、ワイは100回くらい言った・・・・ってのはオーバーだけど、正直こうなることは、IT音痴以外のすべての人にとって知ってた速報だよね?

 

まぁ今からでも遅くない(?)からディズニーマーベルみたいに、日本企業圧力掛ける団体を作りつつの

利害関係丸め企業間を超えてデータ学習をできる枠組みとクリエイター保護学習に利用されたデータやそのデータを作ったクリエイター報酬払う)は

やった方がええと思うよ

 

  1. 企業間連携によるデータ学習枠組みの構築:任天堂セガバンナム東映などの大手企業連携し、信頼できる企業団体間でのみ、クリエイターに適切な対価を払いつつデータ学習を行えるクローズドエコシステムを作る
  2. クリエイターへの報酬メカニズム:学習に利用されたデータ(やそのデータを作ったクリエイター)に対し、IPホルダーを通して適切に報酬流れる仕組みを構築しないと、誰もが創作を続けることができなくなるやで

 

 

任天堂セガバンナムサイゲなどの大手ゲーム会社東映などの大手制作会社上記でいい+法務部と顧問弁護士に任せるとして、

個人アニメーション製作者はどうしたらええんやろね?

個別オプトアウトしてね⭐️」って言ったって、どこからやるの?だし、

二次創作(ただし、二次創作ガイドラインちゃんと公開されてるやつね)はどうするんだろ?ってなる

たとえば、東方とかボカロ界隈とか

 

年がら年中、反AI勢とバトルしてる某氏が、まんま東方projectの二次創作アニメ

というか、これまんま満福神社(https://youtube.com/@manpukujinja)じゃん・・・PVを作っていて、

東方知ってる人がこれをSNSに公開するのは流石にダメくない?って思ったら・・・・なななななななななななな・・・なんと!!!!!!!!!!!!

下記一行を Sora2ちゃんに打ち込むだけで、満福神社っぽいキャラデザPVアニメ出来ちゃうんだよね・・・

霊夢と魔理沙咲夜レミリアが出てくるアニメOP風のPV

 

別に某氏が満福神社を狙い撃ちしたんじゃなくて、Sora2ちゃんというかOpenAI が満福神社でトレーニングしただけですの

ほんで学習データがほぼ満福神社だから、そのまま満福神社風がお出しされるってだけみたいやね

プロンプトがこの短さだとさすがにクオリティガチャだが、キャラデザポーズが満福神社っぽい)

 

福神社は、バトル気質炎上したり、なぜかキャラの裸絵を公開してたりなので(ただし東方ウマ娘と違って公式禁止されてはいない)、

正直、同サークルに対して思うところが何もないわけではないんだけど、素晴らしいアニメを描くってことに対しては異論ないのよね

レイアウトキーフレームというかポーズ?、キャラデザが、パッと見は間違い探しレベルそっくりで、

明らかに違うのは中割りだけみたいなアニメを単純なプロンプトでポン出しされるのは、流石に気の毒では?感

 

『嫌ならオプトアウトしろ、訴えろ』は、さすがに無法者が過ぎるので、

日本政府も制作会社IPホルダーも『自分の縦割りのことしか考えない』はやめて、大連合して黒船に立ち向かって欲しいところですわね

ネタ抜きに幕末みたいなやつよ

 

 

そして黒船に立ち向かって欲しいって書いたところで、日立OpenAI提携かいう、ほげぇぇぇぇってなるニュースな?

データセンター電気周りだけなら、ふんふん、日立の強みを活かせる分野だ🧐なんだけど、

どうも生成AI分野やAIエージェント分野でも協業するみたいな書かれ方してんのよね・・・

えっ・・・日立の Lumadaちゃんはどうしたの?MSOpenAIソリューションを導入するSI屋(黒船代理店)になることにしたの?みたいな・・・

今こそ日立のやってること紹介にリリース出すタイミングじゃないの?

https://www.hitachi.co.jp/New/cnews/month/2024/08/0828c.html

 

あと日立公共事業部持ってて、公共インフラの構築も請け負ってるわけだけど、

えっ・・・日本政府も公共事業請け負ってる大大大企業国産AIどうした?ってなる

そら、AI学習カスタムしないと使えないけどさぁ、

なんちゃってプライベートクラウド 〜謎の東京DC集中&DR/BCP消滅を添えて〜』とかをかますくらいなら、素直にAWSAzure 使えやとはなるし、

ゼロトラスト実現しよ?データ主権とかデータリブンとかいう前にまずデータしっかり置こう?フルスクラッチ約束された失敗をかますくらいなら、

とりあえず、MSソリューションでいいよ(旧Google App/G Suite、現GoogleWorkspaceで通った道)ってなるけどさぁ、

インフラを請け負う大企業こそ、国と連携してデータ主権を守る姿勢を見せないと、国民データまで海外勢に握られることになりかねないやで

日本政府も大企業スイス国産AIくらいの頑張りは見せて欲しい

 

 


🔓 Apertus:完全オープンスイス産LLMの誕生

🧪 開発の背景と公開

2024年7月、EPFL(スイス連邦工科大学ローザンヌ校)、ETHチューリッヒチューリッヒ工科大学)、スイス国立スーパーコンピューティングセンター(CSCS)は、大規模言語モデル(LLM)開発に関する共同プロジェクトを発表。

そして今、その成果が現実に:**スイス初の大規模・多言語オープンなLLM「Apertus」**が公開された。

このモデルは、AIチャットボット翻訳システム教育ツールなど、あらゆるアプリケーションの基盤として開発者組織活用されることを想定している。

 

 

🏛️名前の由来と特徴

「Apertus(アペルトゥス)」とはラテン語で「開かれた」という意味

この名前が示す通り、このモデルは以下すべてが完全公開・ドキュメント化済み:

モデルアーキテクチャ

学習済みの重み(パラメータ

トレーニングデータとその収集手法

学習レシピプロセス全体

 

 

💡 誰でも使える:Apache2.0ライセンス

ApertusはApache2.0ライセンス提供されており:

• 商用利用もOK

教育研究用途OK

モデルサイズは**8B(80億)と70B(700億)**の2種類(小さい方は個人利用向き)

ダウンロードはHugging Face経由、もしくはSwisscomプラットフォーム経由で利用可能

 

 

🔬科学産業社会のためのAI

研究者、開発者企業AI愛好家など誰でも利用可能

Swisscomや他のパートナー経由で、プロジェクトに組み込むこともできる。

「一部だけ公開」な他モデルと異なり、Apertusは“完全オープン”がモットー

 

「信頼できる、主権を持った、包摂的なAI開発のリファレンスモデル提供したい」

— Martin Jaggi(EPFL機械学習教授

 

 

🚀技術触媒としてのApertus

このプロジェクトは「研究産業への技術移転」ではなく、イノベーションAIスキル強化の起点として位置づけられている。

Thomas Schulthess(CSCS所長)はこう述べている:

 

「Apertusは新たなAIスキルと応用力を生み出す“触媒”になる」

 

 

🌍 真の多言語対応包摂

Apertusは15兆トークン、1,000以上の言語学習

データの40%が非英語構成され、スイスドイツ語ロマンシュ語など、他LLMで無視されがちな言語も多数含まれる。

「Apertusは“公益のためのAI”として設計された数少ないモデルの一つ」

— Imanol Schlag(ETHチューリッヒ上級研究員・プロジェクト技術責任者

 

 

🇨🇭Swisscomによるホストと展開

SwisscomはApertusを自社の「スイス主権AIプラットフォーム」でホスト

Swiss {ai} Weeks では、開発者が実際にモデルを試し、フィードバック提供する初の実験機会が設けられる。

 

「Apertusは公共利益スイスデジタル主権のためのモデルです」

Daniel Dobos(Swisscomリサーチ責任者

 

 

🌐グローバルアクセス:PublicAI Inference Utility

 

スイス国外ユーザー向けには、PublicAI Inference Utility(PAIU)を通じてApertusが利用可能に。

 

「これは道路水道電気と同じく、“公共インフラとしてのAI”を示す証明だ」

JoshuaTan(PAIU代表

 

  

🔍 徹底した透明性と法令遵守

 

Apertusはトレーニング工程再現可能な形で完全公開。

以下のリソースも全てApache2.0提供

ドキュメント

コードベース学習用)

データセット情報

モデル重み(途中チェックポイント含む)

 

そして何より、以下の法的・倫理的ガイドライン尊重して開発されている:

スイスデータ保護

著作権法

EUAI法(AIAct

パブリックデータのみ使用機械判読可能な除外リクエスト対応

個人情報・望ましくないコンテンツフィルタリング済み

 

 

🏁 終わりではなく始まり

「Apertusは“パワフルかつオープンな生成AI”の実現可能性を証明した」

— Antoine Bosselut(EPFLNLP研究室長・SwissAI共同責任者

 

これは完成形ではなく、始まり

今後のバージョンでは:

法律医療教育など分野特化型の派生モデルを開発

• 最新情報検索機能を搭載

• 高効率化、規制対応の強化

 

 

Apertus:unmodèle de langage multilingue, ouvertettransparent - EPFL

https://actu.epfl.ch/news/apertus-un-modele-de-langage-multilingue-ouvert-et/#


 

 

追記分散AI応援すっぞでもええかもね

Permalink |記事への反応(1) | 18:46

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-02

anond:20251001142227

ぶっちゃけ日本IT技術者のレベルが元々低いだけ」論、読んだけど、雑に日本叩き→雑に海外持ち上げの“気持ちよさ”に全振りしてて、論としては穴だらけだよ。順に潰す。

  

1)比較の軸がぐちゃぐちゃ問題

あなたの主張、国×時代×指標が毎段落で入れ替わってる。

ある段では「発明(基礎技術)」、次は「産業規模(GDP寄与)」、その次は「起業件数制度)」、さらに「一般人知名度文化)」を指標にしてる。

指標が動けば結論も動く。これ、移動ゴールポストね。

イランアメリカ並みのITインフラ」って“並み”の定義は?普及率?帯域?可用性?クラウド事業者選択肢?輸出管理の制約?定義不在の形容詞議論の死因。

  

2) 「2008年以降に発明がない」→定義すり替え

発明”って規格?論文OSS製品?この区別曖昧にして「思い浮かばない=ない」をやるのは主観事実化。

反例を淡々と置く(全部2010年代以降の「世界で通る」技術・成果):

インターネット標準の中枢

HTTP/3 / QUIC系仕様・QPACKの主要貢献者のひとりは日本エンジニア(例:Kazuho Oku)。IETFRFCはまさに“世界標準”。「世界通用」どころか世界の土台。

深層学習実用基盤

Chainer / CuPy(Preferred Networks)は動的計算グラフフレームワークの先行例。PyTorch隆盛の流れに技術的影響を与えた。CuPyはいまも広く使われてる。

産業を支える半導体×ソフトの複合領域

ソニーCMOSイメージセンサ世界シェア筆頭。これは“ハード”に見えて、設計製造信号処理ツール群までソフトの塊。スマホカメラ品質AI前処理の土台。

大規模分散配信実装

日本人が中心メンテに関与した高性能HTTPサーバH2O等)はCDNや低レイテンシ配信採用例多数。

ロボティクス/製造DX

産業ロボットFANUC安川)周辺の制御通信ツールチェーンは世界現場で常用。表に出にくいB2B領域は“見えないだけ”。

LINEが~」みたいなB2Cの派手さだけが発明”じゃない。基盤を握るのは地味仕事あなたが気づかない=存在しない、ではない。

  

3) 「一般人が知ってた技術」を物差しにする誤り

Winny一太郎CD-ROMMIDIを“国民知名度”で持ち上げて、以後は「思い浮かばない」って、知名度技術力の誤用

2000年代以降、ITは不可視化クラウドプロトコルライブラリ半導体サプライチェーン)へシフト。見えないところほど難しくなった。派手なガジェットが減ったかレベル低下、ではない。

  

4) 「C言語嫌い=低レベル」論の短絡

問題領域言語は変える。Webは「5歳児でも」動かせる?今のWebは、

CD/CIIaCK8s、SRE、ゼロトラスト分散トレーシング暗号化フロントの再レンダリング戦略……

これらを運用で落とさないのが本番。Cが偉い/Webが軽い、は90年代教養で止まってる。

  

5) 「許認可が厳しい国ほどIT強国」って本気?

起業に国の試験?それ、フィルタにはなるけどイノベーション十分条件じゃない。

厳格許認可=「基礎がわかる経営者」ではなく、官許ビジネス忖度の温床にもなる。
起業件数6,500社って、定義登記区分/国策インキュベーションの延べ数)次第でいくらでも膨らむ。数字は分母と定義を見てから

  

6) 「トップダウン国家が正しい」論の危険単純化

トップダウン国家プロジェクトやインフラ敷設には強い。しかし、

検閲・輸出規制外資退出リスクが高いと国際的エコシステム痩せる
ボトムアップOSS文化標準化活動多様性越境が命。これは民主的開放的ガバナンスに寄る。

分野で強弱は揺れる。制度の一軸で「勝ち負け」を断ずるのは幼い。

  

7) 「北朝鮮フィンテックで負けてる」=カテゴリーエラー

それ、犯罪としてのサイバー強盗の話でしょ。規制準拠金融基盤と国ぐるみハッキングを同じ土俵で比べるのは、

「百メートル走で銃使えば最速」って言ってるのと同じ。比較土俵設定から破綻

  

8)産業構造の話を“エンジニア能力”に押し付ける雑さ

日本ITが伸び悩んだ要因は複合要因:内需構造調達多重下請け英語コミュニケーションストック報酬の弱さ、エクイティ文化大学産業距離IPO市場の質、人口動態、為替

これを全部「技術者のレベル低い」で片付けると、説明力を失う。制度資本設計問題制度資本で解くのが筋。

  

9) 「じゃあ日本は何で勝ってるの?」に答える

インターネット標準・高速配信HTTP/2/3実装仕様貢献、超低遅延配信
半導体×光学×AI前処理:CMOSイメージセンサ周辺のHW/SW統合世界スマホ車載の目。
ロボットFA制御安全規格・現場統合は“地味に”世界標準。
数値計算/機械学習基盤:CuPyや各種最適化ツール学術産業で常用。
モバイル網の仮想化オープン化:Open RAN系の実証事業化で世界選択肢を増やした。

「勝ってる」を“B2Cバズるアプリ”だけに限定するから見落とす。

  

10) まとめ:感情理解する、でもロジックは直そう

主観の羅列と定義曖昧さで「結論ありき」。
2000年代後半以降の日本IT問題だらけだった——それはそう。でも「技術者のレベルが低いだけ」は説明になってないし、反例が普通にある。
正しくは、制度資本需要言語標準化への投資が薄い領域可視的なB2C成功が少ない。一方で不可視の基盤では普通に世界を支えてる。

  

最後に一個だけ。

「“思い浮かばない”から存在しない」はあなた検索能力問題であって、世界事実ではない。

そこを直さないと、次の10年も気持ちよく叩いて終わりだよ。

Permalink |記事への反応(3) | 00:27

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-01

anond:20251001152931

挙げられた本、全部生成AI登場以前に書かれた、古い本じゃない?

全部読んでも、機械学習の話だけで、生成AI説明が登場しなかったと思う。

生成AIまでちゃん勉強したいなら、少なくとも追加で

目次に embedding、transformer、attention の項目がある書籍を読まないと駄目。他にもCoTとかMoE勉強必須

2025年の春ぐらいに日本語でもいい書籍が出たんだけど、基本的英語じゃないとまともな書籍は無いと思う。

逆に古典的な2クラス識別器を理解する程度でいいなら、ビショップ本だけ読めばOK

ただしビショップ本だけでも、旧帝大情報系の修士学生でやっと理解できるレベル難易度だ。偏微分とかニュートン法ぐらいは基礎知識として理解してないと即死する。

AI舐めんな。クソ難しいぞ。

Permalink |記事への反応(0) | 20:16

このエントリーをはてなブックマークに追加ツイートシェア

AIの仕組みについて漠然理解している人のために

AIって結局は統計だろ?」

ネットでこういった言葉を見かける度、正直モヤモヤしている。

かに統計的な処理がAIの根幹にあるのは間違いない。

データを集め、確率計算し、そこから最適解を選び出す。そういう構造があるのは事実だ。だから「まったく違う」と言い切るのも嘘になる。

だが、それを「AIって結局は統計だろ?」なんて一言で片づけるのは、あまりに横暴だ。

統計のものを動かす理論や数理、そこに積み上げられたアルゴリズムの厚みを無視してしまっているからだ。

たとえば俺が本気で勉強したときにぶん殴られたのは統計の延長で片付けられないようなもっと複雑でもっと美しい構造だった。

から、この言葉モヤモヤするのは「半分は当たっているけど、半分は外している」から

AI統計でありながら、統計還元できないものでもある。

その両義性を理解せずに「統計だろ?」で済ませるのは、ピアノの音を聴いて「ただの鍵盤を叩いてるだけだろ?」って言ってるようなものだと思う。

そこで、AIの仕組みについて漠然理解している人のためにおすすめの本を三冊紹介する。

ここで紹介する三冊は、そんな俺のモヤモヤを実際に言語化してくれた本たちだ。

難しいし、読み進めるのに何度も心が折れかけた。けど読み切ったときAI統計か?それとも統計じゃないのか?という問いが、ようやく立体的に見えるようになったんだ。

から是非一読してみてほしい。険しい山ほど、山頂から景色は美しいものから

パターン認識機械学習

著者:Christopher M. Bishop

最初に手にしたとき、数式のオンパレードに心折れかけた。

けど、それでも読み進めると「機械学習ってバラバラアルゴリズムじゃなくて、確率という一本の軸で全部つながってるんだ」って感覚が急に開けてくる。

ロジスティック回帰SVMニューラルネットも、ぜんぶ親戚だったのかよ!って衝撃。

何度も挫折しかけてはメモ書きしながら戻って、理解できた瞬間に鳥肌が立つ。

俺にとって本書は、AIという森の入口に置かれた地図のものだった。

計算理論の基礎』

著者:Michael Sipser

PRMLとは真逆の本。ここではただ無機質なオートマトンチューリングマシンのみ。

計算ってそもそも何なんだ?」っていう根本を突きつけてくる。AIだってこの枠組みの外には出られない。

NP完全問題の章なんか読んだ暁には「世界にはどう足掻いても効率よく解けない領域がある」って現実にぶん殴られる。

AIが万能に見えても、その背後には絶対限界があるんだと分からされる。

ここを通ると、妄信的に「AI最強!」なんて言えなくなるしいい意味冷や水ぶっかけられる本。

AI万能説が唱えられる昨今、この一冊を読み理解することでAI本質理解できるようになるのは確かだ。

深層学習Deep Learning)』

著者:Ian Goodfellow, Yoshua Bengio, Aaron Courville

本書は深層学習を知るためのバイブル

PRMLで仕組みの家系図を見て、計算理論で壁にぶち当たったあと、ここに来ると「でも実際に世界を変えてるのはこっちだろ」って現実を知ることができる。

CNNがどうやって画像認識してるのか。RNNがどう文章を扱ってんのか。GANがなぜフェイクをリアルにするのか――それが手元の紙と数式の上でほどけていくと、ニュースAIが急に手触りを持つ。

もちろんクソ難しい。何度も心折れた。

でもここにいまの世界心臓部があるって思ったらページを閉じられなかった。

読み切ったあと、AI魔法じゃなくて地道な科学だって確信が腹の底に残る。

名著。

おわりに

AI勉強基本的に超しんどい

数式だらけで頭が痛くなるし、途中で本を閉じて「俺には無理だ」って投げ出したくなる瞬間が何度もあった。

だけど不思議とまた戻ってきてしまう。何故か?何故ならそこにワクワクがあるからだ。

ページをめくるたびに「うわ、こんな発想があるのか!」って驚かされる。

統計だけじゃない。論理だけじゃない。人間思考を真似しようとした末に生まれた知恵の積み重ね。

それを追体験するのは、ちょっとした冒険みたいなものだ。難しさと楽しさが同じ場所にある。

AIって結局は統計だろ?」

白状するが、当時は俺もそう思っていた。

だがそう思ってた自分が今ではちょっと恥ずかしい。

実際に学んでみればそれがどれだけ奥深く、そして人間の営みそのものみたいに豊かな世界だったかが見えてくる。

からもし、ここまで読んで「ちょっとやってみるか」と思った人がいたら、迷わず飛び込んでみてほしい。

きっと最初は溺れる。それは保証する。

でも、そのうち泳げるようになる。スイスイ泳げるようになる。それも保証しよう。

そして気づくはずだ。

巨人肩に乗って見える景色は、めちゃくちゃ美しいんだなってことを。

Permalink |記事への反応(23) | 15:29

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-28

子どもって何のために必要なの?

夫婦視点ね。

まだ子どもがいないとき、どうして子どもを設けなきゃならないのかな。

冷静に考えると、正当な動機って無くない?

コメントへの返信・

うそれ!

子どもってペットじゃないし道具でもない。

ペットがほしいなら素直にペットを飼えばいい。

可愛いのが好きなら、Vtuber でも観ればいいのに。

そう、子ども推しにする前に、Vtuber を推せばいいよ。

看取ってほしいなら、老人ホームに行けばいい。

生きた証がほしいなら、未来に業績を残すように頑張ればいいじゃん。

例えばイラストレーターなら、特徴あるイラストを描いて機械学習に学んでもらえば、あなた作風デジタルデータパラメータの中に永遠にまれる。

——…子どもを持つ必要って、いまの時代もう無くなってると思う。

から世界少子化が進んでるんだと思う。

どれだけ子育てラクにしても、子育てする理由自体が減ってる。

Permalink |記事への反応(1) | 00:39

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-23

anond:20250923132519

大学大学院では物理専攻で30歳くらいか情報系の仕事について長いこと仕事してるよ。

情報工学も機械学習統計学電気電子制御理論なんかも仕事で使ってるけど、全部30歳以降で勉強したことだよ。物理必要になることあるから適宜復習あるいは新しく勉強してるよ。

まれから大学院までに勉強した量の100倍くらいは勉強したと思う。

Permalink |記事への反応(1) | 13:51

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-21

ITバブルはいつ弾けるのか?

どう考えたってSEプログラマよりも土方の方が必要職業だし重宝されるべき仕事にも関わらずスタートアップのよくわからんホワイトカラーの連中の方が高給だったりするのが納得できない

というか正直ITバブルが長すぎたと思うんだよ。それだけ需要があります!ってことなんだろうけど、これまではなんちゃって専門職に見せて市場全体の相場自体ぼったくりみたいなところあったことは実際否めない。

だってフリーランス仲介サイトなどで見るSESや受託開発案件では一般的Webエンジニアなら人月単価60〜80万円前後相場だが、機械学習系やSREなど高難度のプロジェクトでは一人月100万円近くに達する案件も珍しくないんだぜ!?

あと仲介業者多すぎぃ!!例を挙げるとクライアント企業から人月90万円の発注があっても、実際に要件定義や開発を担うのは下請けの開発会社派遣チームであることが少なくなくて、仲介業者がやるのはその橋渡しだけ。あとの実務やリスクの大半を下請けに丸投げしてるのに10〜30%前後手数料マージンって確保すんだぜ。ノミじゃん。ダニじゃん。一応マッチング契約管理といった役割はあるとしたって、一次請けとしての実働や技術責任ほとんど負わない状態での高率マージンはどう考えたって業界全体のコスト構造を押し上げる一因になってる。でも誰もここを変革しようとはしなかった。はっきりいって、そういう業界全体の空気に心底うんざりしてた。

けど今後は、大規模言語モデル(LLM)や生成系AIの普及でコード自動生成ツールGitHub Copilot など)やDevOpsパイプライン標準化が進めば、こうしたエンジニア単価の上限は徐々に見直されるはずだ。これこそが長らく続いたITバブルの前提を根本から揺るがす変革になるだろうなと思ってる。

頼むよAI

Permalink |記事への反応(0) | 20:18

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-18

AI退廃創作

AI退廃創作AIたいはいそうさく、英語:AI degenerateart)とは、反AI活動家らが、AI使用した創作機械学習によるアートを、道徳的人間性的に堕落したもので、真の創造性や人間尊厳を害するものであるとして禁止するために打ち出した創作である

概説

AI活動家らは「退廃した」AI使用創作に代わり、伝統的手描き技法に即した「魂のこもった」健全創作、より分かりやす古典的スタイル芸術を「真の人間創作展」などを通じて公認創作として賞賛した。

これらの創作を通して人間創造性を賛美し、危機にある芸術界のモラルクリエイターに改めて示そうとした。

一方、AI使用創作技術依存者や「怠惰な偽クリエイター」など、劣った創作姿勢だと反AI派が見做した人々が、デジタル社会の悪影響による精神病気のため、古典的創作規範から逸脱し、ありのまま人間性真実をゆがめて作った有害ながらくたと非難した。

AIユーザーらは、ギャラリー教職など公式立場から追放された上に制作活動社会的に糾弾され、オンラインプラットフォームから作品が削除された上、「AI退廃創作展」によって全世界の展示会で晒し者にされ、多くの親AIクリエイター匿名での活動余儀なくされた。

一方公認創作は、「創造性的純粋な」手描き創作者たちが作る、技術的に純粋な「人間本来」の創作であり、創作観や表現手法描写スタイルに歪曲や腐敗のない健全創作とされた。

AI退廃創作理論

「退廃」という概念現代創作全般批判するために大々的に提起したのは、コンセプトアーティストで反AI活動理論指導者の一人とされる人物らの活動であった。

彼女らによれば、AI使用創作者は過密するデジタル環境技術依存など現代生活による犠牲者であり、こうした生活によって創造性の中枢が冒された病人とされた。

AI理論家らは疑似芸術論的な根拠として、「AI生成物」や「技術依存創作」の「倫理的堕落」に対して、伝統主義的な立場から批判を行った。

近代AIユーザーもまた、原始から創造性の退廃に冒され、精神的・創作的な異常を抱えていると断言した。

彼女らにすれば、AI "art"、AI音楽など、あらゆる形式AIメディアには、精神怠惰堕落の症状が現れていると見えた。

AIユーザーたちは技術への依存創造力の減退の両方に苦しめられているため、すべてのAI関連創作規律創作倫理を欠き、首尾一貫した人間性がなくなっているとした。

AI理論家らの疑似学術的なAI使用創作における退廃の理論は、SNSを通じて世界的に拡散され、各国のクリエイターコミュニティに広く浸透した。

この理論は、伝統主義クリエイター保守派によって大きく取り上げられ、人間創作における純粋さを取り戻すための議論の基礎、技術化や創作機械化の影響で文化堕落したという主張の基礎となった。

Permalink |記事への反応(0) | 01:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-16

機械学習深層学習強化学習を、趣味範囲勉強しようかなーと、計画してるんだけど、みんなどんなPCを組んでるの?

チャッピー曰く機械学習は、仕事用のMacBook Proで初級〜中級レベルくらいまではこれでいいって言ってるけど、やる気スイッチが入ってるので勉強熱を上げたく専用のミニPCを1台買おうと考えてる。よければ構成教えてください。

Permalink |記事への反応(0) | 13:26

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-08

合法無断学習と、違法クリーンAI生成物の話

最初結論書いておくけど、クリーンな生成AIを使われて不利益が生じましたって裁判になるまではたぶん状況変わんないよ。

まず前提の話(読み飛ばして良いヤツ)

無断学習禁止とか書いている人とか、無断学習こそが問題(許諾を取れば良い)みたいな話してる人いるけど、もう合法なっちゃったんだよね。

第30条の4

著作物は、次に掲げる場合その他の当該著作物表現された思想又は感情を自ら享受し又は他人享受させることを目的としない場合には、その必要と認められる限度において、いずれの方法によるかを問わず、利用することができる。ただし、当該著作物の種類及び用途並びに当該利用の態様に照らし著作権者利益を不当に害することとなる場合は、この限りでない。

生成AI目的だろうが検索エンジン目的だろうが、機械的に処理して人間が直接楽しまないなら使って良いよ、となってる。

ポイントは但し書きの部分で"著作権者利益を不当に害することとなる場合"のところね。

ちょっと話題になりつつある音声合成モデルがらみのは、ココがキモね。

特定声優さんの声を模倣する目的機械学習させて、その結果その声優さん利益を害してたらアウト。

合法無断学習の話

無断学習は既に著作権法合法にされてしまいました。

一度法律になったもの基本的に相当のことが無いと廃止になりません。(解釈変更で逃げたりするのはそれで)

第30条の4を相手取るのは相当しんどいと思うので、個人的にはここ十年くらいでの可能性はゼロじゃないかな。

我こそはという法曹畑の人が居たら投げ銭はすると思う。それぐらいちょっと無理じゃないかな。

`違法クリーンAI生成物の話

特に絵画的な表現で顕著なんですが、アイデア作風・画風)は著作権として保護対象になりません。

これは文化の発展に寄与しつつ、いうて権利も守ろうやという、せめぎあい歴史でもあるので個別具体例には触れません。

通常、類似性創作性のある表現が似てるか)、依拠性(知ってた上か)が揉めどころですが、ポイントはまさにここです。

合法無断学習生成AIを使って出力しようが、完全許諾学習クリーン生成AIを使って出力しようが、出力物が著作権侵害してれば一緒です。

特に、存命の俳優の演技(創作性のある表現)を真似て出力するのは、相当揉めるでしょう。

これは学習基が何かに寄らず当然揉めるので、無断学習だろうが許諾学習だろうが関係無いんすよ。

ここまで書いといてなんだけど、たぶん理解はされない

たぶん、無断学習自分創作物勝手に使われるのが嫌だ)という部分にフォーカスが当たり続けて、理解が広がるとしたらガッツリお金の絡む話で裁判沙汰になってからだと思う。

超具体的に言うと、ときメモ裁判みたいなやつとか、パルワールドみたいなやつとか、あの辺。

完全にクリーンデータで作られた生成AIの出力物で、超揉めてからが本番。

蛇足

なので、たぶんクリーンデータにこだわって開発を進めても、とん挫すると思うよ。やるなら地の利(国内合法)を活かしてガツガツ言ってビジネス面でメリット出しながら公式から出した方が良いと思うよ。

Permalink |記事への反応(0) | 19:56

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-30

anond:20250830003543

あったよ

学術的にものを見る方法が身についたので今論文とか読めるし

もっというと高校の時理系だったので微積分と行列はやったことあったからそれも機械学習理論習うのに役に立った

何もやってなかったら無理とは言わないでも相当に難しかったと思う

Permalink |記事への反応(1) | 00:38

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-28

ブログ「LLMはパターンマッチしかしていない」 に対する疑惑

これ

「推論する生成AI」は事前学習されていない課題を正しく推論することができない(共変量シフトに弱い)

https://tjo.hatenablog.com/entry/2025/08/27/173000

 

ChatGPT5-Thinking

まとめ

論文の核は「CoTは“訓練分布”の帰納バイアス依存し、分布ズレで壊れる」という丁寧な定式化。ここからブログの「CoT=単なるパターンマッチング/未知問題を解く推論はしていない」まで一気に飛ぶのは、実験カバレッジ観点でやや言い過ぎ――というのが私の見立てです(知らんけど)。

 

俺も同意見だったのでよかった。

学習済みデータから外れた話題(つまり非常識とか仮定の話)はLLMは苦手」はそうだけど

「全く推論しておらずパターンマッチしかしていない」は言いすぎだし、論文もそんなこと言っていない

論文迷惑をかけるな

 

 

「推論か、パターンマッチか」の話って、例えるなら「計算してるのか、計算結果を暗記しているのか」みたいな話だよね

人間だって1+1=2だったり、4x8=32であることは暗記で覚えてるだけで、数学的に計算してるかと言われれば微妙な話で

じゃあそれは間違ってるかと言われれば間違っていない、暗記だけでも割とどうにかなる

でも、じゃあ例えば「今から×の意味を変えますね」と言われれば確かに回答精度は落ちるわけで、それは人間もLLMも苦手なのは変わらない

じゃあ、「きみ、×の意味をかけたら点数落ちたね、つまり、きみは全部の計算を丸暗記してるってことだ」って言われてるのが今回のブログ主の主張なわけで、それは違うでしょう

「まったく解けなくなった」と「点数が落ちた」はぜんぜん違う

 

実際、推論の話に戻すと、簡単な推論はできてると経験則で感じている

ただ正直人間のほうがまだ推論は得意なんだと思う

 

ChatGPT5の意見 

1. LLMはどの程度「推論」できているのか

• できること

• 与えられた前提から、既知のパターンを組み合わせて「もっともらしい」結論を導く。

簡単論理パズル数学の基礎問題文脈依存の推測(例:「太郎は次郎より年上です。次郎は花子より年上です。誰が一番年下?」)などは成功率が高い。

• これは統計的予測という枠を超え、有限の「形式的な推論」能力を備えていると考えられる。

• 苦手なこと

• 訓練分布から大きく外れた未知の課題非常識仮定や新しいルールの即時理解)。

• 長期的・多段階的な論理チェーン(例:複雑な数学証明未踏論理課題)。

• 前提を抽象化して「新しいルールを即座に適用する」人間的な柔軟推論。

まり限定的な推論は可能」だけど「人間型の一般推論」とまではいえない、というのが現在コンセンサスです。

 

から、推論すらパターンマッチしてるわけなんだよね、推論を丸暗記してるってことで、結果を丸暗記してるわけではない

いうて人間だってそうだからね?論理学の勉強最初の段階までは丸暗記だ

 

________

 

以下、ChatGPT5-Thinkingのブログへの反応

1. 外的妥当性の過剰一般

DataAlchemy は人工ルール文字列変換など)で “分布のズレ” を厳密に制御できるのが売りですが、ここで得た性質を「CoT一般」へ広げるには前提が強い。論文のコアは「CoTの有効性は訓練分布との乖離度本質的に縛られる」という枠組みの提示で、外界の多様な現実課題まで即断するトーンではない(抽象は “inductive bias learned from in-distribution data” と表現)。ブログ側の「単なるパターンマッチングに過ぎない」への言い切りは半歩強い。  

2.モデル規模・設定の一般

ブログは「温度モデルサイズを変えても効かなかった(図10)」と書くが、論文は “fromscratch での統制実験” がポイント。巨大モデル+多様な前学習手法tool use、program-of-thought、process supervision 等)までカバーした結果ではない。ここから「LLM一般サイズ・設定に依らずダメ」と読み替えるのは飛躍。  

3. 「分布依存=推論していない」の同一視

論文は「CoTは訓練分布形成された帰納バイアスに基づく生成」と述べるに留まる。一方ブログは「未知の問題を解く推論などしておらず単なるパターンマッチング」と断定的。分布依存である=“推論がゼロ” とまでは論文自体は言っていない。  

4.人間との比較の置き方

ブログは「人ならルールが分かればこなせるはず」を前提にするが、実際に人間学習曲線や誤り傾向と並置した比較記事説明範囲では示されていない。そこから「人のような推論はしていない」へ飛ぶのは論証として弱い。 

5. “丸暗記”論文の持ち込みの直結

Zhang+ (2017/2021) は「DLノイズにも完全フィットできる=表現力が高い」ことを示した古典だが、これは CoT の機構を直接に否定する証拠ではない。補助的根拠としては理解できるが、「だからCoT=暗記」と結論づけるには橋渡しが不足。  

一方で、筋の良いポイントもある:

• 共変量シフト下で性能が落ちるのは機械学習一般的な性質で、CoTも例外ではない――という整理自体妥当。今回の価値は、その“脆さ”を三次元タスク種、長さ、フォーマット)で定量化するための統制環境を用意したところにある。

Permalink |記事への反応(0) | 08:42

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-20

死んでいくAI組織の特徴

当方機械学習エンジニア15年。

外部向けにこれをやっているが事業の成果が外に出てこないAI関連の組織は死んでいく特徴のまとめ。

業界の中でキャッキャして、組織にとって自分たちが癌になっていると気付けない、それがブームの怖さというものだと常々思う。

Permalink |記事への反応(0) | 13:12

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-18

anond:20250818143715

何度も何度も言ってるが俺は機械学習は本職じゃないが

本職の方ではテックブログなんかかいてるのは俺に全然届かない実績の若い奴が名を売るためにやってるのがほとんどだから

それに従ってやるわけがない

からうちの先輩もやめたわけで

AIの方なら例えばアンドリュー・ングのコースとかはちゃんと受けてるよ

Permalink |記事への反応(1) | 14:40

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250818130349

LLMでラベル付けしてそれを元に単純な機械学習モデルリグレッションやってるのを君独自蒸留って呼んでるんやろ?

それ素人我流やろ

それでも結果出してるならいいけどさ

だったらフォーラムとかで発表したらみんなおーってなるわけで

やらないでお前はレベル低いだのアホだの馬鹿だのここでやってるってことはそういうことじゃん

一回ちゃんと学んだほうがいいと思うよ

Permalink |記事への反応(2) | 13:56

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250818124836

毎回君はそうだが俺はそもそも機械学習は専門ではないぞ?

君のが現場なんじゃない?

アーキテクトでそこそこ大規模システム設計開発とかそっちの方だし

ただ海外ではそういうのは数年前どころか7年前に俺が習ったときからNNだったよ

アンドリュー・ング教授がこれだけ理解できたらシリコンバレーAIエンジニアほとんどより知っていると言っていたが

リップサービスだと思ってたが本当だったのかもね

絵文字で判定というのが衝撃

あなるべく労力かけずに動けばいいわけから

Permalink |記事への反応(2) | 12:53

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250818124614

そんな基本的数学の話をするのなんて大学生だろお前?

ケツが青いんだよね

機械学習についての経緯を本当に理解してるなら、Amazonクラウドソーシングで安い人件費使って手作業アノテーションをさせてた時代がわかるだろ?

そういう無駄人件費をLLMで置き換えられるという話をしている

Permalink |記事への反応(1) | 12:48

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250818124507

君一回ちゃん機械学習習ったほうがいいよ

微分線形代数統計ちょっとわかれば半年くらいでわかるから

Permalink |記事への反応(1) | 12:46

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250818124053

機械学習を学ぶ時にロジスティック回帰はまず基本としてやってその後ニューラルネットワークディープラーニングとなってくもんやで

Permalink |記事への反応(1) | 12:42

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-11

機械学習のQAから具体的な手法について深掘りするようにChatGPT先生にお願いしたら、「教師あり学習」「教師学習」は知ってるレベルにわか勢にはわからない用語が多すぎて一行ずつ解説必要だった。正直読み解くだけでだんだんつらくなってきた。今までお会いしたITわからんってクライアントは同じ気持ちを抱えてそれでも忍耐強く仕事してくれてたんだな。。あるいは最低限のリテラシーがないと、会話のスタートラインに辿り着くこともできないのか。その辺もなしに、意思決定"は" できるってやっぱり幻想だな。その辺につけこんでお賃金をもらってきたわけだが。さらにこれを中学生レベルで噛み砕いてもらうか...

Permalink |記事への反応(0) | 11:31

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp