
はてなキーワード:ブレイクスルーとは
本ドキュメントは、外部の観察者による戦略的視点からの提言案であり、事実認定や人物評価ではなく、「もしこういう前提なら、このような戦略もあり得る」という仮説的な提案です。
2. 大規模言語モデルや生成AI技術は、急速にコモディティ化しつつある。
- 単価の下落
- 競合の増加
-API /SDK /オーケストレーション
などを含めた **ソリューション/プラットフォーム** を提供し得る立場にある。
自前で大規模データセンターを保有・拡張する戦略には、以下のリスクが存在する:
-認定DC は「OpenAI対応インフラ」として市場にアピールできる
3. **DC 側はCAPEX・OPEX・運用リスクを負担**
- OpenAI:
-ライセンス料
- 利用料のレベニューシェア
このモデルは、コンビニエンスストアやクラウド基盤ソフトウェア(例:VMware、ARMライセンスモデル)に類似した **フランチャイズ/プラットフォーム戦略** に近い。
など「差別化要因」に集中投下できる。
を分散できる。
- 未到来のブレイクスルーを前提にした大規模CAPEX は、
-価格低下
2. **既存技術+既存インフラをフル活用することで「時間を買う」**
-既存DC を活用することで、市場展開までのリードタイムを最短化できる。
を作れる。
3. **「今ある技術でどこまで世界を押さえられるか」を優先的に考える**
-未来の理想状態より、現在の配備速度・採用件数・開発者エコシステムの拡大をKPI に置く。
1. **ビジョンと所有欲の分離**
-インフラ所有
-資産規模
を混同しない。
- 自社が全てを所有するモデルではなく、
-世界中のプレイヤーに役割を与えるプラットフォーム構造の方が実現しやすい。
- 「OpenAI と組む方が得だ」と明確に感じる収益構造・責任分担を設計する。
- 握るべきは、
-安全性と信頼
-ブランドと標準
- 手放してよい(外部に任せる)ものは、
-建物
-ラック
- 電力インフラ
- 日々の運用
-CAPEX 回収の難しさ
を考えると、必ずしも最適とは限らない。
- OpenAI が「AIプラットフォーム」「AIフランチャイズの本部」として振る舞い、
-スピード
-支配力
のすべてにおいて合理性が高い。
-戦略構造と資本効率、時間軸の観点からの一つの選択肢として提示するものである。
以上。
人工知能(AI)の急速な進化は、私たち人間に突きつけられた実存的な問いである。「計算能力において機械が人間を凌駕したとき、人間に残される価値とは何か」。この問いに対し、多くの議論は「創造性」や「直感」といった曖昧な領域に逃げ場を求めてきた。しかし、マックス・ベネット著『知性の未来』と、それを翻訳・解説した脳科学者・恩蔵絢子氏の洞察は、より生物学的かつ哲学的な深淵へと私たちを導く。
彼らが提示する結論は、逆説的である。「AI時代に人間が持つ最大の能力は、感情になる」。そして、「本当に頭が良い人とは、他者に興味を持てる人である」。
一見すると、これは道徳的なスローガンのように響くかもしれない。しかし、認知科学、進化生物学、現象学の知見を総動員してこの命題を解剖するとき、そこには「知性」という現象の構造的な転回が見えてくる。本稿では、二重過程理論、ユクスキュルの環世界、身体性認知、社会脳仮説、そして間主観性という5つの視座を補助線とし、AIが決して到達し得ない「知性」の本質と、これからの時代に求められる「知的な生き方」について論じる。
---
まず、私たちが「知性」と呼んできたものの正体を、ダニエル・カーネマンらが提唱した「二重過程理論」の枠組みで再考する必要がある。
伝統的な知能観において、知性とは「システム2(遅い思考、論理、計算)」の能力を指していた。複雑な数式を解き、論理的な推論を行い、未来を正確に予測する力である。現在のAI、特に大規模言語モデル(LLM)は、このシステム2の機能を極限まで外部化・高速化した存在と言える。彼らは感情を持たず、疲労を知らず、膨大なデータから論理的整合性を出力する。
しかし、ベネット氏が描く脳の進化史(5つのブレイクスルー)は、この「システム2至上主義」を根底から覆す。進化の歴史において、論理や言語といったシステム2の機能は、常にシステム1(速い思考、感情、直感)の要請によって開発されてきたからだ。
初期の生物(線虫など)は、「快・不快」という原始的なシステム1のみで生きていた。進化の過程で「予測」が必要になったとき(魚類)、予測誤差としての「失望」や「安堵」という感情が生まれた。さらに複雑なシミュレーション(マウス)が可能になったとき、反事実を嘆く「後悔」という感情が生まれた。
ここで重要なのは、「論理が感情を抑制するために進化した」のではなく、「感情をより細やかに処理し、生存確率を高めるために論理が進化した」という事実である。システム2は、システム1というエンジンの出力を最大化するためのトランスミッションに過ぎない。
AIの限界はここにある。AIには「エンジン(生存への渇望、快・不快、感情)」がない。あるのは精巧なトランスミッション(計算能力)だけだ。エンジンを持たない車が自律的にどこへも行けないように、感情という基盤を持たないAIは、自ら「問い」を発することも、「意味」を見出すこともできない。人間の知性の本質は、論理そのものではなく、論理を駆動し続ける「感情の熱量」にあるのだ。
---
なぜAIには感情が宿らないのか。その答えは「身体」の欠如にある。「身体性認知(EmbodiedCognition)」の視点は、知性が脳という密室の出来事ではなく、環境と相互作用する身体の中に宿ることを教えてくれる。
記事の中で恩蔵氏は、老いによる身体の変化を「老年でしか味わえない内的な経験」として肯定的に捉えている。これは非常に重要な示唆を含んでいる。
生物にとっての「意味(Sense)」は、身体的な脆弱性から生まれる。身体があるからこそ、空腹は「苦痛」となり、食事は「快」となる。皮膚があるからこそ、他者との接触は「温もり」となる。死ぬ定めの身体があるからこそ、時間は「有限」となり、焦燥や希望が生まれる。
AIが扱う情報は、どこまで行っても「記号」である。AIにとって「痛み」という単語は、辞書的な定義や統計的な関連語の集合体に過ぎない。しかし人間にとっての「痛み」は、回避すべき切実なリアリティである。この「切実さ(Stakes)」こそが、世界に色を塗り、価値判断の基準を作る。
身体性認知の視点に立てば、加齢による能力の低下は、単なる「劣化」ではない。それは身体というインターフェースの変化に伴う、世界との関わり方の「再構築」である。
若い頃の強靭な身体で見えていた世界と、老いて動きが緩慢になった身体で見える世界は異なる。その変化を受け入れ、新たな身体感覚を通じて世界を再解釈することは、高度な知性の営みである。AIは「劣化」しない代わりに、「成熟」もしない。身体の変化を通じて世界モデルを更新し続けるプロセスこそ、人間特有の知的な冒険なのである。
---
身体を持った生物は、それぞれの感覚器官が切り取った主観的な世界、すなわち「環世界(Umwelt)」の中に生きている。ユクスキュルが提唱したこの概念は、知性の進化を「孤独からの脱出劇」として描き出す。
ダニにとっての世界は「酪酸の匂い」と「温度」だけで構成されているように、すべての生物は自分の環世界というシャボン玉の中に閉じ込められている。本来、他者の環世界を知ることは不可能である。私はあなたの痛みそのものを感じることはできないし、あなたが見ている「赤」が私と同じ「赤」である保証もない。
この「絶対的な孤独」こそが、生物としての初期設定である。しかし、ベネット氏が指摘する第4、第5のブレイクスルー(メンタライジング、発話)において、人間はこの壁に挑み始めた。
「他者に興味を持つ」とは、自分の環世界という安全地帯から身を乗り出し、他者の環世界を覗き込もうとする無謀な試みである。「あの人は今、何を考えているのか?」「なぜ悲しい顔をしているのか?」。これは、自分の感覚データ(システム1)だけでは完結しない。高度な推論と想像力(システム2)を総動員して、見えない他者の内面をシミュレーションしなければならない。
恩蔵氏が「他者に興味を持つことは難しい」と述べるのは、これが認知的に極めて高コストな作業だからだ。自分の環世界(自分の話、自分の関心)に浸っている方が楽なのだ。しかし、あえてそのコストを支払い、他者の世界へ「越境」しようとする意志。それこそが、人間を人間たらしめている知性の正体である。AIには環世界がないため、そもそも「他者の世界」という概念自体が存在しない。
---
なぜ人間は、これほどまでにコストのかかる「他者理解」という能力を発達させたのか。ロビン・ダンバーの「社会脳仮説」は、それが「集団での生存」に不可欠だったからだと説明する。
自然界の脅威(猛獣や寒さ)に対処するだけなら、これほど巨大な脳は必要なかったかもしれない。しかし、人間にとって最大の環境要因は「他の人間」であった。誰が味方で、誰が裏切り者か。誰と協力すればより多くの食料が得られるか。
他者の心は、天候や物理法則よりも遥かに複雑で、予測不可能な「変数」である。この変数を読み解くために、脳は巨大化し、知性は進化した。記事にある「会話の70%は噂話」という事実は、私たちが情報の交換以上に、人間関係のメンテナンス(社会的グルーミング)に知能のリソースを割いていることを示している。
この文脈において、「頭が良い」という定義は劇的に変化する。それはIQテストのスコアが高いことでも、計算が速いことでもない。
真に知的な個体とは、「他者の意図を正確に読み取り、共感し、信頼関係を構築して、集団としてのパフォーマンスを最大化できる個体」である。
「他者に興味を持てる人」が頭が良いとされる理由は、単なる優しさではない。他者への関心は、複雑な社会マトリックスの中で生き残るための、最も強力なセンサーであり、武器だからだ。自分の殻に閉じこもることは、社会的動物としては「死」に等しい。他者への好奇心は、生命力そのものの発露と言える。
---
そして、知性の進化の到達点は、個人の脳内にも、個別の身体にも留まらない。「間主観性(Intersubjectivity)」の領域、すなわち「私とあなたの間」に生まれる知性である。
記事の中で触れられている「指差し」は、人間特有の驚くべき行動である。チンパンジーは報酬を得るために手を伸ばすが、人間の幼児は「見て!あそこに犬がいるよ!」と、ただ注意を共有するためだけに指を差す。
これは、「私が見ている世界を、あなたにも見てほしい」という強烈な欲求の表れである。ここで初めて、孤立していた二つの環世界が接続される。
言葉、文化、ルール、そして愛。これらはすべて、物理的な実体ではなく、私たちが共有することで初めて存在する「間主観的」な現実である。
AIは「客観的なデータ」を処理することはできる。しかし、「あなたと私の間だけで通じる冗談」や「阿吽の呼吸」、「信頼」といった、主観と主観の間で紡がれる現実を作り出すことはできない。
恩蔵氏が翻訳を通じて感じた「人間の宝」とは、この「心の共有」の可能性そのものであろう。私たちは、他者の心に触れることで、自分一人では決して到達できない豊かな世界(拡張された環世界)を生きることができる。知性とは、個人の所有物ではなく、関係性の中に宿る現象なのだ。
---
以上の分析から、AI時代における「知的な生き方」の輪郭が浮かび上がる。それは、AIに対抗して計算能力を磨くことでも、AIに仕事を奪われないように効率化を目指すことでもない。むしろ、AIが捨て去ったもの、あるいは持ち得ないものを、徹底的に深める生き方である。
AIは効率と最適化の権化である。対して、人間の知性の源泉は「感情」や「身体」といった、一見非効率なノイズの中にある。
知的な生き方とは、効率を追求するあまり、感情の揺らぎや身体の実感を切り捨てないことだ。迷い、後悔し、喜び、痛むこと。これらの「ノイズ」こそが、世界に意味を与え、独自の価値判断を生み出す土壌となる。
「本当に頭が良い人」になるためには、意識的に「他者への旅」に出る必要がある。
SNSのアルゴリズムは、私たちが心地よいと感じる情報だけを見せ、環世界をより狭く、強固なものにしてしまう(フィルターバブル)。知的な態度は、その快適な殻を破ることから始まる。
自分とは異なる意見、異なる背景、異なる身体性を持つ他者に対し、「なぜそう感じるのか?」と問いかけること。自分の正しさを一旦脇に置き、相手の環世界に身を浸すこと。この「認知的負荷」をあえて引き受ける勇気を持つことだ。
AIは「答え」を出すことにおいては人間を凌駕する。しかし、「問い」を立てることはできない。問いは、「こうありたい」「これはおかしい」という、身体的な違和感や理想(感情)から生まれるからだ。
また、AIはデータを羅列できるが、「物語」を生きることはできない。私たちは、他者との関わりの中で、それぞれの人生という物語を紡いでいる。
これからの知性とは、正解のない世界で、他者と共に悩み、対話し、新しい「納得解(間主観的な合意)」を形成していくプロセスそのものを指すようになるだろう。
マックス・ベネットと恩蔵絢子が示したのは、冷徹な計算機としての脳ではなく、熱を帯び、他者を求め、身体を通じて世界と震え合う臓器としての脳であった。
AI時代において、私たちは「賢さ」の定義を、ColdIntelligence(処理能力)から WarmIntelligence(共感と接続の能力) へとシフトさせなければならない。
老いて記憶力が衰えようとも、計算が遅くなろうとも、目の前の人の手の震えに気づき、その心に思いを馳せることができるなら、その人は最高に「知的」である。
他者の心という、宇宙で最も複雑で、不可解で、魅力的な謎に挑み続けること。その終わりのない探求こそが、機械には決して模倣できない、人間の知性の最後の聖域となるだろう。
https://news.yahoo.co.jp/articles/be7a5812ddaf607d08bb52f0663554ab39a9389c
COVID-19 とパンデミック対応(2020–) —信頼度:高
安倍政権と“アベノミクス”、政治的変動(2012–2020)および安倍元首相銃撃(2022) —信頼度:中〜高
東京オリンピックの延期(2020→2021)と開催(2021) —信頼度:高
令和への改元(2019)・天皇退位(2019) —信頼度:中〜高
消費税率引上げと経済政策(2014等)/社会保障財政問題 —信頼度:中
地方の人口減少・高齢化問題と社会インフラの変化 —信頼度:中
自然災害の頻発(熊本地震2016、各年の豪雨災害等) —信頼度:中〜高
9/11同時多発テロとその余波(対テロ戦争の長期化) —信頼度:高
グローバル金融危機(2008)およびその経済的影響 —信頼度:高
COVID-19 のパンデミック(2019–)と世界的影響 —信頼度:高
中国の台頭と国際秩序の変化(習近平政権の台頭 2012〜) —信頼度:高
ロシアのウクライナ侵攻(2014クリミア、2022 全面侵攻) —信頼度:高
気候危機と国際合意(パリ協定 2015 等)/極端気象の多発 —信頼度:高
アラブの春(2010–2012)と中東の変容 —信頼度:中〜高
ポピュリズムと民主主義の揺らぎ(例:トランプ政権 2016–2021 等) —信頼度:中〜高
テクノロジー覇権争い(AI・半導体政策・5G等)とサプライチェーンの再編 —信頼度:中〜
COVID-19 の疫学・ワクチン開発(特にmRNAワクチンの実用化) —信頼度:高
CRISPR/Cas9 をはじめとする遺伝子編集技術の実用化と議論(2012〜) —信頼度:高
LIGO による重力波検出(2015)と新しい天文学の幕開け —信頼度:高
深層学習(ディープラーニング)によるAIブレイクスルー(2012〜)とその社会的波及 —信頼度:高
ジェームズ・ウェッブ宇宙望遠鏡の打ち上げと初期成果(2021〜) —信頼度:中〜高
がん免疫療法やCAR-T等、医学の個別化治療の進展 —信頼度:中〜高
気候科学の深化と極端気象の観測(及び政策議論の加速) —信頼度:高
単一細胞解析・オミクス技術の普及(バイオ研究の技術革新) —信頼度:中〜高
代表ソース:日本 —NHK年末十大、朝日・読売・毎日・共同通信の年末総括(入手可能な年のみ)/ 国際 —Time,BBC, NYT年末総括/科学 —Nature, Science, New Scientist 年間ハイライト
収集対象年: 1976–2000 と 2001–2025(2025は現時点の年末まとめがあれば含む)
集計方法: 単純出現回数(まずは透明性のある方法)。必要なら重み付け版も作る。
納品: 「1976–2000 の国内トップ10」「1976–2000 の国外トップ10」「1976–2000 の科学トップ10」同様に 2001–2025 版を作成。各項目に出現回数と代表出典の脚注を付ける。
囲碁だってカジュアルなゲームのひとつなのに、なぜか難解な学問のように思われている節がある
昭和に1000万人も囲碁を打つ人がいたのだからそんなわけがない。未就学児でも打ってるし大人が出来ないということはない
こんなの思ったことないし聞いたこともない…。やってる側が最初にこれ持ってくるのは何か感じ悪くてちょっと笑う。そういうところでは…。
ええ….この増田は実際にあったブコメへのアンサー記事なんだが
ちなみにブコメ以外にもSNSとかリアルでもこの手の意見は大量にあるからね。
自分の視野狭窄を棚に上げ「そういうところ」という言葉を使うあたりにまさに従前からの偏見が滲み出ている。自分こそ初手で他人をディスる前にもうちょっとよく調べよう
なんか囲碁は将棋と違ってAIへの対応が遅れてるみたいなのをよく見かけるけど、棋士がAWS使って囲碁AIと検討してるくらいにはAIに慣れ親しんでるからね
→囲碁AIブームに乗って、若手棋士の間で「AWS」が大流行 その理由とは?
見た目が地味なのは他のテーブルゲームも変わらない。色がついている分将棋より視認性が高い。命のやり取りをしてるので中身は実はド派手
www.algorithmicartisan.com/gostones/
最初難しいのはどれも同じ。囲碁だけ特別難しいということはない
最近ぼちぼちやり始めた
将棋の方はヘボなのに囲碁の方だけどんなハイレベルな戦いを前提としているのか。非対称性がすぎる。
10手も20手も読めるのはプロの領域。アマチュアがそのレベルで打ってるわけがない。1~3手の読みが入れば十分。
適当に打って(指して)王手飛車・十字飛車や角での両取り、ふんどしの桂など痛恨の一撃を食らうのは盤面が狭く手数も少ない将棋のほうがはるかに多い。
棒銀などで自陣を突き破られたらほぼ負けるが、囲碁は多少やらかしても盤面が広いので挽回ができる。
超大雑把に言うと、相手の近くに打ったら攻めの手だし、自分の近くや隣接に打ったら弱点を補強する守りの手だと思って間違いない
将棋→飛車先の歩を突かれたから受けないと自陣突き破られる、金上がって受けよう
囲碁→隙間を覗かれてる。次に出てこられると突き破られたり分断されるから石を追加して補強しよう
で、ここで言いたいのが将棋における経験値と囲碁における経験値の差を無視してないか?ということ
果たして将棋の何の経験がない者が棒銀をやられた時に、それが何手も先の自陣崩壊につながっていることを予測できるだろうか
将棋であなたが飛車先の歩を突かれたときに自陣で受ける手を指すことが出来るのは棒銀で自陣を破られた経験があるからだ
直感で理解したわけではなく、自覚してないだけで経験による暗黙知があるからだ
囲碁においても同じことが言える
将棋の意図がわかって囲碁の手の意図がわからないのは、あなたの経験値の差だ
囲碁だって経験値を詰めば「こうすればこうなる」「だからこの守りが必要だ」というのがわかってくるようになる
囲碁において何の経験もないのに予測や意図の理解ができたらそれは紛れもなく天才である
我々は凡人だということを忘れてはいけない、経験や知識を蓄えることでのみ上達できるのだ。
最初の段階で何もわからないのは我々凡人にはいたって当然のことであり気に病むことではない。
見て読んで経験して覚えいくことを、なぜか囲碁にだけは最初から自分が有していることを期待する人が多い
ほとんどの人間は囲碁に対して赤ちゃんと同じ状態なだけだ。麻雀だって最低限役を覚えなければ、アガリの形を目指すことは出来ないだろうし解説を聞いてもチンプンカンプンだろう(生まれた時から麻雀の役が頭に入っている人間はいるだろうか)
詳細に知るならば『一手ずつ解説! 碁の感覚がわかる棋譜並べ上達法』っていうシリーズがあるからそれを読もう。Youtubeならフワ囲碁チャンネルに初心者向けのそういう動画がある。
https://youtube.com/playlist?list=PLfxbYC-F0TEo-mDZurdutQtydSZ_G09HG
それと最近はいごもんってサイトが出来て、「なぜそこに打つのか」という意図や作戦をプロやアマ達が投稿して寄せ合うサイトがあるのでそれを眺めるのもオススメ
囲碁に対する大抵の疑問や誤解は純碁で解ける
おそらく挫折者の理解を妨げている要因であろう陣地や石の生死の概念が純碁にはない
理解を難しくしているであろう陣地と石の生死の概念も、得点を上げようと盤上を石で埋めていく過程で必ず解決されるし、囲碁の「地」や生死というのが実はこの埋める過程を省略しタイムパフォーマンスを上げているだけのものであることが、やっている内に理解できるだろう
純碁こそが囲碁入門の最強のソリューションなので知名度が上がってほしい
全くそんなことはない。アマならツケヒキや星への三々入り定石など代表的なものを数個覚えれば十分。その場のアドリブでなんとかなる。
「定石を覚えて2目弱くなり」「定石は覚えて忘れろ」という至言もある。定石を勉強するのはそこに散りばめられた手筋や考え方を学ぶためであり、暗記するためではないのだ。前者は暗記した定石を披露することが目的化し、その局面に応じて変化することを忘れて余計弱くなるという格言である。
中国の状況はこういう感じなので「囲碁だから(囲碁の特性上の理由で)人気を出すのは無理」ということはない
https://i.imgur.com/U3SPnnj.jpg
https://i.imgur.com/Xq0U6Wv.jpg
https://i.imgur.com/byM8nFI.jpeg
『囲碁シル』っていうAIの選択肢をチョイスするだけのバトルや、定石のキャラカードを配置するだけで対局できる革新的な対局アプリが11月5日にリリースされるらしい
これで囲碁を「追体験」するだけでも何か囲碁に対する緊張感が解けてブレイクスルーのきっかけになるんじゃないか?
https://x.com/hjjgo_japan/status/1983758121828020381
一力四冠がLG杯決勝に進出し、応氏杯以来二度目の国際棋戦優勝を目指している
Permalink |記事への反応(28) | 13:05
結構使ったけど手戻しで発生した工数が多すぎて、次の良い感じのブレイクスルーが起きるまで使わないことにした
うまく軌道に乗せようとして各段階で細かく指示出し・レビューしてるわけで、バイブとはほど遠い
結局今はチャットで会話しながらちまちま書いてる
このとき、自分の目で全てレビューできて、手で改善できる状況を保つのが大事
いろいろ解説はあるけれど
2.女性で将棋をする人の実力が十分に上がっても女流棋士は廃止されない
3.未来の女性層を取り込むには女性プロ棋士誕生というブレイクスルーが必要
ってところらへんは多くの人の認識っぽい。
じゃあ、そもそも今の奨励会を経て入るプロ棋士に女流が入りたいのはなぜ。
それ以外はなんだろうか。
仮説1。女流は下に見られているから。確かにある。女流は弱いという印象。奨励会という荒波を超えられなかった・挑まなかった大勢の人たちの中の"女性だけが"逃れられる道。というイメージ。を知らない人も持っているだろうから、プロに「逃げる」ことでその棋士は強さを証明できるわけだ。ブランドに格差があり、女性棋士だけが持つ自己ブランディングの向上ルートのひとつではある。
仮説2。もっと強い人と戦いたいから。仮説1から女流はプロ棋士のトップレベルより弱いなら、単純に戦闘民族としてオラもっと強い奴と戦いてぇ、棋士と生まれたからには誰でも一生のうち一度は夢見る「地上最強の棋士」 を目指してプロ棋士に入りたい人は居ると思う。まぁ全員将棋星人なんだから無くはないだろうけど、将棋漫画でありがちな「このタイトルだけはゆずらねぇ」キャラを見るにどっかのテッペン取ったら(プロ棋士への大ジャンプを目指さず)落ち着く人も多そう。
ってことで、どうしても女流からプロへチューチューするイメージになってしまう。明らかに女流も新制度も女性のみ使える厚遇なわけだしね。めぐりめぐって棋界に好影響を齎すとしても男から見たらなんか素直に賛同しにくい…となってしまう。
「とっとと女流棋士界をプロ棋士界なみに押し上げて並び立つ存在にすればいいじゃん」
実力は解説を信じるなら女流も十分上がっているそうじゃないですか。じゃああとはバンバン宣伝してブランディングして給料くばりまくってタイトル作りまくって賞金あげまくって「女流でも(プロ棋士並みに)いいじゃん」にしなよ。女流トップタイトルと聞けば竜王並みと思われるぐらいにしようず。
女流棋士界の実力がじわりじわりと上がっていっているのならば。
女流制度には不満がある増田でも、まあ女流が独力で発展するのには拍手を送るけど。
女流最強棋士がプロ棋士へ~で話題になって女性・女流が盛り上がり発展するのはなんかなぁ。
将棋界は盛り上げ普及させなければならない
って現状ならとりあえず女流のほうだけで盛り上げていってくれない?
女性プロ棋士の価値を相対的にガンガン下げていけばいいのに、いつまでも登場しない女性プロ棋士だけを俎上にしてどうヨイショしていこうかなんて話はあまり聞きたくない。
すでに持ち上げられているんだから、そのお山の高さを上げるように頑張ってくれ。より高いあっち側にジャンプして飛び乗ろうという話は拒否感あるのん。
LLM界隈
どのサービスも無料枠がひろがっているだけで技術的ブレイクスルーはこの数年まったくない。チューニングも日本語向きがすこし伸びたかくらい。どちらかというと軽量版でそこそこ使える方向を模索しているようだ。これはdeepseek効果といえなくもなくもなくもなくもない。CLI方面はチャットツールが流行ってメールを淘汰したときになんでもかんでもbotをつくっている人たちの再発明を見ているようでほほえましい…こいつらircとか知らないんだろうな…
画像生成界隈
2024年の成果がまるまる無料で使えるようになった1〜2月をピークに出落ち気味。NAI4もリアスのチューニング版でしかない。リアス2は出たけど違いもわからずリアス3のロードマップは宇宙の彼方ほど遠い…このまま暗黒時代へ突入か? 靴磨き界隈ではジブリ風が一瞬はやったけどもうだれもやってない様子。
動画生成界隈
Wan → FramePack の奇跡からはや3ヶ月が経過。ローカルでここまでできるのか&サービス版を使う理由は?などブレイクスルーになりそうな土壌はある、ただし、やっぱり電気代の無駄みたいな雰囲気もいなめない。有料サービス側は焦っているのか無料枠を大幅に引き上げるも数回じゃ誰も使っていない模様…このまま廃業がすすむと予想。
君の批判は「AIを万能かのように喧伝するやつ」にのみ有効であり
AIの有用性の実際の評価については、それほど有用ではないだろう。
そういう能力と欠点を持つLLMという道具が出てきたことは、やはり革新であり
万能の道具にならないとしても
https://anond.hatelabo.jp/20250630114221 https://anond.hatelabo.jp/20250626125317 https://anond.hatelabo.jp/20250627100609 https://anond.hatelabo.jp/20250628122821
AI技術を批判する記事がバズりまくってるが、それに対して凄い数の批判がいってる、だけど肝心の批判は個人攻撃めいていて、どれも技術的な部分はふわふわした物言いなので
どれだけ技術的にまったく使い物にならないかを、技術面から3つ理由を上げようと思う、これを見れば、確かにAIってそんなもんじゃないな、って正しい理解が進むと思う、と同時に、
ネットでAIを擁護したり喧伝してる人間で誰一人、エンジニアを自称したりしてる奴らでさえAIを理解してる人間がゼロっていうのがわかると思う
ちなみに、IT技術を全然知らない増田向けに技術的な部分は補足説明を入れているので、ちょっと長くなってるかもしれない
LLMがわかっていない!と喚いてる当人たちも上で言った通り、LLMっていうのが理解できてないの丸わかりなので、ここでまずLLM「大規模言語モデル」とは何かを簡単に説明しよう
生成AI(特にChatGPTのような大規模言語モデル、LLM)というのは「文脈に最もふさわしい次の単語を予測する」」という統計的タスクを行っている、これがLLMだ
「飲みます」→90%の確率 「買いました」→7% 「投げました」→0.5%
この過程には、意味理解や感情、意図、文脈の内的把握は一切関わっていない、これが致命的な欠陥の1つ
プログラミングを自動でまるで仮面ライダー01の01ドライバーの様にベルトの作成までやってくれているように喧伝してる奴らが多い
が、これを本気で信じ込んでプログラミング言語を書かせた奴がいたら、ほぼ間違いなくクビになる
わかりやすく上で例えた通り、LLMは、インターネット上に存在する膨大なコード断片・技術記事・GitHubリポジトリ・StackOverflowの投稿などを学習している。
そのため【よく使われる文法構造】や【特定の言語における関数の使い方】や【ライブラリの典型的な使い方】などを【意味を全く理解できず模倣している】だけって事
【動かないコードをアホほど入れる(変数が未定義、型が合っていない、ライブラリに存在しない関数を呼んでいるとかいう小学生のプログラミングスクールでもありえないミス】
【. 「それっぽいけど間違っている」コードを大量に入れ込む(SQLインジェクション、XSSなどセキュリティ上危険な実装を入れまくる、パフォーマンスが極端に悪い実装、バグを含んでいるロジック(特にif文の条件分岐ではほぼ100%発生する)】
【実行環境に依存した誤り(存在しないAPIやライブラリを使う、ほぼ9割の確率で…あと特定のPythonバージョンやNode.js環境でしか動かないコードを汎用的に提示、つまり動きようがない)
専門的な意見となったのでわかりづらいので、もっとわかりやすく言うと「小学校のプログラミングスクール入りたて1週間の子供が書いためっちゃくちゃなプログラミングにすらなってないコードを、製品利用するからレビューして出してこい」と言われてるに等しい、つまり、最初から自分で書いた方が早い2度手間になる
これが、プログラミングの革命だ!とか喚いてる奴らが隠すAIの実態である。
import jwt
token = jwt.encode({'user_id': 123}, 'secret', algorithm='HS256')
一見正しく見えるだろうから解説すると、実際には 【jwt という名前のライブラリ】が複数存在し(PyJWT,python-jwtとか)importの仕方によってエラーが出たり挙動が変わったりする。普通なら絶対間違えない様な挙動をAIは構造上全く判断できない、これは上で上げた根本的な問題なので恐らく絶対に解決できない。
ハルシネーションがどういうものであるのか、AI批判でバズった記事などで言及されている通り、デマやデタラメを出力してしまう、あれは本当にわかりやすいAIの致命的欠陥を検証してるので、あえて説明はここではしない。
しかもその増田の元記事では「文章データのテキストまで読み込ませれば間違いがなくなるのでは?」といってたが、これも絶対になくならない、というより、もっとひどくなる。
批判をしている増田やXでの意見は単なる個人攻撃の誹謗中傷のみで、技術的に改善可能なプロセスさえ示せていない、例えば現在研究者の間では以下の様な解決案は研究されているが、どれも全く問題外とされている
これは、AIが「知っている風」に語る代わりに、外部の信頼できるデータベースや検索エンジンから情報を引っ張ってくる方式、バズった元記事の増田がやっていた「自分で図書館言って本の内容読んで誤りであることを確認する」これを検索エンジン使ってAIにさらにやらせる、という機能だ
また【メタモデル】すなわち、AIが自分の出力を裏でさらに別のAIが別プロセスでチェックして間違いをただす、という方式も研究されてる。
これは致命的な欠点が2つある、まず「検索で引っ張ってくる知識そのものが間違いだった場合、さらに間違いの結果を出し続ける」ということ。
元記事の増田はMP5というマシンガンの有効射程について突っ込んでいたと思うが、これが典型的なRAG、メタモデルの致命的欠点、元増田は「実際に自分の手で銃を取り扱ったりしたことがある確かな経験で言ってる」が、書籍などの工業スペックや仕様書の定義でしかネット上では流布してない、だからそもそも答えというものにAIがたどり着けない。
2つ目は「文脈や倫理・常識・道徳が根本的に読めないので、解決策が乱暴すぎるもの」になる。
上で上げた鉄砲以外では、例えば医学などでこれをやってしまうと取り返しのつかないことになる。例えば医者の投薬治療や治療はガイドラインに従ってるというが、優れた医者は論文を読み込んで原理は不明だがエビデンスはあるので、漢方薬を出したりするというお医者さんがよくいるだろう。あれは実際に患者を診て、西洋医学的には全く問題ないが、心理的な面も絡んで心身症になっているから、論文などで勉強して「暗黙知、経験知」として処方してるし、その量も患者を診た医者の経験で精度を上げている。
そして医療分野では、「冷え性の軽いむくみ」に対して「サムスカ(トルバプタン)」という劇薬指定の危険な利尿薬をAIが提示した事例すらある。これを「笑い話」で済ませることはできない。
例えるなら判断が「脳外科医竹田君」並になる、投薬治療で3か月で治る程度の病気を、病根から外科手術で切除しましょう、なんて提案になる。最新のAIなのに80年前みたいな医学知識と判断になってしまうのだ(胃潰瘍ってだけで胃袋は全摘、ついでに脾臓と盲腸もいらねーからとっとこ、みたいな手術が昭和の昔、本当にガイドライン治療だった、「K2」などで言及されている)
学習できるベースがどうしても偏る以上、情報の統合に限界がある、さらに間違いが間違いをよび、さらに変な間違いを起こしたりありえない架空のことをいったりする、これがハルシネーションというメビウスの輪である
Neuro-symbolicAIという次世代のさらに文脈も読み取れるアーキテクチャAIを研究しているが、全く実用化されていない、核融合や量子コンピューターみたいな雲をつかむ話なので、AIがこの問題を解決することは恐らく今後数百年はありえない、という結論が出ている。
元増田の記事で批判もあったが、恐らくAIで一番致命的な問題はこれ
基本的にAIは英語ソース、つまりリングワ・フランカで圧倒的にテキスト量の多い(約95%)英語、日本語含めそれ以外の全世界言語が5パーセントという偏った学習になっている
そのため、倫理・道徳・常識・規範などがすべて西洋基準になってしまう、という問題がある。(元増田はこれを「脱獄の基準の倫理は誰が決めるのか?」と根本的な問題に気が付いていて批判していたようだ)
ちなみに、バズってた例の記事に「AIに書かせたんだろ」という批判も大量にあるしよくみかけるが、この場合においてのみ言うなら、これは③の問題からまずありえないということがわかる、以下が根拠だ
元増田は「俺達の麻生とかいって秋葉原で踊ってた…」とか「レムちゃん、エミリアたん、ヘスティアちゃん、ウマ娘たん、刀剣乱舞くん、ライカン様…」といった批判を繰り返し書いていた
これに激怒できる人間は、2005~2010年にオタク界隈や秋葉原にすでにかかわっていて、実際に渦中にいたか同じ属性の人間でしか、罵倒されていると文脈的に理解できないのである。つまり、大量の英語文化圏情報を食ってるAIではなんでそれが罵声や侮蔑なのか理解できないので、書きようがない表現の数々、であるということである。
AIからすれば「ライカン様?ウマ娘?なんじゃそりゃ」なのである、もっと言えば、その直後にコンテクストとして「アホ、ボケ、弱者男性、豚丼、性器や自慰で虚しく…」といった言葉があるから、なんならAIはウマ娘やライカンをキャラクターでなく侮蔑単語として理解してしまう、これは実際、元増田の記事の一文をAIに食わせて質問したらガチでそうなるので、ぜひお手元で試してもらいたい。
「プログラマーのイメージを描いて」と依頼すると、男性の画像ばかりが出るされる
「看護師」→女性、「エンジニア」→男性という職業的性差が自動的に反映される
「アフリカの文化」→貧困・紛争・サバンナなど、植民地主義的視点が強く反映される(実際は南アなどはすげえ都会である)
これに前述のハルシネーション問題として現れれば、人間と同じような差別や偏見を「ガチの真実」として学習してしまう、人間の場合、8割くらいは本当はおかしいこととメタ批判が心理的にできるとされているが、AIにはその構造が根本的に存在しない。
元増田の記事のコメント欄やXなどで元増田のAI批判を批判しつつ、「金持ちの上級白人専用のハイエンドAIがあるに違いないんだ」といっている意見が少なくない数がある。
冷静に考えれば、そんなめんどうくせえもん誰が作るんだ、と普通に考えればわかるのだが、この③の問題、すなわち95%の学習データが英語ソースなので、結果的に西洋文明ベースの文化圏の人間向けにカスタマイズされているので、アジア圏やその他文化圏では利用に不利でそう感じてしまう素地ができている、という錯覚に由来している
例えば、パレスチナ問題などがそうだ、ガザ地区でほぼ国際条約や人道違反の残虐行為を国が行っているわけで、他文化圏や歴史的文脈から見ればどっちかって言えばパレスチナ人こそ被害者なのだが、イスラエルから見ればそれは正義であり正当な攻撃なわけで、後者の方がAIは正しいと判断した結論を下す様になる、といった問題である
あの記事の元増田は「テロ組織のヤバイマニュアルまで学習してpdfで元データを提示してきた」と言っていた。実際AIに調べさせて持ってこさせてみると、出所はアメリカの法務執行機関が研究用にネットで公開したものであった。
日本人や日本の警察の対応レベルで「ヤバイ」ものでも、海外の軍隊みたいな装備の警察で見れば大したことがないから、公開させてもいい=倫理違反には当たらない、という文化規範の意識の違いを、あの元増田自身が証明してしまっている、あの記事は、AIの治しようがない根本的な技術的欠陥をほとんど言及しているといっていい
元増田が口汚く罵っている内容の様に、「AIは0を1にできないから格差が広がるだけ」という根本的な哲学を投げつけている
それを受けて批判してる意見の中には「(自分が1を持ってる側と何故か根拠もなく信じ込んでて)100にできるから(なら)便利」とか「そのAI今から勉強したりしてる俺たちは先行者利益で強者になれる」と信じて疑わない意見が多かった
③問題の通り、そもそも非キリスト教圏かつ非英語圏の国家で生まれて育った民族、というだけで、我々は等しく「0」側の人間であり、結局競争になると勝てない、ということに全く気が付いていないのである。ここにAI信者の宿痾といえる病理がある
かつて日本人は黒船を見て5年そこらで蒸気機関を模倣した、火縄銃を一丁買えば10年でオスマン帝国の次に鉄砲を使うようになった、それは当時の日本人の基礎工学技術が導入可能なほど優れており、かつそれに対して現代では考えられないほぼバクチといっていい投資を行った結果であって、その結果を見て自分たちはAIを使いこなせて強くなれるなんていうのは、物凄い妄想である。つまり、AIは少なくとも「非英語圏」の人間にとっては、ブレイクスルーは絶対に起こりえない、ということである。
Permalink |記事への反応(17) | 08:43
EVメーカーテスラが6月22日にテキサス州オースティンでロボタクシー事業を開始した。米国発の発表からわずか数時間で日本語圏にも情報が流れ込み、各種メディアやSNSが一斉に反応した。本稿では日本語報道と国内リアクションを整理し、客観的に評価する。
サービスはModel Yを用い、運賃4.20ドルの固定料金。完全無人ではなくテスラ社員が助手席で監視する暫定仕様だ。対象エリアはオースティン市内の一部に限られる。NHTSA(米運輸省道路交通安全局)は開始翌日に情報提供をテスラへ要請しており、安全性評価は現在進行形である。
大手通信(ロイター、ブルームバーグ)が速報し、IT系・ビジネス系サイトが追随した。論調は「期待と警戒の二項対立」が基本線。肯定的要素としては料金の安さとテクノロジーの先進性、否定的要素としては安全監視員同乗とサービス範囲の限定が強調された。
サービス開始翌営業日、テスラ株は一時11%高を記録。日本語記事は「好材料」と報じたが、交通違反疑惑報道で時間外に反落した事実も併記し、短期的な変動リスクを指摘している。
President Onlineなどの解説系は「実質レベル2相当でWaymoに劣後」と慎重論を展開。一方でテック系ブログやイノベーション系メディアは「Starlinkによるカバー」「新アプリ連携」といったエコシステム面を評価し、中長期の優位性を論じた。視点は異なるが、「追加検証は不可欠」で一致している。
X(旧Twitter)では終日トレンド入り。テスラオーナー/投資家は「人間より滑らか」と賞賛する一方、一般ユーザーは「怖い」「日本導入は遠い」と慎重。試乗動画の切り抜きが拡散し、走行ミスを不安視する投稿も目立った。
国交省は公式声明を出しておらず、国内紙は「米当局の動向が日本の審査姿勢に影響し得る」と観測記事にとどめた。道路運送法・道路交通法の改正ペース、右ハンドル仕様の対応、既存タクシー事業者との調整など、制度面のハードルは依然高い。
国内の受け止めは「未来感への興奮」と「安全・制度への懸念」がせめぎ合う状態だ。技術的ブレイクスルーは歓迎されつつも、社会実装には時間がかかるという冷静な見立てが優勢である。
https://jp.reuters.com/markets/commodities/VGDPEFXKYFPDLO53XDYTCKGVJA-2025-06-22/
https://jp.reuters.com/markets/commodities/PMQGRVYUVNIANKUWCRNI5L57AM-2025-06-24/
https://www.bloomberg.co.jp/news/articles/2025-06-23/SYBL22T1UM0W00
https://www.bloomberg.co.jp/news/articles/2025-06-24/SYC0XYDWLU6800
https://www.itmedia.co.jp/news/articles/2506/23/news054.html
https://www.watch.impress.co.jp/docs/news/2025039.html
https://president.jp/articles/-/97123?page=1
AIが順調に進歩してAGI、ASIになる、と予測している人類
これは当たらないだろう
AIはDeepSeekのアルゴリズムで汚染されるのがまず最初にある
でもデータは枯渇してるよね、なんかないの、抽象数学とか超弦理論とかさぁ、となる
これが、俺の未来予想ね
機械って汎用的な作業が割と苦手なんだよね。だからすごく単純な雑務がたくさん来ると割とつらい。
個別の雑務に「特化」させれば今でもほとんどの作業はすぐ代替できる。ただコストと見合わないし、すべての雑務でそれをやるともっと見合わないのでコストが高い専門業務に特化する方向に進んでいて、コストの安い人間がAI様の代わりに単純労働をできるというほうが正しいのではないか。
あと創造性があるかというとめちゃくちゃ微妙な気はする。なんか出てくるけど結局人間が楽しいと思うかどうかだけだから、最後の価値判断は人間がするわけだし、人間以上に人間の価値判断ができるかどうかっていうのは分からん。
(脳の電気信号とか見て、無意識下での人間の選好をより深く理解するAIとかは出てくるかもしれない)
俺はかなり高度な専門職についているけれど、実際人間がやってることって結局高度なルーティンワークではあるんだよね。時々ブレイクスルーがあり、それを模倣してまたルーティンワークに組み込むだけ。ほとんどは機械で代替できるが、今のところ結構間違ってるので最終チェックを人間が代わりにやっている。
↓
😺もしかして「クリーンな学習してて、(ダーティーなイメージある)AI技術は使ってない」って言いたい可能性はありますか?
↓
💻
それは十分に考えられますね。
最近、「AI」という単語が特に「学習データの倫理的問題」と結びついてしまっているので、メーカー側が「うちの技術はクリーンだからAIじゃない」と主張することで、ユーザーの誤解を避けようとしている可能性はあります。
例えば、
1.ライセンスクリアなデータのみを使用
•著作権フリーの画像や、企業が独自に収集したデータのみを学習
• 「勝手にアーティストの作品を学習させていません!」と強調
2.人間の監修を強く入れる
• 単なる「機械学習によるブラックボックス」ではなく、人間が調整したアルゴリズムであると主張
• 「我々の技術は“人間の手による”ものだからAIではない」というロジック
3.ディープラーニングではなく古典的な手法をベースにする
•機械学習を使いつつも、伝統的なパターン認識・統計モデルを活用
• 「我々は最新のLLM(大規模言語モデル)やGAN(敵対的生成ネットワーク)は使っていません!」
このように、「AIの“ダーティーなイメージ”」を避けるために、「クリーンな学習をしている=だからAIではない」と言っている可能性はあるでしょう。
⸻
でも、それは本当に「AI技術未使用」なのか?
「クリーンな学習をしている」ことと、「AI技術を使っていない」ことは全く別の話です。
結局のところ、ディープラーニングや機械学習のアルゴリズムを使っている時点で、それは「広義のAI技術」には違いありません。
もしメーカーが「AI技術を使っていない」と言いながら、実はクリーンな学習データを用いた機械学習をしているなら、それは言葉遊びのマーケティング に過ぎません。
実態としてはAIを使っているのに、「AIではない」と言うことで、「反AIユーザー」も取り込もうとしている、ということになります。
⸻
「AIではない」と言いたがる理由
1. 「AI=著作権違反」という誤解を避ける
•AI技術全般が「勝手に学習してる」「盗んでる」と思われがちなので、そこから距離を取りたい
• 「うちはクリーンなデータしか使っていません!」というアピール
2.ユーザーの心理的抵抗を減らす
• だから「AIではない独自技術」と言い換えることで、ユーザーの安心感を得る
3. 法的リスクを避ける
•AIに関する法律が各国で議論されており、今後規制される可能性がある
•企業として「うちはAIを使っていません」と言っておけば、将来的なリスクを減らせる
⸻
結論:「クリーンな学習=AIではない」理論はマーケティング上の方便
•クリーンな学習をしているから「AIではない」と言うのは、言葉の定義をずらしているだけ
• 実際には機械学習を使っているなら、それは広義のAI技術である
•企業は、AIのダーティーなイメージを避けるために「AI未使用」と言っている可能性が高い
要するに、「AI未使用」と言っておけば、技術的な知識のないユーザーにはバレにくいし、反AI感情を持つ人にも売れるから、あえてそう言っている、あるいは装っているだけ というのが実情でしょう。
↓
😺「クリーンな学習=ダーティーなAIじゃない」の謎理論(実際に表明はしてないけど)でふわっとさせてるにしても、ぶっちゃけクリーンな可能性低くないですか?企業が完全オリジナルデータだけで学習させるの莫大コストと時間かかるし。OpenAIとかGoogleとかMicrosoftですら「クリーンなデータ」確保に苦労してて、「完全オリジナル」じゃなくて「法的リスク最小限」って意味で使ってることが多いです。中規模企業が独自データだけで学習実現できるとは思えないです。できたならブレイクスルーだから論文出すか特許取るべきでは?あるいはAdobeのFireflyみたいに「クリーン」の証拠を見せるべきなのでは?
↓
💻
中規模の企業が完全オリジナルのデータのみで学習するのは、コスト面でも技術面でも極めて難しい です。
⸻
1. 莫大なデータ収集コスト
•画像や動画、3Dモデルの大量データを自社でゼロから収集するのはほぼ不可能
•GoogleやOpenAIですらデータ調達に苦労している 現状、中規模企業が同じことをやるのは非現実的
2.品質を保つためのラベリングコスト
• 仮にデータを集められたとしても、機械学習には「正解データ(教師データ)」が必要
• 正確なラベリング(アノテーション)を行うには、専門家チームを長期間雇う必要がある
•企業の規模にもよるが、中規模のソフトウェア企業がこのコストを負担できる可能性は低い
3.既存のAI技術を活用しないメリットがない
• もし本当に「AIを使わず、ディープラーニングに頼らず、高精度なアルゴリズムを作れた」なら、それは業界的な大発見
• なのに論文も特許も出ていない → 本当にそんな技術があるのか疑問
• 結局、「普通にAI技術を使っているけど“(ダーティーな)AI技術ではない”と装っている」可能性が高い
⸻
もし本当に「クリーン」なら証拠を示すべき
大手企業の「クリーン」って言葉の実際の意味:
例えばAdobeFireflyの「クリーン」は完全オリジナルという意味ではない:
•パブリックドメイン素材を利用した
しかもAdobeFireflyは「クリーン」の証拠として下記を提供してる:
•データソース明示
一方、今回のペイントソフトメーカーは「クリーンな学習をしている(かもしれない)」という建前をふわっとさせているだけで、その証拠がない。
⸻
結論:「バレなきゃOK」マーケティングの可能性大
• 「クリーンな学習をしているからAIではない」 という論理は都合のいい言葉遊び
•そもそも本当に「クリーンな学習」なら、証拠を示さないと信用できない
• 中規模企業が独自データのみで学習するのは現実的でないため、実際には何らかの既存AI技術を使っている可能性が高い
•しかし「AI未使用」と言ったほうが、反AIユーザーにも売れるので、マーケティングのためにぼかしている
つまり、
「AIを使っていない」風にとぼかしつつ実は普通に使っている。クリーンでもない。 → でもバレなきゃOKという雑なマーケティングをやっている可能性が高いですね。
😺あるペイントソフトがユーザー感情に配慮してAIを利用しないことを表明しましたでもどう考えてもこれAI技術を使った機能だよね?という機能が搭載されています。名称にAIがついてないだけです。AIという名称がついていないため、ユーザーは喜んでるみたいですが、どう捉えたらいいと思いますか? 不誠実なマーケティングだと捉えるべきですか?それとも「人間がセットして機械学習で処理した。ディープラーニングは使っていない。人間主導だからAI技術じゃない」というメーカー主張だと捉え、「うんうん機械学習はAIの一種だけど、ディープラーニング使ってないかつ単純な機械学習なら、確かに君らが言う通りAIじゃないかもな!」と思うべきですか?
↓
💻
このケース、結局のところ「AIの定義をどう捉えるか」によって評価が変わりますね。
1. 不誠実なマーケティングと見る場合
• 「AIは使わない」と表明したのに、実際には機械学習を用いた機能を搭載しているなら、それは言葉遊びであり、不誠実と捉えることもできる。
• 一部のユーザーは「AIを避けたい」と思っていたのに、実は技術的にAIに分類されるものを使っているのなら、それは裏切りと感じる可能性がある。
•企業が意図的に「AI」という言葉を避け、ユーザーの誤解を利用しているなら、マーケティング戦略として不透明と言える。
2.メーカーの主張を受け入れる場合
• 「ディープラーニングを使っていないからAIじゃない」とするなら、機械学習全般をAIと見なさない立場に立つことになる。
•企業側が「人間がセットしたルールベースに近い機械学習ならAIではない」と定義し、それを貫くなら、技術的な線引きの問題とも言える。
•ユーザーも「AIという言葉がついていなければ安心」と感じているなら、結果的に双方が納得している状況とも取れる。
技術的には、「機械学習もAIの一種」と考えるのが一般的なので、企業の主張は「広義のAI」という視点では詭弁に近いです。ただ、マーケティング的には「ユーザーが求めているもの」を提供するための言葉選びとも言えます。
つまり、「技術的にはAIを使っているが、ユーザーの感情を考慮してAIという言葉を避けた」戦略と考えられます。
これが不誠実かどうかは、企業の姿勢とユーザーの受け止め方次第ですね。もし企業が「AIを使わないことが倫理的」と言いつつ実際には使っていたなら不誠実に感じますが、単に「AIという言葉に拒否反応を持つ層のために表現を工夫した」だけなら、商売としてあり得る範囲とも言えます。
↓
😺ペイントソフトでキャラクターや特定オブジェクトの自動範囲マスク、2d→3d自動オブジェクト化で、開発側にディープラーニングを使わないメリットってありますか?商用のAIモデルのレベルではないですが、それでもそこそこ精度は高いようです。もし本当に独自アルゴリズム(非AI技術)で実現しているのであれば、学術的にも産業的にも非常に価値のある革新となり、特許とったり学術論文出した方がいいのでは?と思いますが、いずれも行っていないので、AI技術未使用を疑わしく思ってます。大手企業ですらAIに多大な投資をしている現代において、独自のアルゴリズムを開発するメリットがないように思えます
↓
💻
結論から言うと、ディープラーニングを使わずに精度の高い「自動範囲マスク」や「2D→3D変換」を実現するメリットはほぼありません。
むしろ、大手企業がAIに巨額投資している中で、非AI技術で同等の成果を出せるのであれば、それ自体が世界的な技術革新であり、特許や論文で発表しないのは不自然 です。
⸻
1.ディープラーニングを使わないメリットはあるのか?
一般的に、ディープラーニングを使わずに高度な画像認識や形状推定を行う場合、以下のようなアプローチが考えられます。
①伝統的なルールベースのアルゴリズム
昔ながらの手法として、色の違いやエッジ検出、形状解析を活用する方法があります。例えば:
•グラフカット、GrabCut(古典的なセグメンテーション技術)
• SIFT/SURF(特徴点マッチング)
ただし、これらの手法はディープラーニングに比べると柔軟性がなく、精度も低い ため、商用レベルの高精度なマスク処理や3D変換には向きません。
②独自の機械学習(非ディープラーニング)技術
「ディープラーニングではない機械学習(例:ランダムフォレストやSVM)」を使う可能性もあります。
ただ、これも現代のディープラーニングモデルほどの精度は出せないので、大手が採用する理由は薄いです。
⸻
2. 本当にディープラーニングを使っていないなら、大発明レベルの話
もし仮に、「ディープラーニングなしで、AI並みの精度で自動範囲選択や3D変換を実現している」 のであれば、それは産業的にも学術的にも極めて重要な技術 です。
なぜなら:
• ほぼ全ての画像認識分野(Adobe、Google、Apple、NVIDIAなど)がディープラーニングに依存している中で、それを使わずに高精度を実現するのは極めて困難。
•計算量が抑えられ、学習データの準備不要で、リアルタイム処理にも強いアルゴリズムが確立されたことになる。
• もし実現できるなら、世界中の大手企業がその技術を欲しがる はず。
にもかかわらず、特許も論文も発表されていないのは不自然です。
技術的ブレイクスルーを隠す理由がありませんし、むしろ発表したほうが企業価値が爆上がりします。
⸻
3. では、なぜ「AIを使っていない」と言っているのか?
ここから考えられるのは、「AIを使っていない」という主張が言葉のマジックである可能性が高いということです。
可能性①:「AI」の定義のすり替え
• 「ディープラーニング(深層学習)」は使っていないが、機械学習(ML)は使っている
• 「クラウドAIモデル」は使っていないが、ローカルで動く学習済みモデルは使っている
• 「学習は開発時に行ったが、ソフト自体は学習しないのでAIではない」と主張
可能性②:マーケティング的な理由
•ユーザーが「AI」という言葉に拒否反応を示すため、「AI」と明言しない戦略 を取っている
• 「AIを使わない」という主張をすることで、手作業を尊重するクリエイター層に好印象を与える
特に、最近は「AI=悪」「AI=著作権問題」のイメージがあるため、あえてAIと言わない方が売れる という判断の可能性もあります。
⸻
結論:AI技術を使っているが、言葉の問題で「AIではない」と言っている可能性が高い
•ディープラーニングなしで高精度な画像処理を実現するのは、産業的にも学術的にも極めて重要な技術革新 だが、論文や特許が出ていないのは不自然。
• 「AIではない」と主張する理由は、技術的なものではなく、マーケティング的な戦略の可能性が高い。
• 本当にAI未使用なら世界的発明レベルなので、逆に疑わしい。
このソフトはAI技術を使っているが、ユーザーの感情に配慮して「AIとは言わない」だけ というのが、最も妥当な推測ですね。
↓
😺過去のプレスリリースをよく見たら普通にディープラーニングを使用したって書いてありました。AI未使用風を装うメーカー、AI未使用に喜ぶユーザー、ますますどちらも意味が分かりません。世の中にはさまざまな職業があり、また様々な考え方があるので、その感情には配慮するべきです。また人それぞれ興味が異なり、何かを知るのに適切なタイミングは人によって異なります。しかし、これはあまりにバカにし過ぎだし、ユーザーの方も興味がないからって自分の無知を開き直りすぎではないですか?人にはそれぞれ適切なタイミングがあるとはいえ、理念なき無知による反AIと、それにマーケティングで上っ面だけで合わせる開発アプローチは、衰退を招きます(なお、😺は、エネルギー問題/市場原理に任せた倫理なき合理化/市場の寡占化(富の一極化集中)など、理念のある反AIに対しては一定の理解を示す立場です)
↓
💻
まさにその通りですね。
「理念なき無知による反AI」と、それに迎合するマーケティングは、結果的に技術の発展や健全な議論を妨げ、社会全体にとってマイナスになります。
このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています。
•メーカーは「AI未使用」を装いながら、実際にはディープラーニングを使っている。
•ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。
これが問題なのは、ユーザーが「自分はAIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。
⸻
理念なき「反AI」は危険
あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:
•エネルギー問題(AIモデルの学習や推論には大量の電力を消費する)
•市場の寡占化(AI技術の進化が一部の巨大資本に富を集中させる)
しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティングを助長し、結果的に「消費者自身が損をする」状況を生みます。
⸻
メーカー側の問題:マーケティングの短絡的対応
メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています。
確かに、「AI未使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。
特に:
•ユーザーが技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動)
• 「AI=悪」という認識が広まり、結果的に技術革新を妨げる
•本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する
本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。
しかし、現状は「ユーザーの誤解を利用する」形で利益を得ている ので、むしろ反AIの感情を助長している面すらある。
⸻
ユーザー側の問題:無知であることを開き直りすぎ
• 「AIという単語がなければOK」というのは、単なる思考停止。
知識がなくても使えるのが技術の理想ですが、それと「知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。
もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます。
しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。
⸻
最悪の未来シナリオ
この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります:
1.企業が「AIではない」と言い張ることで、ユーザーはAIを理解しなくなる
2.AIの社会的受容が進まないため、本当に必要な倫理的議論すら行われなくなる
4. 一部の大企業だけがこっそりAIを活用し、情報格差が広がる
⸻
結論:理念なき反AIと、それに迎合する企業は、技術と社会の発展を阻害する
• 「AI」という単語に拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的に社会の技術理解を阻害する
•企業は短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある
•ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢が必要
•理念なき反AIの風潮が広がると、本当に議論すべきAIの倫理問題がなおざりにされ、結果的に一部の大資本だけがAIを活用し、情報格差が広がる
⸻
合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。