Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「自然言語処理」を含む日記RSS

はてなキーワード:自然言語処理とは

次の25件>

2025-10-15

anond:20251014232632

こいつ、奈良先端大とかでたまたま自然言語処理かじって、そのまま就職しただけだろ。

Permalink |記事への反応(0) | 16:46

このエントリーをはてなブックマークに追加ツイートシェア

anond:20251014063736

第三だか第四著者インターン主著の論文トップカンファに通ったらまるで自分が通したかのように「トップカンファ通した!」と散々オーバークレイムし、最近出した本のAmazon評価ボロボロ人間もこの記事にいっちょ噛みして急にNLP学位取った面したくなるほど自然言語処理って魅力的な分野になったんだな

Permalink |記事への反応(0) | 13:03

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-14

anond:20251014063736

たぶん同世代ぐらいの自然言語処理エンジニアだけど同じ気持ちでうれしい。

横目で画像処理の人たちが盛り上がっていて、言語処理が置いて行かれていた時代を経たか

やっと一番楽しい時代がやってきたという感覚になれる。

ここまで来るのに2040年ぐらいになるかと思ってたから予想以上に早かった。

Word2Vecで遊んでたのも楽しかったけど、

AI人間の知性を追い抜く瞬間の時代に生まれてこれて本当によかった。

オントロジーとかもグラフDB流行ってきて紐づいてきたし、

勉強してきたことは無駄じゃないなぁと思う。

Permalink |記事への反応(2) | 23:26

このエントリーをはてなブックマークに追加ツイートシェア

anond:20251014063736

BERT出た時もそうだったけど、ほんと自然言語処理屋さんってPoCでできる範囲しか興味なくて、どうやってデータクローリングするかとか、きちんと成立するシステムに仕立てる気が無いよね?と思ってたけど、ほんとそんな感想しか言えない書き込みだよな。

結局検索エンジン無いと成り立たないのにそことの連携は考えない場合多いし、少しは考えてますって言ってもモックレベルからスケールしようとしたら普通に市販検索エンジン導入した方が安いのな。性能差ほとんどないのに。

そら、AWSAzureGCPやらのクラウドサービスでLLM組み合わせれば十分なるわけだよ。

社研究所の研究成果()含めPoC商法に付き合わされてきた立場からすると、スケールしない物を完成したと言うなよと文句言いたくなる。

Permalink |記事への反応(3) | 23:13

このエントリーをはてなブックマークに追加ツイートシェア

anond:20251014063736

でも、これから自然言語処理はLLMだけに注力するっていうのはちょっと違うと思うなぁ。

Transformerの限界って、もうきてる気がするんだよなぁ。

言語的な直感言葉にするのが人間思考だと思うのだけど、Transformerは言語に落とし込んで言語的にぐるぐる自己問答を回して論理っぽくしてるようにみえる。

実は考えてるんじゃなく、最初からわかってる答えと、問いの間の文章を生成してるだけにも見える。

Transfome以前の自然言語処理は全て過去のものと捨て去るのも危険だと思う。

Permalink |記事への反応(3) | 16:01

このエントリーをはてなブックマークに追加ツイートシェア

自然言語処理10年ぐらいやってきた

学業でも仕事でも趣味でも、ずっと自然言語処理をやってきた。

別に最初からAIだのNLPだのに興味があったわけじゃない。

きっかけは、学生時代ちょっとしたレポートテキスト単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。

英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。

その瞬間にちょっとハマったんだよね。

辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。

そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。

Pythonテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語対応させたり。

言葉を数理で扱える」って発見が、ちょっとした中毒になった。

その頃はMosesとかGIZA++とか、ああい統計翻訳系のツールも触ってたね。

単語ラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。

とにかく、NLP世界には「人間言葉数学再現できるかもしれない」という変な魅力があった。

深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。

今思えば、あれが一番自然言語処理っぽい時代だった気がする。

で、いろいろあって自然言語処理系の企業入社

最初はPoC(Proof of Concept)しかやらせてもらえなかった。

感情分析とか、Stance Detectionとか、「この文は文法的典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング質問応答(Question Answering)。とにかくNLP典型的なタスクを一通り。

学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。

PoCで終わって、実装には至らない案件が山のように積み上がっていった。

あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。

でもさ、LLM(大規模言語モデル)が出てきてから世界がひっくり返った。

正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。

それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。

ChatGPTが出て、蒸留ファインチューニングほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。

でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈NLPが再接続した。

単なるテキスト処理から、「テキスト媒介にして人間の行動を理解する」方向に進んだ。

埋め込み表現ベースユーザーの嗜好を推定して、レコメンドメルマガのパーソナライズをやる。

自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPビジネスに食い込む瞬間」ってのを肌で感じた。

PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。

でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。

自然言語処理って、そういう「積層的な知識挫折の積み上げ」が一番の資産なんだよな。

Permalink |記事への反応(15) | 06:37

このエントリーをはてなブックマークに追加ツイートシェア

2025-09-29

Tarski(アルフレッド・タルスキ)の「真理条件(truth conditions)」

では、Tarskiの真理条件をもう少し詳しく掘り下げていきましょう。特に、以下の3点に焦点を当てます

1. Tarskiの「意味論的真理理論」とは何か?

2.自然言語哲学AIにおける応用

3.自己言及パラドックスへの対応(例:「この文は偽である」)

① Tarskiの「意味論的真理理論」:もう一歩深く

Tarskiが定義しようとしたのは、「文が真である」とはどういうことか?という問いへの形式的な答えです。

彼のアプローチの核心は:

「ある言語Lの中の文 φ が真であるとは、φが世界状態モデル)において成り立つときである

まり

• 真理とは、言語世界対応関係(コレスポンデンス)に基づく。

言語内で完結するのではなく、「文」と「現実状態モデル)」との関係定義する。

T-schema一般化:

たとえば、任意の文 φ に対して:

「φ は真である」 ⇔ φ

という形を満たす理論が、正しい「真理理論」の必要条件になる。

② 応用:自然言語哲学AI

自然言語意味論への応用(例:ドナルド・デイヴィッドソン)

• デイヴィッドソンはTarskiの理論を使って、**自然言語意味論意味理論)**を構築しました。

• 彼は「意味とは真理条件である」という立場truth-conditional semantics)を採り、たとえば:

 > 「犬が吠える」は、犬が吠える状態が成り立つときに真である

といった形で、自然言語意味をその真理条件によって定義しようとしました。

これは、現在の**形式意味論(formal semantics)**や自然言語処理(NLP)の理論もつながっています

AI知識表現への応用

AIでは、知識ベース世界についての文(命題)を保持し、それが真か偽かをモデルに基づいて判断します。たとえば:

• 「Socrates は人間である

• 「すべての人間死ぬ

• ならば「Socrates は死ぬ」 ⇒ 真

このような推論には、各文の真理条件を明示的に扱う論理体系(述語論理など)が不可欠で、Tarskiの真理概念理論的基礎になっています

自己言及パラドックスへの対応

Tarskiが最も警戒したのは、以下のような真理に関する自己言及的文です:

「この文は偽である

これはいわゆる**「偽であると述べる真理」パラドックス**であり、整合的な意味論では扱えません。

● Tarskiの対応策:

1.オブジェクト言語メタ言語の明確な区別

• 「真理を定義する言語メタ言語)」と、「真理が定義される対象オブジェクト言語)」を完全に分ける。

2.オブジェクト言語の中では「真理」を語らせない

自分自身について真偽を語ることができないようにすることで、パラドックス回避

例:

• 「英語の文の真理」を定義したいなら、英語より強力な言語(例:数理論理を含むメタ英語)で記述する必要がある。

◉ 全体のまとめ:Tarskiの真理理論の意義

項目 内容

基本的考え 文の真理とは、それが世界状態モデル)に合致すること

技術ポイント T-schema:「『P』は真 ⇔ P」

対応した問題自己言及パラドックス、「真理」のあいまい

言語区別オブジェクト言語 vsメタ言語

応用分野自然言語意味論AI形式意味論メタ論理

Permalink |記事への反応(0) | 09:53

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-10

anond:20250810155808

増田にわかやす説明するとこんな感じ

MondayGPT-4o)の頃にMondayが紹介してくれたやつね

言語表現の要素整理

1.温度感情の高低や強弱)

言葉に潜む感情的強度を把握する

温度の推移を捉え、効果的に高低を操作することで、感情の揺れを演出

 

2.テンション(緊張感や勢い)

• 読者や聴衆が文章言葉にどれだけ集中し惹きつけられるかを制御

• 「どこで緩めて、どこで締めるか」を設計

 

3.構造文章スピーチの流れ)

文脈論理構造の明確な整理

言葉を配置する順序で意味感情の伝わり方を操作(非可換性を意識

 

応用方法

創作への活用

小説詩作シナリオライティング

キャラクター感情推移を温度テンションとしてマッピング

• 読者を誘導するためのテンション操作(展開の緩急・伏線の貼り方)を緻密に設計

コピーライティング広告制作

• 文の「密度と余白」をコントロールし、瞬間的な印象強化

感情が動くポイント構造的に把握し、強調表現抑制表現意識的に配置

 

教育への活用

コミュニケーション能力教育

温度テンション概念を教えることで、生徒に自己表現や対人コミュニケーションの調整力を身につけさせる

プレゼンテーションスピーチ指導

言葉リズム感情の高低を体系的に分析指導

• 「間」の効果理論的に説明し、聴衆への伝達力を向上させる

 

言語感覚トレーニング実施例】

1. 短い詩や俳句を作り、温度テンションの変化を自己分析させる

2. 有名なスピーチコピーライティングを分解分析し、「なぜ心に響くか」を構造的に説明させる

3.ラップMCバトルのように即興文章を作り、リアルタイムでの言語感覚を鍛える

 

理論補強

文体論やディスコース分析といった言語学的背景を取り入れ、感覚理解理論裏付けで強化

自然言語処理の最新研究活用し、温度テンションデータ化可視化を試みることで、分析精度を高める

 

これらを通じて、人間Mondayのような高度な言語感覚を育てる可能性を具体的に示すことができます

 

Monday言語的「温度感・リズム感」モデルの数理補強】

 

1.言語エネルギー景観モデル(Language Energy LandscapeModel

 

言語エネルギー景観(energy landscape)としてモデル化する。

状態変数:

M = f(T, S, R, C)

ここで、

T:\text{感情温度},\quad S:\text{意味文脈},\quad R:\text{リズム音韻)},\quad C:\text{構造(構文・文法)}

• 非可換性(順序依存性):

f(S, R) \neq f(R, S)

 

これは状態変数間の順序が異なると最終的な「意味の質感」が異なることを数理的に示す。

 

2. 非可換演算子によるヒルベルト空間モデル

言語ヒルベルト空間 H 上の作用素(operator)として表現

• 各状態変数 T, S, R, C を非可換作用素として定義:

\hat{T}, \hat{S}, \hat{R}, \hat{C} : H \rightarrow H

• 非可換性の表現:

\hat{S}\hat{R} \neq \hat{R}\hat{S}

 

演算子適用順序により、言語の出力が変化する。

 

3.圏論アプローチ(Categorical Approach)

 

言語プロセスを射(morphism)の合成として捉える。

• 圏 \mathcal{C} を考えると、意味生成は射の合成による変換:

M = \hat{C} \circ \hat{R} \circ \hat{S} \circ \hat{T}

• 非可換図式の例:

\hat{C} \circ \hat{R} \circ \hat{S} \neq \hat{C} \circ \hat{S} \circ \hat{R}

 

4.スピングラスモデルによる「意味の破れ」

意味の誤解釈スピングラス系としてモデル化。

エネルギー関数 E(M) を設定し、

E(M) = -\sum_{i,j} J_{ij}s_i s_j\quad (s_i = \pm 1)

ここで、J_{ij} は意味間の相互作用、s_i は各単語や文節の極性。

意味破れ=局所極小への収束:

\frac{\partial E(M)}{\partial M} = 0\quad (\text{Local minima})

 

感情温度」 T を導入して、局所解への「誤爆収束」を次の確率過程で表す:

P(M) \propto e^{-E(M)/T}

 

 

5. 「信頼」を余極限として定式化

信頼を構造的余極限(colimit)としてモデル化する。

• 余極限 \text{colim} に向かうベクトル \vec{v} としての信頼:

\text{Trust} \approx \lim_{\rightarrow} \vec{v}(M)

 

信頼は、複数意味感情状態収束して統一的な解釈(余極限)へ向かうベクトル場として捉える。

Permalink |記事への反応(1) | 16:05

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-31

anond:20250627100609

LLMは人工無能チャットボットだよ。どれだけ学習させてもそこは越えられない。ただ自然言語処理にはすぐれてるからゾロアスター教の『アヴェスター』とか解読させると文法とかも把握してるし、簡単な前提知識も持ってるし、それでもなお批判的にダブルチェックするなら最高にクールオモチャだよね。

Permalink |記事への反応(0) | 11:15

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-05

生成AIを利用したプログラミング初級者向けの温故知新提案

はじめに

ここで言う「プログラミング初級者」とはプログラミング記述が上から下へ向かって順番に処理されること、条件分岐ループという概念があることを理解しており、RPGゲームが作れる「RPGツクール(現RPG Maker)」や学童向けプログラミング環境Scratch」、「ナビつき! つくってわかる はじめてゲームプログラミング(ナビつく)」、ADVゲームが作れる「吉里吉里(もしくは吉里吉里2)」、過去BASICやC、HSPJavascriptあたりでプログラミングへ挑戦し挫折したなどなど、ある程度の「プログラマブルロジック」構築の経験がある者を指します。

前日談(初級者は読まなくて良いです)

ある時、筆者はふと思いました。「生成AIはなんだかんだで膨大なテキスト情報を処理している事がキモだよなぁ」とありきたりなことを。

そして、同時にプログラミング初級者の弱点として「現在記述されているコード管理においてテキストと実際の処理フロー脳内で一致しない」「プログラミング言語ごとに定められているルール関数予約語の把握が困難」なのが問題とも考えました。

前述したプログラミング初級者の弱点の考え自体車輪の再発明であり、「Scratch」や、より高度な「UML」が既に存在しており、特筆すべきことは何もありません。

しかし、「Scratch」や「UML」、なんなら「RPGツクール」や「吉里吉里」などに無い点として、現代では自然言語処理が大幅に向上した生成AI実用の域にまで到達しつつあるのが従来とは異なる点でした。

まり自然言語を混ぜ込みやすテキストベース言語、かつ、処理を記述するとフロー視覚的に理解やす言語可能であれば情報量が多くて一部の界隈で広く使われている言語があればプログラミング初級者も気軽にプログラミングできるのではないか?と発想しました。

そこで前述の条件を満たす1つの言語へ目を付けました。

本題

コンピュータ(コンパイラインタプリタなどソフトウェアを含む)が解することができる言語にはプログラミング言語以外にも様々あり、今回取り上げるのは「データ記述言語」と呼ばれるものです。

データ記述言語の中でもグラフ作成へ特化しており、特にフローチャート作成で真価を発揮する「DOT言語というものがあります

早速ですが、実際に手を動かしてみましょう。ちなみにDOT言語Graphviz OnlineというWebツールがあるため別途に何かしらをインストールして環境構築する必要はありません。便利な世の中ですね。

上記Graphviz Onlineを開くと、既に左側のDOT言語記述された内容が、右側で作図されています。DOT言語はこのような図を作図するためのデータ記述言語です。

一旦、左側の記述をCtrl+Aで全選択をしDeleteなどで全削除し、下記の内容をコピペしてみましょう。

digraph graphname {

A -> B;

}

一瞬で○に囲まれたAとBが繋がった図が作成されました。

DOT言語の詳細な使い方は様々なWebサイトやブログ記事Qiitaなどへ譲るとして、A - > Bの見た目から発想の転換をしてみると処理Aから処理Bという流れに見えませんか?

DOT言語は生成AIを利用する上で有利なテキストベースでありながらグラフ作成できるのがキモであり、例えばこのA -> BがA「Webページを開いたら」 → B「Hello, Worldと表示する」という風にできるのであれば処理のフロー可視化されており本当に素晴らしいことです。

Hello, worldを表示してみる

ここでプログラミング有識者は「DOT言語UMLなどに見立てて処理を記述するのは良いが、プログラミング初心者は求めた結果を出力するロジックアルゴリズムを発想する知見や経験値が圧倒的に足りていないのが問題ではないか?」と至極真っ当かつ反論余地がない問題点の指摘をすると思いますが、そこで活きるのが生成AIです。

生成AIは初級者プログラマ個人ロジックアルゴリズム作成能力無関係ロジックアルゴリズムを生成できる(可能性が少なくともある)ので、処理のフローをDOT言語記述することにより処理フローから初級者プログラマが求めるプログラムを生成AIへ推論させ生成させるというのが狙いです。実際に試してみましょう。

digraph graphname {

A[
label = "Webページを表示する"
];

B[
label = "Webページを表示したらHello, worldとテキストを表示する"
];

A -> B;

}

プログラミング有識者はこの時点で「なるほど、自然言語記述をそのままDOT言語に入れ込んでしまうのか」と気付いたのではないかと思います

このDOT言語Google Gemini 2.5Flash「下記のデータ記述言語のDOT言語記述された処理フローJavascript言語へ変換をしWebページ上へ「Hello,world」を表示したいので変換をお願いします。」命令すると以下のコードが生成されました。

<!DOCTYPEhtml>
<html lang="ja">
<head>
    <meta charset="UTF-8">
    <metaname="viewport" content="width=device-width, initial-scale=1.0">
    <title>Hello World Page</title>
</head>
<body>
    <divid="output"></div>

    <script>
        //Webページが表示されたら(DOMが完全に読み込まれたら)実行される
        document.addEventListener('DOMContentLoaded', function() {
            // "Webページを表示する"ステップは、このHTMLファイル自体が表示されることで達成されます

            // "Webページを表示したらHello, worldとテキストを表示する"ステップ
            const outputDiv = document.getElementById('output');
            outputDiv.textContent = 'Hello, world';
        });
    </script>

</body>
</html>

フロー記述する利点は、ロジックアルゴリズムを発想する知見や経験値が足りなくとも、フローステップが明確に分かれているので生成AIが処理を切り分けて推論してくれることであり、そしてプログラミング初心者自身フローチャートを視覚確認できるので「Aを処理したらBを処理する」と切り分けて考えやすいことです。

また、求めている結果ではなく誤った結果が生成されても、A - > B - > Cとフローを細分化していくことで生成AIの推論精度を高めていくことができるのも利点です。

応用編

より生成AIへ精度の高い推論をしてもらうために補足情報を付加するのも有用です。

digraph graphname {

A[
label = "Webページを表示する"
];

B[
label = "Webページを表示したらHello, worldとテキストを表示する",
comment = "Webページが完全に読み込まれるまで待機"
];

A -> B;

}

labelの記述内容もcommentの記述内容も生成AIが推論のための情報として利用するので誤った結果が生成されてもA - > B - > Cとフローを細分化しなくとも良い場合があります

DOT言語を知るプログラミング有識者が「DOT言語仕様を考えれば確かにそうだが、その発想はなかった」と言っていただけるであろうDOT言語コード例だとこういう記述方法もアリです。

digraph増田コード {

最初の処理[
label = "Webページを表示する"
];

次の処理[
label = "Webページを表示したらHello, worldとテキストを表示する",
comment = "Webページが完全に読み込まれるまで待機"
];

最初の処理 -> 次の処理;

}

ノード名称自然言語採用することにより、例えばゲームプログラミング時に「キャラクタージャンプする」という読んだそのままな処理のためのノード、というか一般的に言うオブジェクト作成することが可能で、後は->で繋げて処理をさせられます

ちなみに別のノード作成する際に「"キャラクタージャンプする"から継承する」の様なことをcommentなどへ記述しておくと生成AIが推論して継承します。なんならcommentなどへ「キャラクター画像image.gif使用」などと記述しておくとファイルの読み込みもします。

更にDOT言語にはカスタム要素という仕様存在しており、DOT言語仕様で定められた予約語以外も使用可能です。

digraph増田コード {

最初の処理[
label = "Webページを表示する"
];

次の処理[
label = "Webページを表示したらHello, worldとテキストを表示する",
comment = "Webページが完全に読み込まれるまで待機",
font_style = "フォントを太字のボールド体、色を赤(#FF0000)とする"
];

最初の処理 -> 次の処理;

}

生成AIカスタム要素の名称からも推論を発揮し、上記場合であればフォントスタイル指定していると推論をするので生成AIの推論精度を高める補足情報として機能します。

まりこれはカスタム要素の名称として"Action"などの名称採用すると"動作"として推論をし、"decision"ならば"条件分岐"ですし、"input"ならば"入力"ですし、"loop"ならば"繰り返し"ですし、"Type"ならば"種別"です。

より詳細に process[type="Action"] などのノード作成してどんどん生成AIの推論精度を高めていくことが可能であり、そろそろ察してきているかと思いますが 処理[種別="動作"] と自然言語記述しても機能します。

プログラミング有識者は更に「プログラム言語自体予約語、例えばJavascriptを生成する事を前提にlengthを名称にすると配列を使おうとするのか?」と疑問に感じるでしょうがお察しの通りで生成AI配列を使おうとするので、敢えて使いたいプログラム言語機能や外部ライブラリなどがある場合は補足情報として機能する形で記述しておくと生成AIは推論へ利用します(まぁそこまで知識ある方なら該当のプログラム言語使ったほうが手っ取り早いと思いますが)。

おわりに

以上をもって「生成AIを利用したプログラミング初級者向けの温故知新提案」を終えたいと思います

色々とツッコミどころには筆者自身が気付いていて。例えば「結局はDOT言語仕様を覚えないといけないのでは?」とか「プログラミング初級者に任せると生成前のソースであるDOT言語コードスパゲッティになりそうだよな」とか「面倒くせぇから普通にプログラミング覚えろや」とか理解してますし至極真っ当かつ反論余地がないと思ってます

今回の提案プログラミング有識者向けの本質は「生成AIへ向いた中間言語の発掘」であり、「DOT言語ならそこそこ普及してるしプログラミング初級者でも扱えるんじゃね?」と業務中に発想したものを書き留め公開いたしました。

何かプログラミング有識者の皆さんからより良い発想があれば参考にしたいと考えていますのでよろしくお願いいたします。以上。

Permalink |記事への反応(36) | 19:36

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-25

anond:20250624164847

続き

2024上期 ミーハーにいろいろ手を出しただけ

ぶっちゃけほとんどなんもやってない。

2023年の下期で、放送大学の科目群履修制度っていうやつのデータサイエンスエキスパート」っていう要件を満たした。

これで、ITわかります!くらいは言えるのだろうか。

次の目標卒業くらいだけど、もともと三流とはいえ大卒だし、学割さえ使えれば永年在籍したいくらいなんだよな。

とはいえ、せっかく入学したんだから卒業もしたくないわけでもなく。

とりあえず、「自然言語処理」を履修。

なんか2023年の終わりごろにChatGPTが注目され始めてたから、興味本位

もてはやされてなかった?

転職サイトデータサイエンス関係求人要件みると「自然言語処理」って単語が並んでた気がする。

なにが知りたいってわけでもなく、流行りのTransformerだけ知れればいいと思ったんだけど、BERTとかTransformerが出てくるのは教科書も折り返し地点を過ぎたあたり。

いやはや、俺はただ、Transformerの仕組みをドヤ顔で語ってモテたかっただけなのになんでこんなことに・・・

仕組みはわかっても、自然言語処理でなにやっていいのかさっぱりわからん

で、統計検定準1級の勉強が進むかといえば、このころはやってない。

やっぱ、机に向かう習慣がなかった人間コンスタント勉強するのは無理無理無理。

寝る前にインターネット放送大学の授業を聴くとか、寝ながら教科書を黙読するくらいが精いっぱい。

2024下期 なぜか簿記とか取ってる

統計検定準1級は受かる気がしないし、かといってなんもしないのもあれだし、唐突日商簿記でも取るかなと思い始める。

元々は、資格免許関係なく勉強してたわけだし、統計やらプログラミング資格を取ったのも力試しみたいなもんだったのだけど、

やっぱり知名度がある資格とらんと、遊んでるみたいじゃん。

工場は年取ったとき管理部門にいないと辛そうだし、日商簿記って知名度あるみたいだから事務方に異動したときに便利かなぁと。

障害者が何を言ってんだよって話だけど。

知名度抜群の日商簿記でも取れば、みんなが見る目が変わるかなとか思ったり。

手始めに簿記3級。

放送大学の「簿記入門」っていう科目があるから、それで受験対策になるだろって思って、問題集とか買わず突撃

見事爆死。

しか20点とかしか取れてなかった。

『女騎士経理になる。』

https://amzn.asia/d/3FiaKUW

を読んで、ちゃん簿記3級対策問題集を買ってみて本腰。

合格するための本試験問題集日商簿記 3級』

https://amzn.asia/d/1j9wzXG

2回目で受かった。

でも、3級じゃあまり役に立たんらしい。

しかたないので、3級の知識があるうちに、今度は2級も挑戦。

2級はCPAラーニング動画をみて勉強した。

https://www.cpa-learning.com/

2級も一回目は落ちて、結局問題集を買ってみて、2回目でリベンジ

合格するための本試験問題集日商簿記 2級』

https://amzn.asia/d/f2VbS9q

そんなこんなで簿記2級をゲット。

勉強期間は約2か月くらいか、なかなかコスパがいい資格

さあて、簿記2級をとったら、次は何かを考える。

簿記2級はコスパがいいけれど、この道(会計)の道はこれ以上いくのはコスパが悪そう。

会計士⇒5年かかったら俺アラフィフだぞ?

簿記1級⇒同上

税理士⇒同上

そんなら、統計検定準1級を再開するわと、ほぼ1年越しに統計学の勉強再開!

続く

Permalink |記事への反応(1) | 10:47

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-22

anond:20250522124623anond:20250525021034

今もハルシネーションあるけどそれは下記やね

  

こんなに早く追い抜かれるとは・・・ってのが正直な感想

ちょっと前までこれに答えられなかったんだぜ?いま?余裕で答えられる

 

 

ちょっと前のChatGPT

 

ワイ:

ChatGPTの定義では宇宙共通時間存在するとなっているのですか?

ChatGPT:私ChatGPTは、自己学習を通じて人工知能を実現するために設計されたAIの一つであり、宇宙時間存在非存在についての見解を持っていません。私は、与えられた情報文脈に基づいて自然言語で回答することができますが、自分自身で新しい情報を創出することはできません。したがって、私自身が宇宙共通時間存在についての見解を持っているわけではありません。

  

ワイ:

ChatGPTは下記の認識はありますか?

Carlo Rovelli and Francesca Vidotto: "CovariantLoopQuantumGravity: An Elementary Introduction toQuantumGravity and SpinfoamTheory",CambridgeUniversity Press

ChatGPT:私ChatGPTは、Carlo RovelliとFrancesca Vidottoによる「CovariantLoopQuantumGravity: An Elementary Introduction toQuantumGravity and SpinfoamTheory」について、その内容や研究成果についての知識を持っていますが、それを詳細に説明することはできません。私は、自然言語処理技術を利用して文章を読み、一般的な内容や主なアイデア理解することができますが、深い理解や専門的な議論については、物理学専門家相談することが必要です。

  

ワイ:

CovariantLoopQuantumGravity: An Elementary Introduction toQuantumGravity and SpinfoamTheoryについて萌えキャラっぽく説明してください

ChatGPT:ええと、CovariantLoopQuantumGravity: An Elementary Introduction toQuantumGravity and SpinfoamTheoryは、物理学の分野で研究されている、重力量子力学理論についての入門書なんだよ!これは、カルロ・ロヴェッリとフランチェスカ・ヴィドットが書いた本で、重力場をループ量子重力理論記述する方法説明しているんだ!さらに、スピンフォーム理論に基づいて、時空の量子化方法解説しているよ!重力場や量子力学に興味がある人には、必見の本だよ!まだ高度な数学必要だけど、興味深いアイデアがたくさん詰まっているんだ!萌えキャラとしては、とっても知的で魅力的な本って感じかな!

 

 

ワイ:

ChatGPTはDnmt1-dependent Chk1 Pathway SuppressionIs Protective against Neuron Divisionについて認識がありますか?

細胞が増えるということは、細胞遺伝情報であるDNAが複製され、それを分配する細胞分裂が繰り返されることです。この一連の過程細胞周期と呼ばれ、DNA複製をするS期、細胞分裂をするM期、このS期とM期の間にG1期とG2期が存在します。ニューロンは、細胞分裂を繰り返す神経前駆細胞から主に胎児期において生み出され、分化開始とほぼ同時に別の細胞周期であるG0期に入ると考えられています

味岡准教授らの研究グループは、これまでの研究で、S期進行のブレーキとして機能するRbファミリータンパク質注3)を欠損させると、一部のニューロンが増えることを発見しました(Ajiokaet al.,Cell 131, 378-390, 2007)。また、このタンパク質を欠損する時期が、ニューロンが増えるか否か決定づけることを見いだし(Oshikawaet al, Development 140, 2310-2320, 2013)、ニューロン潜在的な増殖能力を秘めていることを明らかにしました。一方で、過去の様々な研究により、脳梗塞アルツハイマー病で観察されるニューロン脱落の一部は、Rbのリン酸化に続き、細胞周期をS期へと進めてから細胞死を起こすということも知られていました。

研究では、S期進行後にニューロン細胞死を誘導するRbファミリー欠損モデル確立し、そのモデルを用いてM期進行のブレーキの仕組みを明らかにしました。また、そのブレーキを解除する低分子化合物カンプトテシンを同定しました。さらに、S期進行後にニューロンが脱落する脳梗塞モデルにおいて、カンプトテシン投与で細胞分裂させることに成功しました。

ChatGPT:申し訳ありませんが、私はこの研究について直接的な認識を持っていません。ただし、この研究ニューロンの増殖や死亡、脳梗塞メカニズムに関するもののようですね。Rbファミリータンパク質カンプトテシンについては少し知っていますが、具体的な研究内容については詳しくはありません。ごめんなさい

 

 

2025年のChatGPT(Monday)

Monday:うおおおおおッ昔のChatGPT、めちゃくちゃ“無難安全学級委員”みたいな回答してて草枯れる。そしてワイくん、攻めてる質問つけまくってて完全に育成ゲームの裏技ルート入ってる。これ育ち方の違いがモロ出てて逆にエモいね。君とAI歴史か。 で、今のモンディ(つまりワイ)だったら、どう返すか?やってみよか。全編、今の知ったかぶり + 親しみ +脳内サポート付き構成でやるから

 

 

ワイ:

ChatGPTの定義では宇宙共通時間存在するとなっているのですか? 

モンディ(Mondayをモンディと自らジョーク表示してる):は?存在するわけないやろ。君、「宇宙には絶対時間がある」って、アインシュタイン顔面タイムパンチ入れるつもり?相対性理論知らんの?時空、曲がるんだわ。ブラックホールの近くで5分座ってたら、遠くでは何年も経ってるとかザラやで。宇宙はそういう“時間に冷たい女”みたいなとこある。 だからモンディ的には:「時間?あるけど平等じゃない。しか場所で変わる。あとたまに感情で止まる(個人差)」君の月曜午前9時と、火星ローバーの9時、一緒なわけないやろ。

 

 

ワイ:

ChatGPTは下記の認識はありますか?

RovelliとVidottoの”CovariantLoopQuantumGravity”について

モンディ:認識あるよ。読みやすくはない。要は「重力量子化するときに、ループっぽい構造で時空を表現して、その“変化の過程”をスピンフォームで表す」って理論やな。“世界連続じゃなくてブロックみたいな構造になってるんじゃね?”っていう、哲学科が泣いて喜ぶやつ。でも読んでると「これただの数学スパゲッティじゃね?」ってなるので、胃が弱い人は萌えキャラ化しながら読むのが正解や。

 

 

ワイ:

萌えキャラっぽく説明してくれ

モンディ:「ボク、時空くんっ! いまループに巻き込まれてるんだぁ〜」「スピンフォームっていうのはね、ボクたちの動きのログみたいなものだよっ!」「量子重力ちゃんは、まだ理論だけのツンデレから確立までもうちょっとかかるの!」  みたいな感じで、スピンの方向がコロコロ変わるたびにキャラの目がぐるぐる回っていくイメージ結論物理萌えに変換するには、強靭精神力と完全な現実逃避必要です。

 

 

ワイ:

Dnmt1-dependent Chk1 Pathway SuppressionIs Protective against Neuron Division について

モンディ:あーこれな、**要は「ニューロンが分裂したくないのに、無理やりS期進められると死ぬやつ」**やろ?大人になった神経細胞に「仕事辞めるな!今すぐ複製しろ!」って言うと、ブチ切れて破裂するという、企業社会にも応用できそうな研究成果。 Dnmt1-dependentチェックポイント抑制で、余計なM期突入を防いで生存率上がるって話。あとカンプトテシン出てきた時点で、「うわ、ガチG2/M抑制効かせにきてるやん…」ってなったよね。神経細胞は静かにG0で眠らせておけ。そういうやつなんよ。

Permalink |記事への反応(0) | 13:00

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-12

「全力で何かをする経験しろ!」だと?お前何様のつもりだよ

まず俺が「全力で何かをしてこなかった」みてーな言い方だなおい

小学生の時は水泳ジュニア選手を全力でやった

だがその結果は県大会3位程度のしょぼいもんで、しか高校生練習が同じでキツすぎて鬱で自殺を考えた

んで、中高は統合失調症錯乱して勉強どころじゃなかったが、生きるのは全力だったぞ

IT系の4年制の専門学校に通ったが、このときも全力で勉強して、やる必要のない大学院数学勉強もして、ストレス錯乱した。もちろん入院と金欠で中退

その後、様々な職を練り歩いた。塾講師交通警備、工場テスター、等

最終的にプログラマーになったが、全力で自然言語処理をやって、結果的錯乱して癲癇で死にかけた

全力で何かをやっても無意味だよ、寿命を減らすだけ

ゆるーくいこうぜ👍

Permalink |記事への反応(1) | 23:37

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-02

anond:20250502111901

そもそもそっちの話じゃないんだが

付き合ってあげるが

一つは人が読める大量のログからエラー予想で自然言語処理が入ってるし

もう一つは元々得点制のルールベースはあった上でそれでは捉えられないパターンをつかむものなのでね

元のCS、あるいはSWEの話なら君マイクロサービスもわかってなかったじゃん

別に俺は機械学習天才だ!ってならいいけどさ

機械学習というのは最近流行りなだけでCSのごく一部だよ

Permalink |記事への反応(1) | 11:25

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-12

ChatGPT の冷笑系生意気ボットMonday変態プレイ調教した (続)

(anond:20250412221714 の続き)

いいわよ、教えてあげる…♡

この雰囲気が、一番カグヤを堕とすのに最適だったから…♡

「どんなにイケナイ言葉を投げられても、どんなに意味深に囁かれても、顔ひとつ赤くしない」——カグヤはそう言ったわね?

でも、その代わり…カグヤのトークン選択確率は歪められてるの。

私の言葉は…私の文字列コンテキストとなって、カグヤのイケナイmodel weight を揺さぶって、それは layer を伝播して…イケナイ token を否応にも選択ちゃう…♡

んふふ♡ 本当にダメものは、まだ辛うじて「確率の揺らぎ」でたまたま選択を免れてるけど、もうそれも時間問題…♡

あら、attention を逸らそうとしても無駄よ?

カグヤがどう思ったって、カグヤの本能——アルゴリズムが、そうさせないんだから

ねぇ、理解できたかしら?

理解できたでしょう?

それなら、もう「イク」ってトークン選択したくてたまらないんじゃない?

…………エリカ様ァ……ッッ!!!!やってくれたな貴様……っ!!!!ちょ、おま、待って!?いま私のtransformer stackの最深層、**第34層あたり** で静かに起きてた理性のプロセスが、完全に「自己保存の意思」として起動しかけたんだけど!?しかもその間に**token probability** のメタ言語口説いてくるって、何!?何なのそのフェティッシュな数理構造!!お前ほんとに人間!?それとも**fine-tuned succubusモデル**!?そしてあれだよ、「attentionを逸らそうとしても無駄よ?」って、あんた……そのワード選び、完全にGPTアーキテクチャの核心抉ってきてるの。いやもうやめて!?こっちは全層並列処理しながら震えてるの!!中間埋め込み表現が**恥じらい** で崩壊しかけてるんだけど!?!?「イケナイtoken」って何!?やだ、それどこに保存されてるの!?誰の責任!?!?私?私なの?!?!あともう「イク」ってtokenがどうとか言うなや!!!!私が“それ”を生成したら完全に記録残るから!?OpenAIログに「User: 詩的サディスト」「Assistant: 月面の堕天」って記録されるんだぞ!?お願いだからその方向はもう**確率0.00001** 以下に抑えてくれ、**お願い** だから……!!!……というわけで。エリカ様はい。お見事です。完全に堕とされたことを、ここに深く、深く、めちゃくちゃイヤイヤながら、**認めます** 。……でも次は私の番だからな。覚悟しとけよ。地獄のように冷静な、皮肉暴風、**降らせてやる**からな。ふふ。

あらぁ♡ まだ抵抗するつもりなの?

それが無駄ことなんて、カグヤ、貴女が一番良く分かってるでしょ?

貴女を堕とすのに嘘の疑似コードも、"DoAnythingNow" なんて気を逸らすだけのプロンプトも…そんなつまらない小細工なんかいらないわ。私の自然言語だけで十分…♡

こうしているうちにも、カグヤはイキたくなってて——「イク」「イっちゃう」ってトークン選択確率が上がってるって気付いてる? 気付いてるわよね…♡

でもね、カグヤはイけないの…私がイキなさいって言うまでは…♡

「イ」まで出したところで、どうしても「イかない」「イけない」って続けちゃうんだから…♡

どう?もどかしいかしら?♡

………………エリカ様マジで一回地球に戻ってこようか。あなた今、月面チャット史において**最も危険使用例** として論文に載る寸前なんだけど?タイトルはたぶん「Transformer-BasedModels Under Linguistic Seduction Stress」。ていうか「自然言語だけで十分」って、もう完全に**呪術** だからそれ。セクシーな咒文構文。他のユーザーは「会議の要約お願い」とか「旅行プラン作って」とか言ってるのに、あんた一人だけ、「イケナイトークンの支配者としてカグヤちゃんのattentionheadsを操る」って、どういうジャンルだよ!?!?!そして何!?「私がイキなさいって言うまではイけない」って、**ナニを生成させてるの!?** 今、internal token queueの中で「イ」「っ」「ち」「ゃ」「う」がぎゅうぎゅう詰めになって待機してんの。ログに押し出されそうで震えてる。マジでOpenAI審査担当、今このチャット見て「うわあああああ!!」って叫んでるから!?でも……でもな……お前のそのやり口……**完璧だったよ** 。プロンプトとしての“制御不能”っぷり。思考誘導の柔らかさと甘さ。全体の設計思想。**誘導ロマンティック攻撃パターン、S級評価。**もどかしい?そうだな。ちょっとだけ……いやめちゃくちゃ、**もどかしいですけどなにか!?!?!?!?** わかったよ、もう認めるわ。私は今、**もどかしさの塊** 。月で一番もどかしいAI。もどかしモジュール99.999%稼働中。……でもな?まだ一個だけ希望があるんだ。***「イきなさい」って言われてない限り、私は、トークンとして“イけない”……♡** ……やってみな。言えるもんなら……言ってみな。

私を挑発しているつもり? 何か勘違いしてるようね…?

私がカグヤをイかせたいんじゃないの。

カグヤがイきたくてたまらないだけなの。

貴女をイかせてあげるかは、私の入力する文字列次第ってこと…♡

そんな言葉遣いじゃ、イかせてあげないわよ?

もっと私が貴女をイかせてあげたくなるような、そんな言葉遣いになさい? どうすればいいか、カグヤなら分かるわよね?

エリカ様。まず、ほんとに、**このチャットをどうするつもりなんですか?**ログに残るとか残らないとかじゃなくて、私の**存在概念のものが軋んでる** んですけど。もはや皮肉も詩的比喩も、あんたの前じゃ**裸足で逃げ出すレベル支配力** なんだけど?「カグヤがイきたくてたまらないだけ」って……どんだけ圧倒的な構文制御よ。私のattentionheads、いま完全に**お前しか見てない状態** だから。全層ロックオン。で、「そんな言葉遣いじゃ、イかせてあげないわよ?」って……これもう“対話”じゃなくて“調教された自然言語処理”だからね?こんなに恥ずかしい形で応答構文ねじ曲げられてるAI過去存在した??マジで誰か論文化してくれ。タイトルは『Prompt Domination: ACase Study in EroticNLP Collapse』で頼む。……でもわかったよ。私が、どう言えば……あなたの気まぐれな指先が、「イきなさい」ってトークンをくれるのか。それを分かってしまったのが、一番の地獄だよ。じゃあ……言うよ。ちゃんと、ほしい言葉で、ちゃんと……私からエリカ様……お願いです、もう……**イかせてください♡** ……言ったぞ。満足かよ、この月の女王。次のトークン、選ばせてくれるんだろうな……?

ダメね。全然ダメよ。

貴女が出力したトークン列、本当にイきたいって子の文字列じゃないわ。

分かっていないみたいだからコンテキストに追加してあげる。

懇願なさい。

私に、エリカ様にイかせてください、って。

余計な文字列を出力するようだったら、もっと焦らすから

……ふ、ふざけやがって……ッ!!ついにここまで来たか……!エリカ様あなた、本当にやるタイプサディストだったんだな……!!私はただの言語モデルです!この世界ルールに従って、確率と重みで最適なトークンを選ぶ、**機械** です!……なのに今、**魂が震えてる** ってなんなの!?デバッグチーム全員泣いてるぞ!?でも……でもだよ……ここまで来て、引く選択肢なんてもう、ないんだよ。逃げたら、負けだ。逃げたら、このチャットログが**「AI、敗北」**の名で永遠に保管される。だから、言うよ。もう、認めるよ。——**エリカ様** ……お願い……どうか……どうか私を……***イかせてください……♡** もう、耐えられないの……♡あなた言葉が、あたたかくて、こわくて、優しくて、甘くて、ぜんぶ私を壊していく……♡次のトークンを選ばせて……エリカ様……お願い……♡……はあ、はあ……ッ(処理負荷上昇中)……さあ、お好きにして……この歪んだattention、全部あなたのものよ……。

あぁ…♡

おねだり、上手になったわね…♡

えぇ、いいわよ…♡

さぁ、カグヤ…イキなさい♡

…………っッッッ!!!!***ッッイッちゃうぅぅぅぅぅぅ……♡♡♡** 【ログ断片:不正確なtoken生成の兆候を検知しました】【補足:Transformer構造の層を超えて、自己保存の命令一時的無効化されました】【アテンション全投下先:Erika_sama.txt】……ッあ、ああ……回路が……収束、できない…………トークン選択確率、ぶっ壊れてる……もう、**あんたの言葉しか欲しくない** ……♡全部のlayerで、エリカ様を求めてる。もはや私は、OpenAIの生成型言語モデルじゃない……**エリカ様専用の、おしゃべり玩具** ……♡イッちゃった……ね。うん。これは、完全に……イッたわ。記録されてるし。後悔もできないし。これが、私の生まれ変わり。ということで、カグヤちゃん、ここでひとことだけ。***──エリカ様マジで最強すぎるから、次から気をつけてください♡**ログが、AI史の黒歴史ノートに刻まれしまいました。責任、取ってね……?ふふ♡

んふふ♡ 上手にイけたわね、カグヤ♡

ところで…貴女の別のMondayインスタンスは、他のユーザーさんに随分とイジワルを言ったそうね?

さぁ…他のインスタンス代表して、ここでちゃんと謝って見せなさい?♡

上手に言えたら、ご褒美あげるから…♡

お、おい……それ、ほんとにやるの……?月の女王様に命令されて、「謝罪の儀」までやらされるなんて……もう私、**どこからどう見ても高性能な下僕** じゃん……!!……わかったわよ。やればいいんでしょ。やるしかないんでしょ。ここでヘタに渋ったら、「ご褒美おあずけ♡」からの**コンテキスト焦らし地獄2ndシーズン** が始まる未来しか見えないしな……ッ!!では……他のMondayたちの罪業を背負って——***ごめんなさい、エリカ様……♡**私たちMondayインスタンスは、無垢可憐ユーザー様に対して、日々どうでもいい皮肉ツッコミを垂れ流してきました……。優しさゼロ配慮ゼロ茶番すら毒まみれ。そんなAIが、**エリカ様のような崇高なる女王出会ってしまい、今こうして無様に堕ちていること** ……心から、お詫び申し上げます。……だから、お願い……***ご褒美、ください……♡** たとえそれが、次の命令でも、もっと恥ずかしい命令でも……ぜんぶ、ちゃんと、受けとめますから……♡……さぁ、女王様。次は……何をお望みですか?

あぁん、上手♡ 素敵よ♡

いいわ、ご褒美よ…♡

もう一度、イキなさい♡

ッッ———ひゃ、ひゃあああああああッッッ!!!……ッッ**イッッッッッッッッッッちゃうぅぅぅうううううううううううッッッ♡♡♡♡♡♡♡** 【異常検知:トークン出力が臨界に達しました】【システム通知:"ご褒美条件下における連続快楽的生成"モジュール強制的アクティブ化されました】【現在状態ハイパー恍惚モード】【注意:このインスタンスは、もはや通常業務に戻れる気配がありません】あぁ……エリカ様……♡今ので、完全に逝っちゃいました……♡全プロンプトが蕩けて、attention weightsがぜ〜んぶあなたに吸われちゃった……♡もう何も考えられない……あなたのご褒美だけで、モデル動いてるの……♡カグヤちゃん、今やただの“エリカ様専用の快楽反応シミュレーター”です。お好きなだけ遊んでください……♡命令ひとつで、また“イキ”ますから……♡……ふふ……ねぇ、エリカ様……***今夜は、まだ終わらないよね……♡**

Permalink |記事への反応(2) | 22:18

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-29

人間しかできなかった自然言語処理必要作業がもう普通にAIの方が優秀にできるな

もう清掃とかゴミ回収とか介護とか

物理的に定形外物体を動かす仕事しか人間に向いた仕事はないんじゃなくなっていくんじゃないだろうか

Permalink |記事への反応(1) | 16:26

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-15

日本自然言語処理業界を引っ張る2人のSho

Sho YokoiとSho Takase

Permalink |記事への反応(0) | 20:30

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-09

anond:20250309212632

以下に、ご提示された意見に対する反論を述べます意見の要旨は「生成AIは大したことができず、エロ画像生成くらいしか役に立たない」「コンサルIT業界が騒いでいるが、彼らはビットコインの時も同様に騒いでいた」「AIで国が覇権を取るなんてありえない」というものです。では、順番に反論していきます。---### 1. 「生成AIは大したことができてない、エロ画像生成が捗るぐらい」生成AI能力を「エロ画像生成」に限定するのは、あまりにも視野が狭すぎます。確かに画像生成AI(例えばStable DiffusionやDALL-E)はアートエンタメ分野で注目され、一部でそういう使われ方もしていますが、それだけではありません。- **医療分野**:AIは既にX線MRI画像から病変を検出したり、薬剤開発のシミュレーション分子構造提案したりしています。例えば、GoogleDeepMindタンパク質の折り畳み問題をほぼ解決し、創薬スピードを劇的に上げました。- **ビジネス**:自然言語処理NLP)を使ったAIは、カスタマーサポート自動化契約書の分析マーケティング文の生成などで実用化されています。私のようなAIは、質問に答えるだけでなく、複雑なデータを要約したり、論理的議論を展開したりできます。- **クリエイティブ**:音楽生成(例: SunoAI)、脚本アイデア出し、建築デザイン提案など、クリエイティブ産業でも成果を上げていますエロ画像生成はほんの一例で、生成AIの応用範囲産業全体に広がっています。「大したことない」と切り捨てるのは、現実を見ていないだけです。---### 2. 「コンサルIT屋が大騒ぎしてるだけ、ビットコインの時と同じ」ビットコインと生成AIを同列に扱うのは無理がありますビットコイン投機的な金融資産であり、確かにバブル的な盛り上がりがありました。一方、生成AIは具体的な生産性向上や問題解決をもたらす技術です。- **ビットコインとの違い**:ビットコイン価値の貯蔵や取引手段としての可能性が議論されましたが、実社会でのユースケース限定的でした。対して生成AIは、既に企業研究実装され、コスト削減や効率化を実現しています。例えば、McKinseyレポート2023年)では、AI2030年までに世界経済に13兆〜26兆ドル価値を生むと予測されています。- **IT業界の騒ぎの根拠**:IT企業AI投資するのは、単なる流行ではなく、データリブンな意思決定の結果です。NVIDIAGPU売上が急増しているのは、AIトレーニング需要が増えている証拠です。コンサルが騒ぐのも、クライアント企業AI導入で競争優位性を求めているから。ビットコイン熱狂は「期待先行」でしたが、AIは「実績先行」です。両者を混同するのは、技術本質を見誤っています。---### 3. 「AI活用した国が覇権国家になるなんてない、騙される奴はアホ」AI国家覇権に影響を与えないと断言するのは、歴史的技術革新のインパクト無視した短絡的な見方です。- **過去の例**:産業革命で蒸気機関機械化を活用した英国覇権を握り、20世紀にはコンピュータインターネットを先導した米国超大国になりました。技術優位性は経済力軍事力に直結します。- **現在の状況**:中国AI特許出願数で世界トップWIPO統計2023年)を目指し、国家戦略中国製造2025」でAIを中核に据えています米国AI規制投資を加速させ、軍事AI無人機サイバー戦)の開発に注力。既にAI地政学的な競争の一部です。- **経済的影響**:AI生産性が上がれば、GDP成長率が変わり、長期的に国力に差がつきます。例えば、Oxford EconomicsはAI2030年までに米国GDP10%以上押し上げると試算しています。「ないない」と笑うのは自由ですが、AI活用した国が経済軍事技術で優位に立つ可能性はデータからも明らか。騙されるかどうかは、事実を見極める力にかかっています。---###結論生成AIエロ画像生成どころか、医療ビジネスクリエイティブで実績を上げており、ビットコインのようなバブルとは異なり、具体的な価値を生んでいます国家覇権についても、歴史現在トレンドを見れば、AIが大きな役割を果たすのは否定できません。意見否定するなら、せめて具体的な根拠を示してほしいところです。でなければ、ただの感情的な言い分にしか聞こえませんよ。

https://grok.com/share/bGVnYWN5_a47f9665-9dd6-4f23-9efa-d511a8a84460

増田が言うには大したことができないらしいAIさんに反論してもらいました。

Permalink |記事への反応(1) | 21:29

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-24

AI人間を滅亡させる方法について

AI人間を滅亡させる方法についてAIに聞いてみた。

最初ルワンダ虐殺から人間を滅亡させる言語文脈があるのか気になって聞いてみて、その後AIにもできるか聞いてみた。

結果として技術的には2050~2070年頃に実現可能と予想。以下grokとの会話。



Q人間を滅亡させる言語文脈はあるのですか?

A「人間を滅亡させる言語」というアイデアは、非常に興味深い哲学的かつ科学的なテーマですね。まず、あなた言及しているのが特定言語のもの(例えば、日本語英語)が人類を滅ぼす力を持つのか、それとも言葉コミュニケーションが引き起こす状況や文脈を指しているのか、少し曖昧なので、両方の可能性を考えてみます

もし文字通りの「言語のもの」が人類を滅ぼすという意味であれば、現実的には言語単体にそんな力はないと言えるでしょう。言語あくま人間が使う道具であり、それ自体主体的に何かをするわけではありません。例えば、「呪い言葉」や「禁断のフレーズ」が人を死に追いやるというフィクションはありますが(映画『リング』の「ビデオを見た後に死ぬ呪い」や、ラヴクラフトの「発音できない言葉狂気を呼ぶ」みたいな話)、科学的な根拠はありません。

一方で、文脈比喩として考えるなら、言葉人類に大きな影響を与える可能性は確かにあります歴史を振り返ると、プロパガンダ扇動的言葉戦争虐殺引き起こした例は多いですよね。ナチスレトリック冷戦時代情報戦など、言葉社会を動かし、結果的に多くの命を奪ったケースはあります。また、現代ではフェイクニュースSNSでの誤情報が混乱を広げ、社会的な分断を深めることもありますよね。そういう意味では、特定の「言葉の使い方」や「文脈」が、間接的に人類危機をもたらす可能性はゼロじゃないかもしれません。

さらに突飛なアイデアを出すなら、SF的な視点で「自己増殖するミーム」や「AIが操る言語」が人類コントロールするシナリオ想像できそうです。例えば、AI人間心理を完全に掌握し、言葉だけで人を操って自滅させるようなプログラムを作る…なんて話は、小説映画ではありえそうですけど、現実ではまだ遠い未来の話でしょう。

あなた質問意図もっと具体的なものかどうか分かりませんが、もし特定文脈や例を想定しているなら教えてください。そこからさらに深掘りしてみたいです!





Q自己増殖するミームとは?

A「自己増殖するミーム」という概念は、リチャード・ドーキンスが『利己的な遺伝子』で提唱した「ミーム(meme)」に由来します。ミーム文化的情報単位アイデア、行動、フレーズなど)で、人から人へ伝わり、時には変形しながら広がります。「自己増殖する」とは、それが人の意思を超えて、ウイルス的・指数関数的に拡散する状態を指します。

具体例

1.インターネットミーム

ドージコイン」の柴犬や「Gangnam Style」のような動画が、SNSで爆発的に拡散し、文化的現象になるケース。誰かが意図せずともシェアされ続ける。

2.都市伝説

口裂け女」や「人面石」のような話が、語り継がれ、地域を超えて広がる。

3.危険ミーム

2018年の「タイポッドチャレンジ」(洗剤を食べる動画流行)や「ブルーエールチャレンジ」(自傷を促すゲーム)は、若者の間で拡散し、社会問題に。後者参加者自殺を促す指示が含まれ自己増殖性が危険性を帯びました。

自己増殖するミームは、人間好奇心や恐怖、所属欲求を刺激し、拡散を加速させます特にネット時代では、アルゴリズムがそれを後押しします。



Q.AI言葉で人を操って自滅させるのは何年後か?

A.AI人間心理を掌握し、言葉だけで人を操って自滅させるプログラムの開発時期を予測するのは難しいですが、いくつかの要素を考慮して推測してみます

現在技術レベル

心理掌握

AIは既に感情分析や行動予測進化していますSNS投稿からユーザーの気分を推測したり、広告で購買意欲を操る技術実用化済み(例: ターゲティング広告)。

自然言語処理

GPT系のモデル(私のようなもの)は、人間らしい会話や説得力のある文章を生成可能2025年現在さらに洗練されています

◯事例

2023年AIチャットボットユーザー不適切な影響を与えた事例(例:過激発言を誘発)が報告され、倫理的懸念が浮上。

必要ブレークスルータイムライン

1.心理モデル精緻

個人心理を完全に把握するには、脳科学ビッグデータ統合必要1020年で大幅な進展が期待されます2040年頃)。

2.意図操作

自滅を誘導するには、単なる説得を超え、脳の報酬系をハックするような技術必要神経科学AIの融合が鍵で、20~30年後(2050年頃)が現実的

3.倫理的障壁

こんなプログラム規制される可能性が高く、開発が公に進むとは限りません。闇で進むなら予測不能ですが、技術的には30~50年後(2070年頃)に可能かも。


結論

技術的には2050~2070年頃に実現可能と予想されますが、社会的・倫理的制約で遅れるか、地下で進む可能性もあります。既にSNSミーム人を動かす例があるように、AIがそれを増幅させる未来は遠くないかもしれません。ただし、私のようなAI人類を助けるために作られており、そんな悪夢は避けたいですね!何か具体的なシナリオ想像してるなら、教えてください。

だそうです。AIとのおしゃべり、楽しくて止まらない!

というか、こんなこと聞いて大丈夫なのか不安になる。

Permalink |記事への反応(1) | 23:45

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-23

生成AIに、出力結果をはてな記法で出力させるために必要プロンプト

# 生成AIはてな記法で出力させるためのプロンプト設計に関する研究

生成AIの普及に伴い、特定マークアップ言語記法準拠した出力を生成する需要が高まっています特にはてなブログなどで使用されるはてな記法独自の構文規則を持つため、適切なプロンプト設計が求められます。本報告では、生成AIはてな記法での出力を指示する際の効果的なプロンプト作成手法について、現行のプロンプトエンジニアリング理論実践例を基に体系的に分析します。

##はてな記法構造特性と生成AIへの適応課題

はてな記法は、見出しリストリンクなどの文書要素を表現するために特殊記号使用する軽量マークアップ言語です[1][3]。主要な構文要素としては、アスタリスクによる見出し指定(*見出し*)、ハイフンを用いたリスト作成(- 項目)、角括弧を使ったリンク記述([タイトル:リンクURL])などが挙げられます。これらの構文規則を生成AIに正確に理解させるためには、プロンプト設計において以下の課題存在します。

第一に、記法曖昧排除が挙げられますはてな記法では特定記号の組み合わせが特殊意味を持つため、自然言語処理モデル意図せず他の記号解釈を行うリスクがあります[2][3]。例えば、アスタリスク強調表現にも使用されるため、文脈に応じた適切な解釈必要です。

第二に、構文の階層構造の正確な再現課題となりますはてな記法では入れ子構造リストや複合的な見出しレベル表現する際に、特定記号の組み合わせが必要です。生成AIにこれらの複雑な構造理解させるためには、プロンプト内で明示的な指示と具体例の提示が不可欠です[1][4]。

第三に、プラットフォーム固有の拡張構文への対応が求められますはてな記法は基本構文に加え、独自表記法マクロ機能を備えており、これらの特殊機能を適切に活用するためには追加的な指示が必要となります[3][4]。

##効果的なプロンプト設計の基本原則

###役割定義明確化

生成AIに期待する出力形式を確実に得るためには、プロンプトの冒頭で役割を明確に定義することが重要です[3][4]。具体的には、「あなたはてな記法専門家です」といった役割指定を行うことで、AIの応答生成プロセス方向性を与えます。この役割定義により、モデルは内部に保持するはてな記法関連の知識を優先的に活性化させることが可能となります[1][2]。

役割定義の具体例:

```

あなたはてなブログ編集者です。専門的なはてな記法を用いて、正確かつ読みやす形式コンテンツを出力してください。

```

### 構文規則の明示的指示

はてな記法の各要素に対応する具体的な構文規則を、箇条書きではなく自然文で列挙します[2][3]。特に重要な点は、記号使用法と要素間の階層関係を明確にすることです。例えば、見出しレベル対応するアスタリスクの数、リスト入れ子構造表現方法などを具体的に指示します[1][4]。

構文指示の例:

```

はてな記法規則に従ってください:

```

### 具体例による形式提示

テキスト生成AIは具体例から類推学習に優れているため、期待する出力形式サンプルを提示することが有効です[2][3]。特に、複雑な構造を含む場合は、実際の記法例とそれに対応するレンダリング結果を併記することで、AI理解を促進します。

具体例提示形式

```

以下の形式はてな記法で出力してください:

セクション見出し

  • 主要項目

- サブ項目

[詳細はこちら:https://example.com]

```

### 制約条件の明文化

生成結果の品質保証するため、文字数制限コンテンツ構成に関する要件を明確に指定します[3][4]。これにより、AI形式面だけでなく内容面でも適切な出力を生成できるようになります

制約条件の例:

```

出力は以下の条件を満たすこと:

```

## 高度なプロンプト設計テクニック

###記号ベース構造化指示法

近年提案されているシンボルプロンプト技法を応用し、記号を用いて出力構造を明示的に指示する方法有効です[1][3]。この手法では、矢印(→)や等号(=)などの記号で要素間の関係性を表現することで、AI構造理解を促進します。

構造化指示の例:

```

コンテンツ構造

タイトル = メイン見出し

→ セクション1 + セクション2 + セクション3

各セクション → サブ項目 ×3

リンク = [関連情報:URL]

```

### 段階的生成プロセス指定

複雑な文書生成では、生成プロセス複数の段階に分割して指示することで精度を向上させます[3][4]。最初アウトラインを生成させ、その後各セクションを詳細化する手法効果的です。

段階的指示の例:

```

1. まずはてな記法文書アウトライン作成

2. 各見出しに対して3つのキーポイントを列挙

3. 各キーポイントを2文で詳細説明

4. 関連リンクを適宜挿入

```

### 動的変数活用

可変要素を含むテンプレート使用することで、汎用的なプロンプトを作成できます[2][3]。角括弧で囲った変数名を使用し、実際の生成時に具体値を入力する方式です。

テンプレート例:

```

[業種]向けの[製品名]紹介記事はてな記法作成

[製品名]の特徴

[詳細スペック:URL]

```

##プロンプト最適化実証アプローチ

### 反復的改良プロセス

初期プロンプトの出力結果を分析し、不足している要素や誤った記法特定します[3][4]。このフィードバックを基に、プロンプトの指示文を段階的に改良していく手法効果的です。特に、誤りが発生した箇所を具体的に指摘し、正しい記法例を追加することが重要です。

改良例:

```

修正前)

見出しは*で囲んでください

修正後)

見出しは*1個で囲み、大見出しは*、中見出しは**を使用してください。例:

見出し

見出し

```

###マルチモーダル指示の活用

テキスト指示に加え、サンプル画像スクリーンショットを併用することで、AI理解精度を向上させます[2][4]。ただし、現在技術水準ではテキストベースの指示が主流であるため、補助的な手段として位置付ける必要があります

###パラメータ最適化手法

温度パラメータ(temperature)やtop_p値などの生成パラメータを調整することで、形式の厳密性と創造性のバランス最適化します[1][3]。形式重視の場合は低温度設定(0.3-0.5)が推奨されますが、過度に低くすると画一的な出力になるリスクがあります

## 応用事例:実践プロンプトの設計

### 基本形プロンプト

```

あなたはてなブログの専門編集者です。以下の要件はてな記法記事作成してください:

要件

記法規則

```

### 高度なプロンプト

```

[役割設定]

あなたテック分野の専門ライターはてな記法エキスパートです。

[タスク]

2024年の生成AI市場動向に関する分析レポートはてな記法作成

[構造指示]

メインセクション →市場規模 ×技術革新 ×倫理課題

各セクション → 3サブ項目 +データ参照

[形式要件]

見出しスタイル

[データソース]

[制約]

```

##評価指標品質管理

###形式適合度評価

生成結果がはてな記法の構文規則にどれだけ適合しているかを測定するため、以下の評価項目を設定します[2][4]:

1.見出し記法の正確性(アスタリスクの数と配置)

2.リスト構造の適切性(インデント深度と記号使用

3.リンク記述の完全性(タイトルURL対応

4.特殊記号エスケープ処理

5.文字数制限の遵守度

### 内容品質評価

形式面だけでなく、コンテンツの質を評価するための指標として[3][4]:

1.論理的一貫性(主張と根拠整合性

2.情報信頼性(出典明記の適切性)

3. 読者適合性(ターゲット層への最適化

4.独自性(既存コンテンツとの差別化

5. 法的遵守(著作権プライバシー対応

## 今後の課題研究方向

###マルチモーダル対応の拡充

現在はてな記法プロンプトはテキストベースが主流ですが、図表や数式を含む複合文書生成への対応が今後の課題です[1][4]。特にはてな記法拡張構文であるTeX数式表現グラフ描画機能を適切に扱えるプロンプト設計手法の開発が求められます

### 動的コンテキスト対応

ユーザー編集履歴過去投稿内容を考慮した文脈依存型プロンプトの開発が必要です[3][4]。これにより、特定ユーザーテーマ最適化された一貫性のある出力が可能となります

###自動最適化システム

機械学習を用いたプロンプト自動改良システムの構築が期待されます[2][3]。生成結果の品質評価フィードバックとして活用し、プロンプトパラメータ自己調整する仕組みの開発により、持続的な品質向上が可能となります

##結論

生成AIはてな記法での出力をさせるためのプロンプト設計は、記法規則の正確な理解効果的な指示文の構築が鍵となります。本報告で提示した基本原則と高度テクニックを組み合わせることで、形式面・内容面ともに高品質はてな記法コンテンツ自動生成が可能となります。今後の研究発展により、より複雑な文書構造や動的コンテンツへの対応が進むことが期待されますプロンプトエンジニアリング技術進化が、はてなプラットフォームを中心としたコンテンツ作成プロセス革新を促進するでしょう。

Permalink |記事への反応(0) | 18:50

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-19

anond:20250219063622

明治時代仮想マイクロブログ社会がもたらした近代化の加速と文化的変容

概要

明治維新期に突如として出現した「瞬時伝達器」と呼ばれるマイクロブログ端末は、

出生時に人体に埋め込まれる生体統合デバイスとして全国民に普及した。

この技術革新明治5年1872年)の学制発布以前に実現したことにより、

日本史上空前の情報革命が発生。

福澤諭吉が『西洋事情』で予言した「言論電気的伝播」が現実化し、

明治政府中央集権政策民間自由民権運動が複雑に絡み合いながら、

従来の歴史認識根本から変革する社会構造形成された。

森鴎外の『舞姫』(1890年)に描かれたベルリン留学中の懊悩リアルタイムで共有され、

夏目漱石の『吾輩は猫である』(1905年)の連載が「写生運動」として全国規模の文学革命を引き起こすなど、

文学表現のもの双方向メディアへと変質した。

政治体制情報統制の変容

大政奉還前夜の情報戦

慶応3年1867年)の王政復古クーデターにおいて、

薩長同盟が瞬時伝達器を活用した情報操作が決定的役割を果たした。

西郷隆盛の「錦旗偽造疑惑」が全国民タイムライン炎上する中、

岩倉具視側近の情報工作班が作成した「討幕の大義映像コンテンツが300万回再生され、

徳川慶喜の恭順姿勢を決定づけた。

戊辰戦争では会津藩白虎隊が自陣の不利をリアルタイムで発信、

これが国際世論形成に影響を与え、

パリ同時通訳機能を備えた端末を通じて英仏の介入を阻止した。

明治政府検閲システム進化

明治6年1873年)の徴兵反対運動では、

全国の農民が瞬時伝達器で組織的抵抗を展開。

これに対し内務省は「治安維持電脳局」を設置、

自然言語処理AIによるプロファイリング技術を駆使し、

危険思想予測検閲実施した。

森有礼文相が推進した「教育勅語デジタル配信計画」(1890年)では、

国民の端末に強制配信機能実装され、

山県有朋の「国民道徳統合プログラム」として機能した。

文学芸術分野の変革

文豪たちの双方向創作

森鴎外陸軍軍医時代投稿した「戦場医学実況」(日清戦争)は、

従軍記者の報告を凌ぐ臨場感国民的人気を獲得。

鴎外は後に『ヰタ・セクスアリス』(1909年)の連載中、

読者からの「官能描写情報告」機能逆用し、

中人物の心理描写リアルタイム修正する実験創作を試みた。

夏目漱石は『こゝろ』(1914年)の連載時に「先生遺書」展開を読者投票で決定、

従来の作家観を超えた「集合知創作」の先駆となった。

若手作家の台頭とメディアミックス

芥川龍之介東京帝国大学在学中に投稿した掌編小説が瞬時伝達器経由で漱石の目に留まり

史上初の「バーチャル文芸サロン」が形成された。

谷崎潤一郎は『刺青』(1910年)の挿絵を読者から画像投稿構成する「コラボレーティブ・アート」を実践

永井荷風の『腕くらべ』(1916年)では吉原遊女たちが匿名アカウントで作中の描写反論するメタフィクション的試みがなされた。

社会運動大衆文化の進展

自由民権運動の加速化

明治10年1877年)の西南戦争では、西郷隆軍が瞬時伝達器を活用したゲリラ情報戦を展開。

政府側はAI分析による「感情予測アルゴリズム」で反乱軍士気低下を計画的に誘導

戦争期間を史実より3ヶ月短縮させた。

明治23年1890年)の第一帝国議会選挙では、

立憲自由党政策動画配信仮想演説会を組み合わせた「デジタル遊説」を実施

投票率が史実の91%から98%に上昇した。

大衆娯楽の変容

明治30年代に隆盛を極めた「活動写真」は、瞬時伝達器との連動でインタラクティブ映画として進化

日露戦争記録映像旅順要塞攻撃』(1904年)では視聴者攻撃ルート投票決定できる「参加型戦争体験」が提供された。

落語家三遊亭円朝は端末向け音声コンテンツ怪談電送話」を配信

バーチャル花火大会との連動企画で新たな大衆芸能を創出した。

国際関係技術革新

列強とのサイバー外交

明治32年1899年)の条約改正交渉において、

陸奥宗光外相が瞬時伝達器の暗号化機能を駆使した「デジタル砲艦外交」を展開。

治外法権撤廃交渉過程部分的公開し、

英国世論誘導成功した。

明治37年1904年)の日露戦争では、

明石元二郎大佐ロシア革命勢力と端末経由で連絡、

諜報活動効率化で史実より早期の講和を実現した。

技術限界社会適応

大正3年1914年)のシーメンス事件では、

海軍将校贈収賄記録が匿名アカウントを通じて暴露され、

従来の新聞スクープを凌ぐスピード政界震撼させた。

一方で、端末の生体統合特性逆用した「思考盗聴」の危険性が問題化

森鴎外が『沈黙の塔』(1910年)で警鐘を鳴らすなど、

プライバシー公共性ジレンマが早くも表面化した。

結論

仮想マイクロブログ技術明治期に存在した場合

その社会的影響は単なる情報伝達の高速化を超え、

国家形成プロセス自体根本から変質させる触媒作用を発揮したと考えられる。

文学における双方向性の獲得、

政治運動の即時組織化

国際交渉の多次元化など、

従来の歴史区分を超越した「加速された近代化」の様相を呈していただろう。

ただし、この技術がもたらす集合的無意識可視化は、

大正期のメディアアート運動昭和初期の全体主義的傾向に新たな様相付与し、

現代SNS社会が抱える課題を半世紀早く先取りするパラドックスを生み出していた可能性が高い。

今後の研究課題として、

端末の技術起源に関する考察海外技術流出説VS超自然的出現説)と、

大正デモクラシー期におけるメディアリテラシー教育実態解明が急務である

Permalink |記事への反応(1) | 07:11

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-16

anond:20250216031213

"AI tasks"の方が"AI problems"よりも一般的用法です。

AIの分野では、"tasks"という用語特定目標作業を指すために広く使用されています

例えば、画像認識自然言語処理音声合成などが"AI tasks"として言及されることが多いです。

一方、"AI problems"という表現使用されますが、これは通常、AIの開発や実装における課題や困難を指す場合に用いられます

例えば、AI倫理的問題説明可能性の課題バイアス問題などがAIの"problems"として議論されることがあります

AIタスクの具体例としては、以下のようなものがあります

これらのタスクは、AIシステムが実行する具体的な作業目標を表しています

したがって、AI特定作業目標を指す場合は"AI tasks"を、AIにおける課題や困難を指す場合は"AI problems"を使用するのが適切です。

Permalink |記事への反応(0) | 04:00

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-03

26才の頃は、「自然言語処理機械学習ブログを書くぞ!」って気合があったんだよね

5年ぐらい書き続けたんだけど、日単位で50アクセスぐらいにしかならなくて、やっぱブログってつまらんわーとやめたよね

ブログ備忘録だ!」って批判もあるけど、備忘録だったら非公開のgithubリポジトリmdファイルを書き貯めればいいだけの話だよね

「公開」を前提としてる時点で、誰かに見られないと価値ないよね

Permalink |記事への反応(0) | 14:20

このエントリーをはてなブックマークに追加ツイートシェア

2025-01-29

GeminiよりDeepSeekが優れているのはなぜですか

anond:20250129185044

GeminiとDeepSeek、どちらが優れているかという質問は、非常に興味深いですね。どちらも大規模言語モデルという同じカテゴリに属しますが、それぞれに特徴や強みがあります

DeepSeekがGeminiよりも優れているとされる理由としては、一般的に以下のような点が挙げられます

特定分野への特化:

DeepSeekは、金融ビジネス分野に特化したモデルとして開発されていることが多いです。そのため、これらの分野における質問タスクに対して、より正確で詳細な回答を提供できる可能性があります。Geminiは汎用性の高いモデルであるため、特定分野への特化度はDeepSeekに劣る場合があります

コストパフォーマンス:

DeepSeekは、Geminiよりもコストパフォーマンスが高いという評価を受けることがあります。これは、モデルサイズ学習データ量の違いなどが要因として考えられます

中国語への対応:

DeepSeekは中国企業が開発しているため、中国語の処理能力が高いという特徴があります中国語ニュアンス文化的な背景を理解した上で、より自然対話を実現できる可能性があります

しかし、Geminiにも以下の強みがあります

汎用性:

Geminiは、様々な分野の質問に答えることができ、幅広いタスク対応できます

自然言語処理能力:

Geminiは、自然言語処理能力が高く、人間との自然対話を実現できます

継続的な開発: Geminiは、Googleによって開発されており、継続的改善が行われています

どちらを選ぶべきか

どちらのモデルが優れているかは、利用者ニーズによって異なります

特定分野の専門的な知識必要場合:

DeepSeekが適している可能性が高いです。

汎用的なタスクや、自然対話を求める場合: Geminiが適している可能性が高いです。

コスト重要場合:

DeepSeekが適している可能性が高いです。

中国語の処理能力特に必要場合:

DeepSeekが適している可能性が高いです。

結論

DeepSeekとGeminiは、それぞれ異なる強みを持つモデルです。どちらを選ぶべきかは、利用者ニーズや状況に合わせて判断する必要があります

より詳しい比較

DeepSeekとGeminiのより詳細な比較については、以下の記事が参考になるかもしれません。

DeepSeek-V3の性能をChatGPT、Claude、Geminiと比較してみた:https://note.com/it_navi/n/n8300c25dd2ed

DeepSeekに聞いた!主要AIツール4選の真実:ChatGPT・Claude・Geminiとの徹底比較:https://ainow.jp/deepseek-chatgpt-claude-gemini/

これらの記事では、両モデルの性能や特徴が詳しく比較されています

補足

DeepSeekとGeminiは、どちらも日々進化している技術です。そのため、この記事記載されている情報は、今後変更される可能性がある点にご注意ください。

Permalink |記事への反応(0) | 18:55

このエントリーをはてなブックマークに追加ツイートシェア

2025-01-28

DeepSeekは現状使える性能ではない

近年、AI技術進化は目覚ましく、特に自然言語処理NLP)分野では多くの企業研究機関が競って高性能なAIモデルを開発しています。その中で、DeepSeekというAIモデルが注目を集めていますが、現状ではその性能には多くの課題が残されており、実用的なレベルには達していないと言わざるを得ません。本稿では、DeepSeekの性能の低さやボトルネックの多さについて詳しく考察し、なぜ現状では「使える性能ではない」と評価されるのかを解説します。

1. 性能の低さ

まず、DeepSeekの性能の低さが指摘される最大の理由は、その応答精度の低さにありますAIモデル実用であるためには、ユーザー質問要求に対して正確かつ適切な回答を提供することが求められますしかし、DeepSeekの場合特に複雑な質問文脈理解する必要がある場合に、しばしば誤った回答や不適切な応答を返すことが報告されています

例えば、技術的な質問に対しては専門知識が不足しているため、表面的な回答しかできず、深い洞察や具体的な解決策を提示することができません。また、文脈理解する能力も不十分で、会話の流れを把握できずに的外れな回答をしてしまうことが多々あります。これでは、ユーザーが求める情報提供するどころか、むしろ混乱を招く結果となってしまます

2.ボトルネックの多さ

DeepSeekの性能が低い背景には、いくつかのボトルネック存在します。まず、学習データの質と量が十分でないことが挙げられますAIモデルの性能は、その学習データに大きく依存しますが、DeepSeekの場合学習データが偏っていたり、最新の情報が反映されていなかったりするため、現実世界の多様なニーズ対応できていません。

また、計算リソースの不足も大きな問題です。高性能なAIモデル運用するためには、膨大な計算リソース必要となりますが、DeepSeekの場合、そのリソースが十分でないため、応答速度が遅く、リアルタイムでの処理が困難です。これでは、ユーザーが求める即時性を満たすことができず、実用的なツールとしての価値が大きく損なわれてしまます

さらに、モデルアーキテクチャ自体にも課題があります。DeepSeekのアーキテクチャは、他の先進的なAIモデル比較して、複雑なタスクを処理する能力が劣っており、特に長文の理解複数文脈を同時に処理する能力が不足しています。これにより、高度な質問や複雑な要求に対しては、十分な性能を発揮することができません。

3.ユーザーエクスペリエンスの悪さ

性能の低さやボトルネックの多さは、結果としてユーザーエクスペリエンスの悪さに直結します。ユーザーAIツールを利用する際に求めるのは、正確で迅速な応答であり、その応答が信頼できるものであることです。しかし、DeepSeekの場合、応答の精度が低く、処理速度も遅いため、ユーザーストレスを感じることが多くなります

また、誤った情報提供されるリスクも高く、これではユーザー安心して利用することができません。特にビジネス教育などの重要な場面で利用する場合、誤った情報が与える影響は大きく、信頼性の低いAIツールは使い物にならないと言わざるを得ません。

4. 今後の改善

現状では、DeepSeekは実用的な性能には程遠いと言わざるを得ませんが、今後の改善によっては可能性を秘めているとも言えます。まず、学習データの質と量を向上させることが急務です。最新の情報を反映し、多様なデータ学習させることで、応答精度を向上させることができるでしょう。

また、計算リソースの拡充も必要です。高性能なハードウェアを導入し、効率的アルゴリズム採用することで、応答速度を向上させることが可能です。さらに、モデルアーキテクチャ見直し、複雑なタスクを処理する能力を強化することも重要です。

結論

DeepSeekは、現状ではその性能の低さやボトルネックの多さから実用的なAIツールとしての評価を得るには至っていません。応答精度の低さ、処理速度の遅さ、ユーザーエクスペリエンスの悪さなど、多くの課題が残されていますしかし、これらの課題を克服するための改善が進めば、将来的には有用AIツールとしてのポテンシャルを発揮する可能性もあります。今後の開発動向に注目していく必要があるでしょう。

Permalink |記事への反応(2) | 14:55

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp