Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「n-gram」を含む日記RSS

はてなキーワード:n-gramとは

2025-10-14

自然言語処理10年ぐらいやってきた

学業でも仕事でも趣味でも、ずっと自然言語処理をやってきた。

別に最初からAIだのNLPだのに興味があったわけじゃない。

きっかけは、学生時代ちょっとしたレポートテキスト単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。

英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。

その瞬間にちょっとハマったんだよね。

辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。

そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。

Pythonテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語対応させたり。

言葉を数理で扱える」って発見が、ちょっとした中毒になった。

その頃はMosesとかGIZA++とか、ああい統計翻訳系のツールも触ってたね。

単語ラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。

とにかく、NLP世界には「人間言葉数学再現できるかもしれない」という変な魅力があった。

深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。

今思えば、あれが一番自然言語処理っぽい時代だった気がする。

で、いろいろあって自然言語処理系の企業入社

最初はPoC(Proof of Concept)しかやらせてもらえなかった。

感情分析とか、Stance Detectionとか、「この文は文法的典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング質問応答(Question Answering)。とにかくNLP典型的なタスクを一通り。

学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。

PoCで終わって、実装には至らない案件が山のように積み上がっていった。

あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。

でもさ、LLM(大規模言語モデル)が出てきてから世界がひっくり返った。

正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。

それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。

ChatGPTが出て、蒸留ファインチューニングほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。

でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈NLPが再接続した。

単なるテキスト処理から、「テキスト媒介にして人間の行動を理解する」方向に進んだ。

埋め込み表現ベースユーザーの嗜好を推定して、レコメンドメルマガのパーソナライズをやる。

自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPビジネスに食い込む瞬間」ってのを肌で感じた。

PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。

でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。

自然言語処理って、そういう「積層的な知識挫折の積み上げ」が一番の資産なんだよな。

Permalink |記事への反応(15) | 06:37

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-03

LLMは言葉意味理解できていない

LLM は「次の単語予測しているだけ」で意味理解していない──という指摘に反論してみる。

1.確率“だけ”でも文脈理解必要

「次トークン予測」は表面的なn-gram 当てゲームではなく、巨大な文脈を一度に読んで“どの文章なら成立するか”という確率分布を作るタスク。Anthropic の可視化研究では、Claude が韻を踏む単語を前もって計画している内部回路が観測されている。

2.ベンチマーク

GPT-4 相当のモデル司法試験大学入試APCalc などで人間平均を超えるスコアを記録。これは暗記だけでなく意味論理運用ができないと無理。LLM の“創発能力”をまとめたレビュー (J Weiet al., TMLR 2022) でも、モデルサイズ閾値を超えると推論力が出現するスケーリング則が示されている。

3. 多言語で共有される概念ベクトル

Anthropic の「AI Microscope」チームは、同じ質問を英・仏・中で与えても共通概念特徴が活性化することを報告。モデル内部では単語列ではなく、言語依存意味空間思考している証拠を示している。

4. 弱点はあるが改良も進行中

Transformer は体系的な組合一般化が苦手と言われるが、Chain-of-Thought や複合命令 (CoI) などのプロンプト設計でかなり改善できることが最新論文確認されている。

まとめ

LLM は確かに「次の語を予測する」学習をしているが、その過程文法・語用・世界知識を内部に組み込み言語を超えた概念表現まで形成している。「予測タスク理解ゼロ」と断じるのは、最新の実験データには合わない。

偉そうに書いたけど何年も前から常識レベルのことしか書いてない。

Permalink |記事への反応(1) | 08:09

このエントリーをはてなブックマークに追加ツイートシェア

2023-01-15

言語モデル頭脳関係があるのか

お前は人工知能より頭がいいのか?研究によると、パラメータの大きな言語モデルプログラム人間の知性を凌駕する可能性があることがわかっている。

Generative Pre-trained Transformer 3が、知能を測る一連の推論テストにおいて平均的な大学生を上回っていることが発見されている。例えばN-gram LMsはカウントベースマルコフモデルパラメータフィッティングを用いるが、GPT3はより巨大なパラメータを持つ。入力に対して人間のようなテキスト、つまり確率の高いものを出力する。GPT3はOpenAIが生み出した技術で、言語翻訳チャットボットなどのアプリケーションテキスト生成など、さまざまな用途がある。

1750億のパラメータを持つ、最大かつ最も強力な言語処理AIモデルひとつだ。

ではGPT-3は「天才」なのか?研究では、一般知識SAT試験スコアIQという3つの重要な要素において、プログラム人間匹敵する能力を持つかどうかを調べられた。プレプリントサーバーarXiv」で公開された結果によると、AI言語モデルは3つのカテゴリーすべてにおいて、人間よりも高いパーセンタイルでゴールしていることがわかっている。

実際のIQテストでのGPT-3の成績はどうか?平均的な大学受験生を相手に、様々な言語モデル分析的推論問題でどのような結果を出したかについての調査結果を発表された。AIが明らかに勝者となった。とのことhttps://twitter.com/AiBreakfast/status/1607594052785930240

"GPT-3は、抽象的なパターン誘導に驚くほど強い能力を示し、ほとんどの場面で人間能力と一致するか、あるいはそれを上回ることが分かりました。我々の結果は、GPT-3のような大規模言語モデルが、広範な類推問題に対するゼロショット解を見つけるための創発能力を獲得したことを示しています"と研究者は言う。

同チームは、GPT-3が「明示的に訓練されていないにもかかわらず、生物学的知性がとるのとは根本的に異なる経路を経て、人間類推の基礎と考えられているものと同様のメカニズムを開発することを余儀なくされた」ことを付け加えている。

GPT-3は、すべての問題タイプにおいて、生成精度...および多肢選択精度ともに、人間参加者を上回った 。https://twitter.com/AiBreakfast/status/1607594057735278592

この研究によると、ほとんどの質問に答え、人の代わりに論文の下書きまでできるAIプログラムは、問題ゼロから解かなければならないときや、多肢選択式のテストから選択するとき人間を上回ったそうだ。

AI専門家作家アラン・D・トンプソン博士は、GPT-3が120以上のIQを示すことを示唆している。

結論: ということで、GPT所詮IQ120程度ってことだな。

anond:20230115221217

Permalink |記事への反応(0) | 22:29

このエントリーをはてなブックマークに追加ツイートシェア

2009-01-03

http://anond.hatelabo.jp/20090103134806

いや、純粋プログラミング能力に限定したつもりはないよ。一般的な技術力の話。レイトレーシングだってFPGAだってコンパイラだって純粋プログラミング能力とはいえない。だいいちそういうのを連携させるというカリキュラムは実務的とは言わないまでもその辺の給料もらうためだけに書いてるだけのプログラマにはできない芸当をやっていることは確かでしょ(馬鹿にするわけじゃないが)。ギークとまでは呼べないかもしれない。ただそのへんのwebギークにすぐにできる芸当ではない。当たってるかどうか知らないが、私が知っていたadvancedなトピックとしてはフォトンマッピング、HW/SWコデザイン関数型プログラミング言語とかか。むしろページランク分かち書きN-gramも、web系のギークが得意な話題ではないかなとも思う。

話の流れとしてはどうでも良くて、、そういうことさえ経験できない他の大学(宮廷でもままある)の学部卒って使えないよねーという話になって、だからこそ東大IS羨ましーという話になるのです。まああんまり自分を卑下してT大を持ち上げてもしょうがないので私は似たような題材で切磋琢磨しましたが。

増田に張り付いてこんなに反論してる時点で私も時間の使い方がなってないよなー。

Permalink |記事への反応(0) | 14:06

このエントリーをはてなブックマークに追加ツイートシェア

2008-10-02

Classic Texts in Computer Science

リブログです。

    http://www.zafar.se/bkz/Articles/ClassicCompScienceTexts

    http://www.zafar.se/bkz/wiki/view/43bafac8c8570f4f

    にあったけど、無くなっていたので

    http://web.archive.org/web/20060823143349/www.zafar.se/bkz/home/classictextsincomputersc.html

    から拾ってきた。

    でも書いてる途中に↓を見つけてしまったのでした。

    Classical Computer Science Texts

    Permalink |記事への反応(0) | 02:38

    このエントリーをはてなブックマークに追加ツイートシェア

    2007-12-13

    http://anond.hatelabo.jp/20071213062012

    うーん、いったいどの検索サービスのことを言っているのかなあ。

    インデキシングに形態素解析は使わないよ。基本的にはn-gramだから繋がった”意味のある”文字列がぶった切られることはないよ。

    ただ、クエリーが”意味の無い”文字列だったので検索結果が見つからず、検索結果を増やすためにクエリーに入力したキーワード形態素解析してクエリーを作り直すってことはよく使われる手法だね。googleなら”意味のある”と増田が思っている範囲の文字列をダブルクオーテーションでくくればいいと思うよ。

    Permalink |記事への反応(0) | 15:38

    このエントリーをはてなブックマークに追加ツイートシェア

    2007-11-02

    誰かGoogleN-gram元にして人工無能実装してくれないかなあ……

    Permalink |記事への反応(0) | 00:25

    このエントリーをはてなブックマークに追加ツイートシェア

     
    ログインユーザー登録
    ようこそ ゲスト さん
    Copyright (C) 2001-2025 hatena. All Rights Reserved.

    [8]ページ先頭

    ©2009-2025 Movatter.jp