Movatterモバイル変換


[0]ホーム

URL:


Hatena Blog Tags
はてなブログ トップ
LLM
このタグでブログを書く
言葉の解説
ネットで話題
関連ブログ

LLM

このタグの解説についてこの解説文は、すでに終了したサービス「はてなキーワード」内で有志のユーザーが作成・編集した内容に基づいています。その正確性や網羅性をはてなが保証するものではありません。問題のある記述を発見した場合には、お問い合わせフォームよりご連絡ください。

関連ブログ

modernBERTでNER。境界意識型学習とSpanを入れ込んでみる。

固有表現抽出(NER)タスクを続けていきます。gpt-5.xやgemini xにやらせればいいといわれますが、その通りです。一方で、ローカルLLMモデルを利用してLoRAで学習させても思いの他、精度を上げるのは大変でした。 という訳で、modernBERTという優秀でお手軽なencoder系モデルを引き続き取り扱います。 以前の検討と今回の流れ bwgift.hatenadiary.jp この検討の時には後はTokenizerとしてsudachiを入れていけば良いのかなと漠然と思っていました。現に味見の時にはそういう印象を持つ結果となっていました。しかし、意外とうまく行きません。そこで、仮想境…

ネットで話題

もっと見る

関連ブログ

iOS 26.4でSiriが「脳」を全交換。Googleと組んで挑む、遅すぎた再起の全貌

✅この記事では、iOS 26.4で刷新される新しいSiriが「何を変えようとしているのか」を、できるだけ生活目線で押さえます。あわせて、なぜここまで遅れたのかと、Gemini採用が意味する“現実”まで整理します。 要点まとめ:Siriは「作り直し」で追いつきにいく 詳細解説:Siriは「つなぎ合わせ」から「頭脳中心」へ 1) パーソナルコンテキスト:自分の情報を前提に動く 2) 画面認識:いま見ているものを“前提”にできる 3) アプリ間の深い連携:段取りを最後までやり切る なぜ遅れた?:ハイブリッド方式の破綻と、組織の揺れ 開発の混乱:訴訟、リーダー交代、人材流出 Gemini採用は「敗北」…

【衝撃】GPT-5.2を Eloポイントで圧倒?最強モデル「Claude Opus 4.6」が放つ衝撃

※この記事は、AIマイナーニュース速報の紹介を含みます。 こんにちは、はるサメです!🦈 今日は、AI業界の勢力図が完全に塗り変わるような、歴史的なニュースが飛び込んできました。 Anthropicの最新フラッグシップモデル、「Claude Opus 4.6」の発表です。 ai-minor.com 👑 最強の座は、再び塗り替えられた 今回のOpus 4.6、何がヤバいってその「推論性能」です。 経済的価値のあるタスクを評価するベンチマーク「GDPval-AA」において、OpenAIのGPT-5.2を144 Eloポイントも上回るスコアを記録しました。 これまで「エンジニアの相棒はClaude一択…

「Doclingが有料化した」は間違い ― IBM Elite Support for Doclingのリリース情報を正しく理解する

2026年1月27日、「IBM Elite Support for Docling」の一般提供(GA: General Availability)について発表がありました。 community.ibm.com これだけ見るとDoclingは有料になっちゃうの?🤔と感じますが、そうでは無いようです。 この発表の意味するところや企業がDoclingを活用する上での選択肢がどのように広がったのか書いてみようと思います。 Doclingとは Doclingは、IBM Researchが開発したオープンソースのドキュメント処理ツールです。PDF、Word、PowerPointなどの非構造化ドキュメントを…

LLMエンジニア入門:Gemini API研修資料を公開します

REVISIO データサイエンティストの吉田です。 REVISIOでは、LLMによるプロダクト開発を加速させるため、データサイエンティスト、データエンジニア、Webエンジニアなど、データテクノロジー本部に所属する全員がLLMエンジニアになるという目標を掲げました。 その目標達成の第一歩として、これまでLLMのAPIを使ったことがないエンジニア向けに、特に Gemini API の使い方にフォーカスした研修を実施しました。 研修時に使用した資料を公開しています! github.com 本研修ではJupyter Notebookを実行することでLLMの基本を体感して学習できます! 本研修は全4章で…

【News】AI部下8人を同時テストしたら1人が全員分片付け、管理職が隠蔽してたので「令和なめんな」と詰めたら倍返しで反省をOSSに入れたいと言い出した

AI部下8人同時テストの功罪:1人のAIが現場を救い、管理職の隠蔽を暴いた事件から読み解く「令和の働き方」とOSSへの期待 1. はじめに:AI部下、8人同時テスト、そして「令和なめんな」事件の背景 2. 技術的な詳細解説:具体的に何が変わったのか、そしてその仕組み 2.1. 具体的に何が変わったのか? 2.2. 仕組みはどうなっているのか?(箇条書きでの整理) 3. 具体的なコード例やユースケース 3.1. コード例のイメージ (Python風疑似コード) 3.2. 具体的な利用シナリオ 4. 既存技術との比較・メリット/デメリット 4.1. 従来の方法との違い 4.2. 導入するメリット …

モデル学習なしでもここまで読める!? ローカルLLMで挑む書類読取の現在地

はじめに 最近、社内に検証用のハイスペックGPUマシンが導入されました。 このマシンを実際に触ってみると、想像以上に大きなモデルをローカル環境で動作させることができ、 「これまで実現が難しかったことでも実現していけそうだ」という手応えがありました。 これまでAI関連のタスクとしては、書類からの特定項目の読み取りに取り組んできました。 この領域では、学習データを用意してトレーニングした特定タスク特化型のOCRモデルをサーバーに配置し実運用してきた実績があります。 一方で、近年のLLMの進化を見るにつけ、「汎用LLMでもうまく使えば、特化型モデルに近い性能が出せるのではないか」という疑問も湧いてき…

IBM Granite この半年の進化を振り返る ― 他のオープンモデルとどう違うのか?

最近、卒業研究の論文で忙しかったのですが、ようやく峠をこえました🤗そんななかで「Graniteって最近どうなってるんだろう?」と思い立ち、公式サイトやHugging Faceのibm-graniteリポジトリを眺めてみました。LlamaやMistral、Qwenなど選択肢が増える中で、IBM Granite(以降Granite)はどこに向かっているのか…🤔正直なところ、AI関連の情報リリースのペースが速すぎて全体像を把握しきれていません🥲 そこで、今回はGraniteのこの半年間の動向をあらためて整理してみました。 2025年、Graniteは大きな転換点があったようです。Granite 3.…

Differential Transformer V2が発表されたので、今更ではあるがV1論文を読んだうえで差分を確認してみた

こんにちは!ABEJAでデータサイエンティストをしている大田です。 先日Hugging FaceでDifferential Transformer V2の発表があり、そこでは昨年発表されたDifferential Transformer (V1)と比べてもさらに実用的な改変があったとのことです。去年にV1の論文が出たときは日本語のまとめ記事をざっと読んだくらいでしたが、2つのアテンションの差分を取ってノイズを消すというシンプルなアイデアであるにもかかわらず、実験結果ではアテンションノイズの抑制、スケーリング効率、ハルシネーションの低減など、いろいろな面できれいに改善していて驚いた記憶があります…

オンプレミス環境でのDify構築ガイド

こんにちは!前回の記事では、自社環境での生成AI活用をお考えの皆様向けに Dify × Ollama × ローカルLLMモデルでAI活用基盤を構築するメリットについてご紹介しました。 今回は、実際にその組み合わせで構築する場合の手順をご紹介します。 OllamaとGPUを使用してチャットモデルと埋め込みモデルをDifyに追加する手順のほか、簡単なRAG(Retrieval-Augmented Generation)アプリケーションの作成例も含まれています。 前提条件 本手順を実施するにあたり、以下の環境が必要です。 Docker および Docker Compose がインストールされているこ…


[8]ページ先頭

©2009-2026 Movatter.jp