Movatterモバイル変換


[0]ホーム

URL:


gihyo.jpサイトのロゴ

Google⁠超軽量⁠低消費電力モデル「Gemma 3 270M」リリース

    2025-08-15

    シェア

    記事の内容 0.5分

      Googleは2025年8月14日、2億7000万パラメータをもつコンパクトなモデル「Gemma 3 270M」をリリースした。

      The model is built for fine-tuning on focused tasks where efficiency is everything:

      🔹 Massive 256k vocabulary for expert fine-tuning
      🔹 Extreme energy efficiency for on-device AI
      🔹 Production-ready with INT4 Quantization Aware Trainingpic.twitter.com/LiCsMPaQRp

      — Google AI Developers (@googleaidevs)August 14, 2025

      Gemma 3 270Mは、コンパクトながら新しいアーキテクチャにより高性能を両立させているという。2億7000万パラメータのうち1億7000万は膨大な語彙サイズをもつ埋め込みパラメータで、これにより256,000トークンの語彙数をもち、特定の分野や言語向けに微調整できる強力なベースモデルとなっている。

      また、Gemma 3 270Mは最も電力効率の高いGemmaモデルで、同社のスマートフォンPixel 9 Pro SoCを用いた社内テストでは、INT4量子化モデルは25回の会話でバッテリー消費量が0.75%になったとのこと。

      さらに、強力な指示追従機能とテキスト構造化機能をトレーニング済みの状態でリリースされているため、複雑な会話ユースケースには向かないが、一般的な指示にはすぐに従えるようになっているという。量子化を考慮したトレーニング済み(QAT)チェックポイントも利用可能。

      このように特化されたGemma 3 270Mは、大規模で明確に定義されたタスクがある場合に大きな効果をもたらし、感情分析、エンティティ抽出、クエリルーティング、非構造化テキストから構造化テキストへの処理、クリエイティブライティング、コンプライアンスチェックなどの機能に最適という。

      また微調整されたGemma 3 270Mは軽量で低コストのインフラストラクチャ、またはデバイス上で直接実行でき、本番環境での推論コストを大幅に削減、あるいはゼロにし、ユーザーへのレスポンスを高速化できる。迅速な反復処理とデプロイが必要な場面でも効果的で、小サイズにより迅速な微調整実験が可能で、ユースケースに最適な構成をに日単位でなく数時間で発見することもできる。

      Gemma 3 270Mは、事前学習済みモデルと命令チューニング済みモデルの両方がリリースされており、Hugging FaceOllamaKaggleLM Studio、そしてDockerから入手できる。また、Vertex AI上で試すこともできる。

      おすすめ記事

      記事・ニュース一覧


        [8]ページ先頭

        ©2009-2025 Movatter.jp