米Metaは9月25日(現地時間)、年次開発者会議「Meta Connect 2024」で、同社のLLM「Llama」の最新版「Llama 3.2」のリリースを発表した。7月に「Llama 3.1」をリリースしたばかりだが、初のマルチモーダルモデルの追加など、大きな更新になった。 画像認識機能の追加 Llama 3.2では、11B(110億)と90B(900億)の2つのモデルで画像認識機能をサポートする。 これにより、表やグラフなどの理解、画像キャプションの生成、画像内のオブジェクトに自然言語で指示する視覚的なグラウンディングなどの画像推論ユースケースが可能になる。 例えば、ユーザーが前年のどの月に売り上げが最も多かったのかをグラフに基づいて質問すると、Llama 3.2は迅速に回答を提供するという。 エッジデバイスに対応した軽量モデル 1Bと3Bの軽量モデルは、要約、指示の追従、書き換え

米Metaは8月29日(現地時間)、“オープンソース”を謳うLLM「Llama」のHugging Faceでの累計ダウンロード数が3億5000万回に迫っていると発表した。前年同時期の10倍以上であり、Llama 3.1をリリースした7月だけでも2000万回ダウンロードされたとしている。 今年の1月から7月にかけて、大手クラウドサービスプロバイダー(AWS、Microsoft Azure、Databricks、Dell、Google Cloud、NVIDIA、IBM、Groq、Snowflakeなど)の一部では、Llamaの月間使用量が10倍に増加し、5月から7月にかけては、ホストされているLlamaの使用トークン量が2倍以上に増加した。 Metaは、「Llamaの成功は、オープンソースの力によって実現された」と語る。同社はLlamaに独自のライセンスを付しており、例えば月間アクティブユーザ

サイバーエージェントは7月26日、米Metaの最新AIモデル「Llama 3.1 70B」を使った新たな大規模言語モデル(LLM)を公開した。Llama 3.1 70Bをベースに、日本語データを追加学習させたもので、Hugging Face上で公開している。ライセンスはMetaの「Llama 3.1 Community License」に基づいており、商用利用可能だが、利用規約などに同意が必要となる。 「Llama 3.1」シリーズはMetaが24日(現地時間)に公開した最新LLM。15兆トークンを超えるデータでトレーニングしたとしており、複数のベンチマークで米OpenAIのLLM「GPT-4o」や米AnthropicのLLM「Claude 3.5 Sonnet」より優れているという。

米Metaは7月24日(現地時間)、“オープンソースの”LLMの最新版「Llama 3.1」を発表した。最大モデルは4050億(405B)のパラメータを持ち、米NVIDIAの1万6000個以上の「H100」でトレーニングした。Llama 3の70Bモデルと8Bモデルもアップグレードされる。 4月にリリースした「Llama 3」同様に、ほぼすべての主要クラウドサービス(AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBMWatsonX、Microsoft Azure、NVIDIANIM、Snowflake)で利用可能になる。 15兆トークンを超えるトレーニングデータでトレーニングしたとしているが、データの出所は明示していない。 405Bモデルは、長文テキストの要約、多言語会話エージェント、コーディングアシスタント、将来のAI言語モデルのト

本記事のサマリーELYZA は、「Llama-3-ELYZA-JP」シリーズの研究開発成果を公開しました。700億パラメータのモデルは、日本語の生成能力に関するベンチマーク評価 (ELYZA Tasks 100、Japanese MT-Bench) で「GPT-4」を上回る性能を達成しました。各モデルは Meta 社の「Llama 3」シリーズをベースに日本語で追加学習を行なったものです。 ■「Llama-3-ELYZA-JP-70B」 700億パラメータモデル。「GPT-4」を上回る日本語性能を達成。無料で利用可能なデモを用意しています。 ■「Llama-3-ELYZA-JP-8B」 80億パラメータと軽量ながらも「GPT-3.5 Turbo」に匹敵する日本語性能を達成。モデルを商用利用可能な形で一般公開しました。 使用したAPIのバージョンなど、より詳細な評価結果については本記事の後段

Edit (June 3 )— FromTwitterFirst of all, we want to sincerely apologize to the original authors of MiniCPM. We wanted Mustafa to make the original statement but have been unable to contact him since yesterday. @siddrrsh and I posted Llama3-v with @mustafaaljadery. Mustafa wrote the entirety of the code for the project. Sid and I were both really excited about multimodal models and liked the archi

画像認識が可能なオープンソースモデルの「Llama 3-V」が公開されました。Llama 3-Vは、OpenAIのマルチモーダルモデル「GPT4-V」よりも格段に小型で、事前トレーニングにかかる費用は500ドル(約78000円)程度なのにもかかわらず、ほとんどの指標で同等のパフォーマンスを示しています。 Llama 3-V: Matching GPT4-V with a 100x smaller model and 500 dollars | by Aksh Garg | May, 2024 | Medium https://aksh-garg.medium.com/llama-3v-building-an-open-source-gpt-4v-competitor-in-under-500-7dd8f1f6c9ee 今回発表されたLlama 3-Vは、 Metaが公開した言語モデルの「L


Llama 3の高いテキスト生成能力を日本語にいち早く導入 rinna株式会社 (本社:東京都渋谷区/代表取締役:宋 珠憲、以下rinna) は、Llama 3 8Bに対して日本語データで継続事前学習を行った「Llama 3 Youko 8B」を開発し、Meta Llama 3 Community Licenseで公開したことを発表します。 ■ rinnaのモデル公開活動 最近のAI技術は、世界中の研究・開発者が切磋琢磨し、成果を共有・公開することで劇的に進化を遂げています。rinnaも、日本語のタスクに適したGPT・BERT・HuBERT・CLIP・Stable Diffusionなど、テキスト・音声・画像に関する事前学習済み基盤モデルを公開してきました。2021年4月からHugging Faceに公開してきたrinnaのモデルは累計560万ダウンロード・1000 Likesを超え、多く

ザッカーバーグ氏、Metaがオープンソースの汎用AIを開発中と発表——年内に大規模演算インフラの完成も Imagecredit: Instagram Meta の Mark Zuckerberg(マーク・ザッカーバーグ)CEO は18日、Instagram のサプライズ・リールで、同社がオープンソースの汎用AI(AGI)を開発していると述べた。 完全な一般知能を構築し、可能な限りオープンソース化することを目標に、FAIR と GenAI という2つのAI 研究チームをより緊密に連携させている。 「私たちの長期的なビジョンは、一般的な知能を構築し、責任を持ってオープンソース化し、誰もが恩恵を受けられるように広く利用できるようにすることです」と Zuckerberg 氏はキャプションに書いている。彼はビデオの中で、「次世代のサービスに必要なのは、完全な一般知能の構築、最高のAI アシス

1リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く