We're excited to introduceEmbeddingGemma, a new openembedding model that delivers best-in-class performance forits size. Designed specifically for on-deviceAI,its highly efficient 308 million parameter design enables you tobuild applications usingtechniques such as Retrieval Augmented Generation (RAG) and semantic search that run directly on your hardware.It delivers private, high-quality

Armが次世代エッジAIに回答、新プロセッサ「Cortex-A320」に「Ethos-U85」を融合:人工知能ニュース(1/2 ページ) Armは、エッジ機器での生成AIやトランスフォーマーモデルの推論処理に対応する新たなエッジAIプラットフォームを発表した。Armv9アーキテクチャに基づく省フットプリントの新たなプロセッサコア「Cortex-A320」に、NPUの「Ethos-U85」を組み合わせている。 Armは2025年2月27日、エッジ機器での生成AI(人工知能)やトランスフォーマーモデルの推論処理に対応する新たなエッジAIプラットフォームを発表した。Armv9アーキテクチャに基づく省フットプリントの新たなプロセッサコア「Cortex-A320」に、NPU(Neural Processing Unit)の「Ethos-U85」を組み合わせており、10億パラメーター以上のAIモデルに

エッジにも浸透する生成AI、組み込み機器に新たな価値をもたらすか:MONOist 2025年展望(1/3 ページ) 生成AIが登場して2年以上が経過しエッジへの浸透が始まっている。既にプロセッサやマイコンにおいて「エッジAI」はあって当たり前の機能になっているが、「エッジ生成AI」が視野に入りつつあるのだ。AI(人工知能)技術の進展に新たな息吹を吹き込んだ、ChatGPTに代表される生成AIが登場して2年以上が経過した。もはや生成AIの存在は当たり前になりつつあり、日常生活に用いられるスマートフォンやPCに生成AIを活用した機能が搭載されるようになっている。 2015年ごろにGPUを用いたディープラーニングによって始まった第3次AIブームにおいて、当初はクラウドやサーバ上での運用が当たり前だったAI技術は、数年のタイムラグを経てエッジに浸透し「エッジAI」としての技術開発が進んでいった。

エッジAIとは、エッジデバイス(=インターネットにつながる“IoT”対応機器やスマートフォンなど、利用者に近い場所にある端末)上で動作するAIのこと。データをクラウドに送信せずにデバイス内で処理するため、プライバシーが保護され、限られたリソースで効率的かつ高速に動作する特徴がある。 連載目次 用語解説 エッジAI(EdgeAI:Edge Artificial Intelligence)とは、エッジデバイス(詳細後述)上で動作する人工知能(AI)のことを指す。例えば、家にあるスマートホーム機器(例:見守りカメラ)が、データをクラウドに送信せず、そのデバイス内だけでAIによる顔認識を行うことなどが、エッジAIの典型的な例である(図1)。 エッジデバイス(Edge device)とは、クラウドなどのインターネットに接続され(いわゆる“IoT:Internet of Things”に対応し)、利

“エッジ生成AI”に挑む日本発スタートアップ、60TOPSのAI処理性能を8Wで実現:組み込み開発 インタビュー(1/2 ページ) 生成AIへの注目が集まる中、その生成AIを現場側であるエッジデバイスで動かせるようにしたいというニーズも生まれつつある。この“エッジ生成AI”を可能にするAIアクセラレータとして最大AI処理性能60TOPS、消費電力8Wの「SAKURA-II」を発表したのが、日本発のスタートアップであるエッジコーティックスだ。ChatGPTに代表される生成AI(人工知能)への注目が集まる中、その生成AIをクラウドやサーバではなく、現場側であるエッジデバイスで動かせるようにしたいというニーズも生まれつつある。ただし、従来の機械学習モデルと比べて生成AIモデルの規模が大きいこともあり、エッジデバイスに搭載可能なAIアクセラレータで十分な処理性能を確保することは容易ではない。 こ

調査会社ABI Researchは2024年2月14日(米国時間)、RISC-VアーキテクチャがエッジAI(人工知能)ワークロードに対応し始めており、この傾向は今後10年続くとの予測を発表した。RISC-Vの出荷個数は2030年までに1億2900万個に達するとしている。 これらの予測は、ABI Researchによるレポート「RISC-V for EdgeAI Applications」に基づくものだ。同レポートは、広範な一次インタビューを通じて、RISC-Vの市場動向などを分析している。 ABI Researchのインダストリーアナリストであるポール・シェル氏は「RISC-Vは、特定のワークロードに対応できる柔軟性とスケーラビリティを備えており、その魅力を高めている。RISC-V Internationalはエコシステムを熱心に推進、育成しており、Google、MediaTek、Int

伊藤忠テクノソリューションズ(CTC)は、マサチューセッツ工科大学発のスタートアップ企業LiquidAIとエッジAIソリューションの開発を目的とした協業を開始した。 伊藤忠テクノソリューションズ(CTC)は2024年2月21日、マサチューセッツ工科大学発のスタートアップ企業LiquidAIとエッジAI(人工知能)ソリューションの開発を目的とした協業を開始したと発表した。 この取り組みでは、「Liquid NeuralNetwork(LNN)」技術に基づいてLiquidAIが開発したAIを活用する。LNNは、少ない処理能力でも順応性の高いML(機械学習)を可能にする技術で、これによりエッジデバイスでの処理性能の向上を目指す。 従来のMLモデルでは約10万個のニューロンを必要とする計算を、LNNでは19個のニューロン数で算出し、同等の結果が得られる。エッジデバイスや小型コンピュータでの

「JetsonよりエッジAIに最適」、ルネサスが最新AIアクセラレータ搭載MPUを発売:人工知能ニュース(1/2 ページ) ルネサス エレクトロニクスは、新世代のAIアクセラレータ「DRP-AI3」を搭載し、消費電力1W当たりのAI処理性能で表される電力効率で従来比10倍となる10TOPS/Wを実現した「RZ-V2H」を発売する。 ルネサス エレクトロニクスは2024年2月29日、新世代のAI(人工知能)アクセラレータ「DRP-AI3」を搭載し、消費電力1W当たりのAI処理性能で表される電力効率で従来比10倍となる10TOPS/Wを実現した「RZ/V2H」を発売すると発表した。同月開催の「ISSCC(InternationalSolid-State Circuits Conference) 2024」で発表した最大130TOPSのAI処理性能を持つAIアクセラレータを用いており、ISSC

Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224CPUでStable diffusionが3分ちょっとかかるので、ラズパイ4も対応しているFastSDCPUを入れたら50秒になったw OpenVINOとか入っているらしい。AMDのCPUだけどw ターミナル画面左側が普通のSD、右側がFastSDCPU これだけ速度差があるとありがたいgithub.com/rupeshs/fastsd… pic.twitter.com/zflPRbldt4 2024-01-20 21:08:00 Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224 FastSDCPUをノートパソコンに電源を繋いでAMD 8コアCPUターボブーストでフルスピードで計算させたらトータルでわずか19.36秒という高速っぷりw 標準


We’ll help you makeit like nobody’s business.Nocreative challenge too big, no timeline too tight. Get to production with StabilityAI, your enterprise-readycreative partner.It starts with realcreatives. Our multimodal media generation and editing tools are designed for the best in the business. MarketingCreate high-quality on-brand assets for every campaign using our image generation and edi


はじめに まずは下記の動画をどうぞ 1000円以下のマイコンだけで物体形状の学習、推論が動いた。 緑色のは8×8ピクセルのToFセンサVL53L7CX、マイコンはSeeed XIAO RP2040、学習アルゴリズムはSEFR(multi-class)、学習時間は約12ms。 前半で、無、👊、✌️、✋を学習して、後半は推論。推論時間は1ms以下ですが、ToFセンサ読み出しに時間がかかっています。 1000円以下のマイコンだけで物体形状の学習、推論が動いた。 緑色のは8×8ピクセルのToFセンサVL53L7CX、マイコンはSeeed XIAO RP2040、学習アルゴリズムはSEFR(multi-class)、学習時間は約12ms。… pic.twitter.com/ccJQ7fDE0A — ミクミンP/Kazuhiro Sasao (@ksasao) December 19,2023 2

Fast and Portable Llama2 Inference on the Heterogeneous EdgeNov 09,2023 • 12 minutes to read TheRust+Wasm stack provides a strong alternative toPython inAI inference. Compared withPython,Rust+Wasm apps could be 1/100 of the size, 100x the speed, and most importantly securely run everywhere at full hardware acceleration without any change to the binary code.Rust is the language of AGI. We cr

Jetson Orinの生成AI処理性能はXeonの1.7倍、NVIDIAが“史上最大”の機能拡張へ:人工知能ニュース(1/2 ページ) NVIDIAは、組み込み機器向けのエッジAI開発プラットフォームである「Jetson」について、生成AIへの対応を含めた大幅な機能拡張を行うと発表した。 NVIDIAは2023年10月18日(現地時間)、組み込み機器向けのエッジAI(人工知能)開発プラットフォームである「Jetson」について、生成AIへの対応を含めた大幅な機能拡張を行うと発表した。最新の組み込み機器向けAIモジュールである「Jetson Orin」を中核に、最新のオープンソースの生成AIモデルをJetsonにデプロイ可能な形で提供する「NVIDIA Jetson GenAI Lab」のサービスを開始する他、ビジョンAIプラットフォーム「NVIDIA Metropolis」やロボット開

リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く