「macOS Tahoe 26.2」が2025年12月12日(金)にリリースされました。このバージョンではThunderbolt 5ポートを介してMac同士を低遅延接続する機能が追加されており、AIクラスターの構築に役立つことがアピールされています。macOS Tahoe 26.2 ReleaseNotes |Apple Developer Documentation https://developer.apple.com/documentation/macos-release-notes/macos-26_2-release-notes#RDMA-over-ThunderboltMacはUnified Memoryと呼ばれるメモリ技術を採用しており、SoCに内蔵されたメモリをCPUとGPUで共有しています。これにより、GPUに大量のメモリを割り当てて大型のAIモデルを高速実行する

OpenAIがChatGPTサイドバーを搭載し開いているWebページの解析やアクションを実行できるWebブラウザ「ChatGPT Atlas」のmacOS版をリリースしています。詳細は以下から。 米OpenAIは現地時間2025年10月21日、同社の対話型AI「ChatGPT」を組み込んだサイドバーや、複雑なブラウザ操作をユーザーに代わりChatGPTが処理してくれるエイジェントモードなどを備えたWebブラウザ「ChatGPT Atlas」のmacOS版をリリースしたと発表しています。 Today we’re introducingChatGPT Atlas, a new web browser built withChatGPT atits core.[…]A browser built withChatGPT takes us closer to a true super-as
米Appleは10月15日、新型「MacBook Pro」の14インチモデルを発表した。M5チップを搭載しており、価格は24万8800円から。予約注文は同日より受け付けており、10月22日に販売を開始する。 M5チップは、10コアCPU、10コアGPU、16コアNPUで構成されており、GPUの各コアに「Neural Accelerator」を採用したほか、ユニファイドメモリの帯域幅を153GB/sに拡張し、M4チップから約30%向上させたことで、AIパフォーマンス前世代と比較して最大3.5倍、GPU性能も最大1.6倍向上しているという。なお、M5の上位チップは発表されておらず、14インチ/16インチの上位モデルは、引き続き「M4 Pro」と「M4 Max」を採用する。

M4Mac miniで「gpt-oss」は動く? 動作が確認できたローカルLLMは……:“超”初心者向けローカルAI「gpt-oss」導入ガイド(5)(1/5 ページ) gpt-oss-20bをはじめとしたローカルLLM(大規模言語モデル)導入について連載で詳しく解説してきたが、どれも外部GPUを搭載したゲーミングPCなどの利用を前提としたものだった。 eスポーツが興隆している現在でもゲーミングPCの所有者は限られており、多くの読者は「自分のPCでは実行できないのか」と感じたかもしれない。 そこで本記事では、筆者が所有する外部GPU非搭載の「M4Mac mini」(16GBモデル)を使用し、gpt-oss-20bが利用できるか検証した。 【第1回】手元にゲーミングPCがあれば、オフライン環境でも生成AIが利用できるってホント? ローカルLLM(大規模言語モデル)導入を解説 【第2回】手

Raycast is a powerful free launcher formacOS.It can launch apps, search files, control your system, and leverage community-built extensions. Now,it can also interact withAI agents. With the newGitHub Copilot extension for Raycast, you can hand tasks to Copilot coding agent and track progress from anywhere on yourMac. To start a new task, open Raycast with Command+Space, then find and select

OpenAIのブラウザはChromeそっくりに?Googleと真っ向勝負か2025.08.21 07:306,271 R.Mitsubori 賢く便利に育っていく。OpenAIは、AIを標準搭載したウェブブラウザを開発中であることを明らかにしました。まずはmacOS向けに登場予定です。 このブラウザの土台となるのは、Googleが中心となって開発しているオープンソースのブラウザエンジン「Chromium(クロミウム)」。GoogleChromeをはじめ、Microsoft Edge、Samsung Internet、Operaなど、多数の人気ブラウザの“共通エンジン”となっています。BleepingComputerによると、新しいブラウザは従来のブラウザと異なり、ChatGPTのような「会話型UI」を標準搭載。 EdgeのCopilotモードのようにタブ選択やフォーム入力、情報

OpenAIは8月6日、大規模言語モデル(LLM)「gpt‑oss」を公開した。従来のChatGPTシリーズは仕組みや学習済みデータが基本的に非公開で、利用はWebやアプリ経由に限られていたが、今回は学習済みモデルを誰でもダウンロードして自由に利用できる形式での提供となる。さっそくgpt‑ossをダウンロードし、ローカル環境での実行方法を確認した。 gpt‑ossとは、なにがすごいの? gpt‑ossはオープンウェイト推論モデルで、20B(約200億)と120B(約1200億)パラメータの2種類を提供する。推論(リーズニング)性能に特化し、思考の連鎖(Chain of Thought=CoT)、少ない例からの関数呼び出し、外部ツール連携などに対応している。Tau‑BenchやHealthBench、数学競技AIMEなどのベンチマークでは、同規模の他オープンモデルを上回る性能を示した。 安全

やってきましたね。PCユーザーたちがMacユーザーを羨望の眼差しで見るときが。OpenAIが公開したChatGPTのオープンソース版「gpt-oss」。その2つのモデルであるgpt-oss-20bとgpt-oss-120bは、それぞれ16GB以上、80GB以上のVRAMを持つプロセッサが必要です。 下位モデルのgpt-oss-20bはChatGPT o3-miniと、上位のgpt-oss-120bはo4-miniと同等の結果を出すとしています。 つまり、世界で最も使われているLLMの、実力的にも十分なモデルが、ローカルマシンで動くのです。 しかし、推論には高性能なGPUが必要。16GB以上のVRAMを持つGPUならNVIDIA製ボードがいくらでもありますが、120bを動かせる80GB以上のVRAMを積んだGPUは、現行モデルでなくても数百万円はしますし、そもそも希少なものなので手に入れる

を作りました @pokutuna/mcp-chrome-tabs デモAppleScript を使っている都合上macOS でのみ動きます。 なぜ作ったか 既に LLM にブラウザを操作させる技術は色々ある。browser-use、playwright-mcp、mcp-chrome などなど。 これらの Tool, MCP は便利だけど、様々なツールが入っていてコンテキストへの圧迫が大きく、Chrome の debugging port を開けたり、普段のユーザディレクトリは使えなかったり、ブリッジとなるブラウザ拡張入れたりなど、まあまあめんどく、普段遣いしたいかというと否である。なのでタスクに応じて MCP サーバーのセットを切り替えて暮らしている。 ただ今開いているページを LLM に読ませたい 普段はブラウザ操作をしたいわけではなく、今見ているページを LLM に読ませたいことが

MacBookで無料AI。「ローカルLLM」がいい感じに進化してます2025.07.21 08:0049,791 かみやまたくみ ローカルLLMとは、ざっくり言ってしまうと「無料で公開されている大規模言語モデル」のことで、自分のPCにダウンロード・専用ソフトで読み込んで使います。ChatGPTのように会話できますし、API利用(対応アプリや自分で作ったプログラムからAIを呼び出して使う)も可能です。ChatGPTといった主流のAIはサブスクリプションサービス、API利用は従量課金制となっているので、対極に位置するAIだと言えます。 そんなローカルLLMですが、これまでは一部の通な人が使うものって感じでした。一時期話題になったDeepSeekのように非常に性能がいいものも登場していますが、動かすのにとても性能のいいマシンが必要です。ChatGPTに数年課金してもまだそっちのほうが安いという

[速報]マイクロソフト、AIモデルをWindows/macOSローカルで実行可能にする「AzureAI Foundry Local」発表 マイクロソフトは日本時間5月20日未明に開幕したイベント「MicrosoftBuild 2025」で、WindowsおよびmacOSのローカル環境でエッジ環境に最適化されたAIモデルを実行可能にする「AzureAI Foundry Local」を発表しました。 同時に、これまでWindows Copilot Runtimeと呼ばれてきたWindows上のAI実行環境を「WindowsAI Foundry」としてアップデート。Windows上での「AzureAI Foundry Local」をこれに統合することも明らかにします。 AzureAI Foundryとは AzureAI Foundryは、クラウドサービスであるMicrosoft A
![[速報]マイクロソフト、AIモデルをWindows/macOSローカルで実行可能にする「Azure AI Foundry Local」発表](/image.pl?url=https%3a%2f%2fcdn-ak-scissors.b.st-hatena.com%2fimage%2fsquare%2fec62b2369756c2dcc9ff9891457e3b3e2814b42d%2fheight%3d288%3bversion%3d1%3bwidth%3d512%2fhttps%253A%252F%252Fwww.publickey1.jp%252F2025%252Fwindows-ai-foundry02.png&f=jpg&w=240)
AIを利用し通常コマンドラインで行う操作を自然言語で実行できるMacアプリ「Substage」がリリースされています。詳細は以下から。 ファイルの作成や変換、圧縮/解凍、データの取得など、日常的にMacを操作する中で操作方法や実行すべきコマンドなどを忘れることがありますが、その様な際にAIを利用しMacを自然言語で操作できる「Substage」というアプリがリリースされています。 Convert, organize and more: control yourMac andits files with natural language. Commandline power, natural language ease. – Substage Substageを開発したのはイギリスでゲームスタジオinkleを設立しゲーム開発を行っているJoseph Humfreyさんで、Substag
Microsoft Copilot forMacがFinderのサービスメニューに対応し、右クリックから素早くドキュメントをCopliotに渡すことが可能になっています。詳細は以下から。Microsoftは2025年02月(日本では03月)、同社のAIアシスタント「Microsoft Copilot」のMacアプリの提供をMac App Storeで開始しましたが、このMicrosoft Copilot forMacが04月26日のアップデートでFinderメニューに対応しています。 Level up yourMacBook game!Just right-click on your documents, hit [Ask Copilot] in the menu, and get instant answers from Copilot.It’s like having a
はじめに: M4 MaxMacBook ProでLLMを動かすというロマンつい先日、128GBメモリ・8TBストレージを積んだM4 Max搭載のMacBook Proを手に入れた。Apple整備済製品で購入して価格は92万円とかなり思い切った投資だったが、このマシンでどうしてもやりたかったことがある。 それはLLM(大規模言語モデル)をローカルでガチ運用することだ。 自分のPCだけでAIモデルが動き、ネット接続なしでも高度な文章生成や画像認識ができる——そんな未来を先取りしたくて、このスペックのマシンを選んだ。 幸い、Google DeepMindからは最新のオープンウェイトLLM「Gemma 3」が公開されたばかりだった 。Gemma 3はスマホやラップトップといったデバイス上で直接高速に動作するよう設計されたモデルで、サイズも1Bから最大27Bパラメータまで揃っている 。今回このG

Microsoftが「Microsoft Copilot formacOS」を日本のMac App Storeでも開始しています。詳細は以下から。Microsoftは現地時間2025年02月28日、アメリカやカナダなので同社のAIアシスタント「Microsoft Copilot」のmacOSアプリの提供を開始しましたが、日本時間2025年03月03日付けで、このアプリが日本のMac App Storeでも利用できるようになっています。 The wait is over – we can finally hang out onmacOS! Download Copilot forMac and try me out today. —Microsoft Copilot (@MSFTCopilot) February 27, 2025Microsoft Copilot is the
これらのモデルは、元のモデルに比べるとかなり小型化されています。 蒸留(ディスティレーション)を通じてモデルを“圧縮”することで、推論の速度を向上させ、一般的なPCやiPhone等のスマートフォンでも動作可能なレベルに調整されています。 驚異のパフォーマンス:小型でも特定タスクでGPT-4oを超える? DeepSeekのテクニカルペーパーによると、Distilled Modelsのベンチマークテストでは、 「8Bパラメータのモデルでさえ、特定のタスクにおいてGPT-4o(昨年5月時点のバージョン)を上回る」 という結果が出ています。 ただし、これは数学やコード生成といった特定のタスクに特化したトレーニングを行った場合の話です。 総合的な文章生成や知識カバー率では、依然としてGPT-4oやClaude、o1などのフロンティアモデルのほうが優れています。 つまり、 「タスクによってはローカルモ

こんにちは。今回はMacにローカル Vision Language Model (VLM) 環境を整えて、スクリーンショットが撮られるたびに自動で “適切っぽい” ファイル名を付けてくれる仕組みを作ってみました。 タイトルは言わずもがな某書籍をオマージュパクらさせていただきました。 いやー、Mac標準だと「スクリーンショット 2025-01-01…」みたいなファイルが無限に増えてどれがどれだかわかんなくなるじゃないですか。ぼくも未来のAI時代を先取りするなら、ちょっとカッコいい名前が自動でつくとウキウキするんじゃね?と思いまして。 ここではMacローカルで動かせる mlx-vlm パッケージ経由で Qwen2-VL モデルを用いる方法、そしておまけに ollama の llama3.2-vision を使った方法も紹介します! ざっくりやることMacでスクショを撮る→デフォルトで「スクリ

リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く