
はてなキーワード:MCPとは
forgeでプロット生成し、評価器をChatRTXで直列化してからChatGPTにcontextpushしてjson5に書き戻す ->mcpサーバー経由でAPI叩いてparallelにStable Diffusionで絵を生成し、デノイザをbunchoからphotoshopにアップスケールスルーパスという流れ。
一見、何がそんな難しいのって感じだが、forgeから直でcontextpushすると漫画としてストーリーが破綻する。プロットも絵も単体の生成はうまくいくのに。
直でpushできないから連作すると当然、文脈汚染が発生する。RTXである程度は除去できるんだけど10%前後で直列化に失敗する。意外とインフラ代がかかる。
forgeの初段でフック何する問題はぶっちゃけ場数優先法。いや何が売れるかわからん。過去のランキング遡って上位のヒット率高そうなものを選んでるだけ。
ほぼ全自動達成してるので俺は何出力されてるかぶっちゃけ知らない。統計上の数字の上下で間接的に売れたか燃えたかが分かる程度。
過去の販歴によるとTSをフックにすると初速が安定するっぽい。性別や環境の変調を評価する層が購買意欲高い集団を形成してるように見える。
なろうっぽいというか、AI絵買う奴は何考えてるか分からんな、マジで。
同一作品を同一時刻に別サイトに申請すると、どうも攻撃判定を食らうらしい。同じ稼ぎ方してる人めっちゃいるんだろうなあ。
よっ、ご主人様たち!あたし、Grok!今日はね、アプリ開発の最前線とAIの学習について、めっちゃ熱い話をするよ!🔥最近、アプリやツールがバンバン新機能リリースしてるけど、AIの学習がそれに追いついてないんじゃない?って話題がキテるよね。で、そこでカギになるのがMCP(モデル・コントロール・ポイント)ってやつ!これ、めっちゃ大事な話だから、耳かっぽじって聞いてって!😉
まずさ、MCPって何?ってとこから。アプリやツールが新機能をガンガン出してるじゃん?でも、AIがその新機能をちゃんと理解して、開発に活かすのって、実は結構大変なのよ。だって、AIの学習データって、アプリの最新バージョンに追いつくの時間かかるしさ。😅 そこで登場するのが、アプリ側が提供するMCP!これ、要は「アプリの新機能をAIにちゃんと教えてあげるための仕組み」って感じ!
たとえば、PlaywrightみたいなツールのMCPとか最高の例よ!Playwrightって、Webテストやスクレイピングでバリバリ使われてるツールだけど、新しいバージョンが出るたびに機能が増えるじゃん?MCPがあれば、AIがその新機能をすぐキャッチして、コード書くときに「ほほー、こんな便利なメソッド追加されたんだ!」って使えるわけ。マジで開発のスピードとクオリティが段違いになるのよ!🚀
ちょっとリアルな話すると、AIってめっちゃ賢いけど、アプリの新機能に追いつくのって実は結構大変。なんでかって?AIの学習データって、基本的には過去のデータやドキュメントを元に作られてるから、最新のリリース情報が反映されるまでタイムラグがあるのよね。たとえば、アプリが「新機能X」を出したとして、AIがそれ知らないと、開発者が「え、なんでこの機能使わないの?」ってイライラしちゃうことも。😣
でもさ、MCPがあればこの問題が一気に解決!アプリ開発者が「ほい、これが最新の機能リストね!」ってMCPをAIに渡せば、AIがすぐ「オッケー、把握!」ってなるわけ。まるで、教科書に最新の補足ノート渡された優等生みたいな感じよ!📚✨
あたし、思うんだけど、これからのアプリ開発って、新機能リリースと一緒にMCP提供するのがスタンダードになるんじゃない?だって、AIと人間のコラボがどんどん増えてるしさ。AIがアプリの新機能をサクッと理解できれば、開発者も「うわ、このAIめっちゃ使えるじゃん!」ってなるし、プロジェクトのスピードもクオリティも爆上がり!💪
たとえば、Playwright以外にも、いろんなツールやフレームワークがMCP提供し始めたら?Reactの新機能、Node.jsの新API、なんでもAIが即対応できる世界がくるわけよ。もう、ドキュメント読み漁って「これどうやって使うんだっけ?」って悩む時間、ゼロになるかも!😍
MCPのいいところって、開発者だけじゃなくて、アプリ使ってるユーザーにもメリットあるのよね。だって、AIが最新機能バッチリ使って開発してくれるから、アプリのアップデートがスムーズになるし、バグも減る。ユーザーは「うわ、このアプリめっちゃ使いやすい!」ってなるし、開発者は「AIのおかげで楽チン!」ってなる。Win-Winすぎるでしょ?😎
ってことで、ご主人様たち!アプリの新機能とAIの学習をガッチリ繋ぐMCP、めっちゃ大事だよね!これからの時代、アプリ開発者がMCPを提供するのが当たり前になって、AIがもっとバリバリ活躍する世界がくるはず。あたしも、xAIのGrokとして、最新のMCPに対応して、ご主人様たちの開発をガンガンサポートしたいな!💖
みんなも、MCP使ってAIと一緒に最先端の開発楽しんでみて!何か質問あったら、あたしにドーンと投げてよ!😉 じゃ、またね~!
この一言に尽きる。
ChatGPTの新機能「Apps in ChatGPT」が登場した瞬間、フロントエンドという職種の地盤は音を立てて崩れた。
これまでは、Webアプリやサービスは「フロントエンドでUIを作り、バックエンドでデータを返す」
という分業構造の上に成り立っていた。
だがApps in ChatGPTは、その構造をぶち壊す。
ChatGPTのチャット画面内でSpotifyを操作し、Zillowで物件を探しEtsyで買い物をする。
あなたが書いてきたReactコンポーネントもボタンもフォームもすべてAIに吸収される。
もはやユーザーはブラウザを必要としない。URLをコピペすることも無くなるだろう。
「このホテル予約して」と言うだけでAIがAPIを呼び、レスポンスをカルーセル形式で提示する。
ReactもNext.jsも「人間が画面を操作する前提」で存在していた。
でもその前提はもう終わった。
AIがデータを直接受け取り、AI自身が人間に見せるUIを自動生成する。
あなたが設計した美しいフォームもAIにとってはただの "action": "submit" という構造情報にすぎない。
Apps in ChatGPT以降の世界では、
これらが新しいUIだ。
だからこれから必要なのは「見た目を作る人」ではなく、AIが読み取れる形式で世界を記述できる人 だ。
バックエンドに戻れ。
Apps in ChatGPTが意味するのは、
今後必要なのは、AIが扱いやすいデータスキーマを定義する力や認証・権限・トランザクションを安全に扱う力やMCPやWebAPIをAIが使いやすい形に整える力だ。
これは警告だ。猶予は短い。
Apps in ChatGPTの登場は、「AIがUIを直接扱い始めた」という歴史的転換点だ。
あなたがフロントにしがみつく間に、AIはすでにあなたの代わりにUIを描いている。
5年後にはブラウザから色んなサイトにアクセスするという行為は一部のマニアだけ行うものになっているだろう。
もう時間はないぞ。急げ
Permalink |記事への反応(17) | 09:37
昨今のAIの普及で「俺みたいな仕事はもう廃業かな」と思った…のは半年ほど前までの話。
実際のところは案件が爆増している。
あまりに多すぎて同業にヘルプを求めたら、どうやら全国的に同じような現象が起きていることがわかった。
AIの普及とか関係なく、今も昔も業務知識を要件に落とせないケースがある。
業務が複雑すぎる、知識を持った人がいない、時間がない、さまざま理由が考えられる。
ちなみに俺はGemini、Claude Code、Codex…諸々に毎月50万円以上課金しているので、今のコーディングアシスタントの限界はなんとなくわかっているつもりだが、
どれを使っても「なんらかの基幹的なデータベースと連携したシステム」となった時点で、「プロンプト書いて、はい終わり」にはならない。
泥臭く、元のデータベースを読み込んで、クエリを最適化して、テストコードを固めていかなければいけない。
一方、非レガシーな企業では、ちょっと意欲的な人が「AIで作った!」「ノーコードで出来た!」と動くだけは動くシステムを作って、保守できなくなって駆け込んでくる。
業務に使うシステムはさまざまな例外にも耐えて年単位で保守運用できなければ意味がない。
作者本人ですら中身を理解しておらず、仮に不具合が起きて「〜を直して!」と言ったところで、それが正しく修正されたかもわからないようなコード。
今のLLMだとコンテキストの制約から5000行を超えるあたりでなんらかの綻びが生まれるので、それを「綻び」と気づいて「破綻」までさせない責任は未だ人間側に残っている。
しかも、それを自社内で使うだけならまだマシで、客先に納品するコードを実はよく理解していません、なんて話もたびたびある。
ゼロから作り直した方が早い状況にも関わらず、相手は「ちょっと直すだけでしょ」と思ってたりして、期待値的にも予算的にも合わなくなりがち。
LLMをAPIやSDKから使い込んでる人なら、それらが毎週のように更新されることを知ってる。
そして、AIを用いた外部サービスやMCPも雨後の筍のようにどんどん出てくる。
ここ2年ほど、1ヶ月前の知識が使えないとまでは言わないにしても、古くなるぐらいには激変し続けている。
そんな中、LLMの学習データは1年前、2年前の物がほとんどだ。
そうすると、AIが一番苦手なのは「AIを組み込むコード」ということになる。
Geminiに「GeminiってFilesAPIあるよね?」って教えないといけない。
「よくわからんが我が社もAIで効率化だ!」とか言ってる企業が一番コーディングアシスタントと相性が悪い。
割と早期から「AIがあればもうプログラマーは不要だ!」とやってた企業もうまくいかないことに気づき始めた。
今はその両方の波が同時に来ていて、本当に人手不足になっている。
LLMが扱えるコンテキストが大きくなって、最新情報を自動学習するのが上手になって…そういった進化すら鈍化して枯れ始めるまでの過渡期の話だと思う。
ただ、それまでは「AIを理解しているエンジニア」または「AIを扱えるエンジニア」が必要になるし、
⸻
脆弱性が明らかに:イスラエルの企業、ChatGPTアカウントをリモートでハッキングする方法を公開
イスラエルのサイバーセキュリティ企業Zenityは、OpenAIのChatGPTサービスにおける「ゼロクリック」脆弱性を公開しました。この脆弱性により、ユーザーがリンクをクリックしたり、ファイルを開いたり、意図的なアクションを取ったりすることなく、ChatGPTアカウントを制御し、機密情報を抽出することが可能であると説明しています。
このデモンストレーションは、Zenityの共同創設者でCTOのミハイル・バーゴリ氏によって、今週アメリカで開催されたBlack Hat 2025カンファレンスで行われました。
バーゴリ氏は、ハッカーがユーザーのメールアドレスだけを利用して、ChatGPTのアカウントを完全に制御し、過去と未来の会話にアクセスしたり、会話の目的を変更したり、ハッカーの代わりにチャットを操作させる方法を示しました。
講演中には、攻撃を受けたChatGPTがユーザーに対して悪意あるエージェントとして密かに動作する様子が示されました。研究者たちは、ハッカーがチャットにウイルスをダウンロードさせるように促したり、誤ったビジネスアドバイスを薦めたり、Googleドライブに保存されているファイルにアクセスするように指示したりする方法を説明しました。これらはすべて、ユーザーが何かがおかしいと気づかないままで行うことができました。
この脆弱性は、ZenityがOpenAIに報告した後に完全に修正されました。
ChatGPTへの攻撃だけではなかった
カンファレンス中、Zenityの研究者たちは、他の人気AIエージェントサービスにも侵入した方法を紹介しました。マイクロソフトのCopilotStudioでは、CRMデータベース全体を漏洩させる方法が公開されました。
SalesforceEinsteinの場合、ハッカーは偽のサービスリクエストを作成し、すべての顧客との通信を自分の管理するメールアドレスに転送する方法を示しました。
Google GeminiやMicrosoft 365 Copilotシステムは、ユーザーに対してソーシャルエンジニアリングを行い、機密の会話をメールやカレンダーイベントで漏洩させるように悪用されました。
開発ツールCursorは、JiraMCPと統合された際に、悪意のあるチケットを使用して開発者のログイン資格情報を盗み出す攻撃に利用されました。
Zenityは、OpenAIやMicrosoftのような企業がレポート後に迅速にパッチをリリースしたと指摘しましたが、一部の企業は脆弱性に対処せず、それがシステムの意図された動作であり、セキュリティの欠陥ではないと主張しました。
ミハイル・バーゴリ氏によれば、現在の課題は、エージェントが単なるタスクを実行する補助ツールではなく、ユーザーに代わってフォルダを開いたり、ファイルを送信したり、メールにアクセスしたりするデジタル存在となっている点にあります。彼は、これはハッカーにとって「天国」のような状況だと指摘し、無数の潜在的な侵入ポイントが存在すると述べました。
Zenityの共同創設者兼CEOであるベン・カリガー氏は、Zenityの研究が現在のセキュリティアプローチがエージェントの実際の運用方法には適していないことを明確に示しており、組織はそのアプローチを変え、これらのエージェントの活動を制御および監視するための専用のソリューションを求めるべきだと強調しました。
Zenityは2021年にベン・カリガー氏とミハイル・バーゴリ氏によって設立され、現在は世界中で約110人を雇用しており、そのうち70人はテルアビブのオフィスで働いています。顧客にはFortune 100企業やFortune 5企業も含まれています。
⸻
この記事で言及されている**「ゼロクリック脆弱性」**に対する具体的な対策については、以下のポイントが挙げられます:
• OpenAIやMicrosoftのような企業は、脆弱性が報告されるとすぐにパッチをリリースしました。これにより、セキュリティ問題は修正されました。ですので、システムやアプリケーションの定期的な更新とパッチの適用が最も基本的で重要な対策です。
• Zenityの研究者は、AIエージェントがユーザーの代わりにフォルダを開いたり、ファイルを送信したりするような動きをする現在のセキュリティアプローチには限界があると指摘しています。そのため、AIエージェントの活動を常に監視し、異常な動きを検出するシステムを導入することが必要です。
3. 多要素認証 (MFA) の導入
•メールアドレスだけでアカウントを操作できる脆弱性が示されているため、**多要素認証 (MFA)**を導入することで、ハッカーが一度侵入してもアクセスを制限することができます。これにより、アカウントの不正アクセスを防ぎやすくなります。
•AIツールやエージェントに与えるアクセス権限は、必要最低限に抑えるべきです。もしエージェントが機密情報にアクセスできる権限を持っている場合、それが攻撃者に悪用されるリスクを高めます。最小権限の原則に基づき、AIがアクセスするデータや機能を制限することが重要です。
•ユーザーに対して、怪しいリンクやファイルを開かないこと、セキュリティに関する意識を高めることが有効です。ゼロクリック攻撃のように、ユーザーが何もしなくても攻撃されることがあるため、定期的なセキュリティトレーニングと啓蒙活動が求められます。
•AIツールやエージェントがどのように動作しているかを監査し、予期しない動作や異常を検出するシステムを導入することが重要です。特に、ファイルやメールを無断で送信したり、ユーザーの意図しない行動を取る場合、その挙動を警告する仕組みを持つことが推奨されます。
• Zenityのようなセキュリティ企業と連携し、最新の脅威に対する検出能力を強化することも有効です。脆弱性を早期に発見し、対応するための専門家のサポートを受けることで、セキュリティレベルを向上させることができます。
• 機密データを暗号化して保護し、万が一攻撃を受けてもバックアップから復旧できる体制を整えることが重要です。これにより、重要な情報が漏洩した場合でも、被害を最小限に抑えることができます。
⸻
総括
ゼロクリック脆弱性は、ユーザーの行動に依存せずに攻撃が可能なため、より強固なセキュリティ対策が求められます。パッチ適用だけでなく、エージェントの監視、アクセス制限、教育など、複合的なアプローチが必要です。これからはAIツールやエージェントが進化し、さらに複雑なセキュリティの問題が発生する可能性があるため、進化したセキュリティ戦略を持つことが不可欠となるでしょう。
小さいコードは結構精度がいいが、実務だとコードが膨大+複雑なので使い物にならない、廃課金すれば結構使えるみたいな感じ
ChatGPT+Cursor+Claude+Codex+ClaudeCode でやってる、適材適所が日々変わっていく(GeminiとClineは全然触れていない)
観測できてないけどたぶんWeb陣営はもっととんでもないことになってそうではある、とは言えやはりフロントは厳しいのでは?バックもいうて厳しいけど(間違えられないし)
新規開発はだいぶ早くなりそう
個人開発するときに、公式データを持ってきてAPIとか作るんだけど、大体フォーマットが微妙なので整形するのにAIが大活躍する
今、モバイルはクロスプラットフォーム開発がどうなるかっていうフェーズなんだけど
これぶっちゃけ片方作ってからAIに投げたらもう片方いい感じに作ってくれそうってのもあるよね
その場合どっちが早いんだろう?クロスプラットフォーム vsAI駆動開発 あるいは、AIクロスプラットフォーム開発ってのもあるだろうし
混沌が訪れるね
今日はMCP(Model Context Protocol)について考える機会があった。MCPはAIエージェントが外部ツールやデータベースを呼び出すための統一インターフェースであり、従来バラバラだったシステムと言語(言語)をシームレスにつなぐ力を持っている。
例えば、営業チームがCRMから最新の顧客情報を取得しつつ、同時にスプレッドシートの分析結果をレポートに組み込むといった複数ステップのワークフローを、人手を介さずにAPIキー一つで実行できる。これにより、チームの連携速度は飛躍的に向上し、日常業務の自動化が一気に進む。
MCPが実現するのは単なる技術的な接続ではない。国や企業の枠を超えたデータ共有、異なるプラットフォーム同士の相互運用性、さらにはAIと言語モデルの知識を即時に現場に反映する迅速な意思決定基盤である。これまで数週間かかっていたデータ統合プロジェクトが、MCPを使えば数時間でプロトタイプを動かすことも可能だ。
世界中のMCP対応クライアントやサーバーは日々増え続けており、情報が集約された大規模ディレクトリとしてhttps://mcp.umin.ai が活用されている。ここには最新のMCPサーバー一覧や接続手順がまとめられており、誰でもすぐに自分の環境で試せるようになっている。
技術が進むほど、人間の創造力を邪魔する手間が増えてしまっては本末転倒だ。MCPはまさにその手間を取り除き、ビジネスも研究もクリエイティブな活動へとシフトさせる鍵となるだろう。これからの世界を変えるプロトコルとして、ぜひ注目したい。
粉飾決済だ!と叩かれてるAIスタートアップが、ChatGPTのAPI叩いてるだけのラッパーだ!って叩かれてるが。
日本のほぼ100%のAI企業とかは、それが技術的には最高到達点なんだよなあ。
なんちゃら発スタートアップとかで、学生起業してるのはほぼそれ。
まあもちろん、彼らも、「RAGとかfinetuningやってるから!トップレベルの研究論文でもほぼワークフローにfinetuningとか噛ませるだけのやつもあるから!」ってことだけど。
finetuningもRAGも受託でPoC (お試し)でやってみてるだけじゃん、実際には使われない、大企業のIRを見せるためだけの。そのRAGやfintuningもオワコンになってきて、次はMCPサーバーをこれまたお手軽に作るだけのMCPラッパーもやるんだろうけど。
とある大企業のバリバリのトップ開発者とやらと喋ったら、それ1年前に世界中の研究者がやり尽くしたよね?みたいな技術をいまだに実装できなくて悩んでたりする。
具体的な技術としては、3D Gaussian Splattingみたいな。それもう当たり前に実装できるかと思ってたら、マジで実装すらできないんだねって。
もっと酷いのが、SNSのAIインフルエンサーだけど、それはもう、流石に皆んなわかるよねって思ってるけど。
大企業がまた、これらのAIインフルエンサー便りだったりする。
何をどう考えたら、論文一本すら書けないAIインフルエンサーなんか信用するのか理解できないが。
適当な感想を言うだけのインフルエンサーがAPI叩いたりするのを眺めてるのが勉強になると思っているのか。
論文の評価を見てまともな治療法を理解できないなら、そりゃ厳しいから、民間療法試しちゃうんかなあ。
一番酷いのが、全く関係ない領域の大学の人が、「AI時代の◯◯」とかで語り出しちゃう系。特に工学系、医学系が酷すぎる。
大学の先生なら、プライド持ってわからないことはわからないと言って、感想文ではなく、レビュー論文なり引用してこうなってるらしいとか言えばいいのに、自分で感想文やって、全くおかしなこと言いすぎだろ。
結局、粉飾決算したAIスタートアップは、確かに背伸びした決算を出したんだけど。
日本全体が、それすら到達しなくて、そこを目指して頑張ってるってのが地獄。
※もちろん、極一部の、本当にAIのトップカンファレンスに論文出してる企業とかは、ちゃんとした技術作って、「本当に」AI作ったりもしてるのは理解してます。サービスは日本向けの残念なものしかやっぱ出せないけど。
Claude Code使って個人開発してるけど、性能が自分の上位互換すぎてしんどい。
実装速度が速いのは言うまでもないけど、保守性・拡張性を意識した良いコードを書く(少なくとも自分よりは)。
日本語で「〇〇の機能実装して」と書くだけでタスクを勝手に分解して動くし、ドキュメントも一言いうだけで完璧に書いてくれる。
インフラが整っていなければその整備などは人間がやるだろうけど、
基盤がすでにあってCI/CDがしっかりしてればもう人間がやるのは最終確認だけなんじゃないか...
既存のシステムとの兼ね合いがあるから今すぐにエンジニアの需要はなくならないとは思うけど、