もうUIはいらない。 この一言に尽きる。ChatGPTの新機能「Apps inChatGPT」が登場した瞬間、フロントエンドという職種の地盤は音を立てて崩れた。 これまでは、Webアプリやサービスは「フロントエンドでUIを作り、バックエンドでデータを返す」 という分業構造の上に成り立っていた。 だがApps inChatGPTは、その構造をぶち壊す。 ユーザーはもうWebサイトを開かない。ChatGPTのチャット画面内でSpotifyを操作し、Zillowで物件を探しEtsyで買い物をする。 つまりUIはChatGPT内に統合される。 あなたが書いてきたReactコンポーネントもボタンもフォームもすべてAIに吸収される。 「UI」はAIが自動生成する時代に入った もはやユーザーはブラウザを必要としない。URLをコピペすることも無くなるだろう。 「このホテル予約して」と言うだけでAI

はじめに 昔からサービスの運営者を困らせてきたものはいくつかあると思いますが、 特に代表的なのが “自動化による悪用” です。スクレイピングによる無断データ収集や、予約システムを狙ったボット、さらには不正ログインを試みる自動化ツールなど、その形は時代とともに多様化してきました。 X (旧Twitter) には、今でも詐欺DMを送るボットが多いです。(自分は毎日来ます。) また、大阪万博の予約を勝ち取るために、サーバーに過度の負荷をかける形で自動化が悪用された事例もあります。 そして、最近はAIを利用した巧妙なものも増えています。 この記事を読んで、そのような事態に対処できるように知識が少しでも増えれば良いな、と思っています。 ぜひ少しでも役に立てば、いいね・他SNSへの共有など、よろしくお願いします!! 実例 2025年現在、大阪万博なる物が開催されており、DX化の一環として予約をウェブ

Linuxカーネルのソースコード公開ページなど、一部のウェブサイトにアクセスした際に「虫眼鏡を持ったケモ耳少女のイラスト」に遭遇した経験がある人は多いはず。このケモ耳少女画面は自動ボットからの過剰アクセスを避けるために開発されたもので、ウェブサイトの保護に役立っています。 Anubis: WebAI Firewall Utility | Anubis https://anubis.techaro.lol/ 以下はFFmpegのソースコード公開ページにアクセスした際のスクリーンショットです。ケモ耳少女のイラストとともに「あなたがボットではないことを確認しています!」というメッセージが表示されています。 このケモ耳少女画面は「Anubis」というボットブロックプログラムのものです。Anubisの公式サイトには「HTTPリクエストの魂の重さを測り、ウェブサイトを保護しよう!(Weigh the

HTTP/1 Must DieIt's time to acknowledge HTTP/1.1 is insecure Upstream HTTP/1.1 is inherently insecure, and routinely exposes millions of websites to hostile takeover. Vendors have spent six years deploying mitigations, and researchers have consistently bypassed them. In PortSwigger's latest research, we introduce several novel classes of HTTP desync attack, and showcase critical vulnerabilities w

多くのウェブサイトでは閲覧時に「Cookie」の使用許可を求めるポップアップが表示されます。ところが、このポップアップには「すべて許可」というボタンはあるのに「すべて拒否」というボタンがないことがほとんどで、拒否するには数回クリックしなければなりません。このような状態は不適切で、拒否も許可と同じくらい簡単にできるべきだとして、ドイツの裁判所が是正を求めました。 OH_Digitale_Dienste.pdf (PDFファイル)https://www.datenschutzkonferenz-online.de/media/oh/OH_Digitale_Dienste.pdf Urteil zu manipulativemCookie-Banner: „Alles ablehnen“-Schaltfläche ist ein Muss | Der Landesbeauftragte für

Hey, dipshit! You know what loads faster than yourbloated, overengineered mess? Plain, unadulteratedHTML. And you know what doesn'tbreak everymotherfucking Tuesday?HTML thatjust fucking works. Why the fuck are you overcomplicating things, you masochistic fuck? You're out here acting like you'rebuilding the nextgoddamn moon landing when all you need is a button and sometext. Newsflash, ass

Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 現在のブラウザは、いちどカメラやPUSH通知の権限要求を拒否すると、その後要求プロンプトを出すことができません。 Webサイトができることは、『〇〇を許可してください』とウィンドウを出すことくらいです。 ↓人類史上最悪の許可要求ウィンドウの例 この後設定欄から各機能を有効化するためには、ユーザによる絶対的能動的な操作が必要となります。 また、プライバシーとセキュリティ設定から許可しない設定をしておくと、たったの一度すらもチャンスが与えられず、一生権限を要求することはできません。 結果としてPUSH通知の権限要求などは、9割以上のユーザが

Webを巡回してAIモデルの学習に使う情報をかき集めるクローラーの横行に対し、反発が強まっている。Webサイト側で対策を講じてもかわされてしまう現状に対抗して、ある海外ユーザーが迷惑クローラーを“出口のない落とし穴”に閉じ込めて撃退するプログラム「Nepenthes」を公開した。 Nepenthesの名称は、昆虫を袋の中に閉じ込めて捕食する食虫植物「ウツボカズラ」(ネペンテス)にちなむ。これをひそかにWebサイトに仕掛けておけば、Webクローラーによるコンテンツ収集を阻止できるという。さらに「攻撃的な」オプション機能を有効にすれば、クローラーに時間と処理能力を延々と浪費させ、AIモデル学習用データの汚染を狙うこともできるという。 同ツールがベースとしているのは、サイバーセキュリティ業界で迷惑メール対策として使われる「ターピット」と呼ばれる手法。ターピットは「タール穴」の意味で、Nepent

以下の公開計測会でやったものを個別に解説してみる。 細かいテクニックが多いのだが、それを可能な限りテキストとスクショで解説したい。使い方の解説が中心で、どういう意味があるかは解説しない。Chrome131時点のスクリーンショットで、後で読む場合は頻繁にUIが変わっている点に注意。大事なのは意図。 宣伝: これを御社のサイトで解説する仕事をやっています。 デモのURL これに意味はなく、今日偶然見ていただけで意図はない。関係ないがエッジランナーズは最高のアニメ。 DevTools を開く F12 or 右クリックから「検証」 DevTools > Lighthouse この状態で計測 このとき、新しいプロファイルを作ったりして、可能な限りChrome拡張が入ってない状態にすること。Chrome拡張による処理も計測に含まれてしまう。 Lighthouse レポートの読み方 点数部分にマウス
概要 Webブラウザは、開発者にとってもユーザーにとっても、もはや日常の一部となっているほど身近なソフトウエアですが、近年のブラウザはあまりにも高機能かつ巨大になってしまったため、その仕組みを詳しく理解することは困難です。そこで、シンプルなブラウザをRustを用いて実装することによって、ブラウザ上でWebサイトを開くまでに何が起きているのかを理解することを目的とします。さらに、作成したブラウザを、別冊で解説・実装している自作OSの上で動かすことによって、ブラウザと更にその裏側を理解していきます。 目次 はじめに本書を読むにあたって 目次 第1章:ブラウザを知る──Webサイトを表示するアプリケーション ブラウザの役割❶──Webクライアントとしてのブラウザ クライアント/サーバモデル Webクライアント Webサーバ インターネットとWeb 通信プロトコル HTTP URLによるリソース
![[作って学ぶ]ブラウザのしくみ | 技術評論社](/image.pl?url=https%3a%2f%2fcdn-ak-scissors.b.st-hatena.com%2fimage%2fsquare%2f89329732397e3ace09f2d984eb91100fd70cf5f3%2fheight%3d288%3bversion%3d1%3bwidth%3d512%2fhttps%253A%252F%252Fgihyo.jp%252Fassets%252Fimages%252Fogp%252F2024%252F9784297145460.jpg&f=jpg&w=240)
記事作成時点で広く使われているHTMLレンダリングエンジンは、ChromeやEdgeの「Blink」、Safariの「WebKit」、Firefoxの「Gecko」の3種に絞られています。ごく少数の大企業や団体がウェブの将来の決定権を握る状況を打破するべく、「ゼロから書かれた新しいウェブエンジン」として「Gosub」の開発が進められています。Gosub Web Browser Engine https://gosub.io/Gosubは開発の初期段階で、現時点ではHTMLパーサーが「HTML5を正しく解析できる段階」まで開発が進んでおり、CSSパーサーは概念実証の段階です。また、JavaScriptのエンジンとして、記事作成時点ではGoogleが開発するV8が使用されていますが、Gosubはモジュール性を重視しており、将来的には開発者が好みのJavaScriptエンジンを選択できるよう

はじめに こんばんは! 皆さんは以下のようなすぐ消えてしまう要素をDevToolsで確認したいときはどうしますか? 常に表示されるようにわざわざコードを修正してから、DevToolsで要素を確認したりしていませんか?DevToolsをうまく使うことで、わざわざコードの修正をせずとも簡単に要素の確認をできるのでそのちょっとしたTipsのご紹介です! ①CSSイベントでの確認方法 まずはCSSイベントで要素の表示制御を行っているパターンでの確認方法です。以下のようにCSSイベントのhoverで表示制御をしている要素を例にDevToolsで確認する方法を見ていきましょう! import "./style.css"; export const Index = () => { return ( <div> <button className="myButton">Button</button> <

2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をピックアップして解説する連載「生成AIウィークリー」から、特に興味深い技術や研究にスポットライトを当てる生成AIクローズアップ。 今回は、「私はロボットではありません」でお馴染みのGoogleが開発する「CAPTCHA」(コンピュータと人間を区別するための完全に自動化された公開チューリングテスト)を突破するAIシステムを提案した論文「Breaking reCAPTCHAv2」に注目します。 ▲CAPTCHAを突破するAIシステム CAPTCHAは、ウェブサイトのセキュリティを向上させるために広く使用されている技術です。この研究は、そのシステムの効果を詳細に検証し、AI技術を用いてどの程度突破できるかを明らかにしま

2023年後半頃から、ブラウザの「戻る」ボタンを押すと、訪問したおぼえのないページが表示されることが増えた。そういうページは大抵、記事風の広告やサイト内の記事へのリンクが大量に並ぶという構成になっている。こんなレイアウトになってることが多い。 この手法はブラウザバック広告とかブラウザバックレコメンド (あるいはレコメンデーション) とか呼ばれており、国内外の複数のWeb広告会社がこれを提供しているようだ。 たとえば、こちらはGMOアドマーケティングの “TAXEL” が提供しているブラウザバックレコメンド。 【新たな収益・回遊源が誕生!】ブラウザバックレコメンド サイトから離れてしまうユーザーに対し、広告やレコメンド記事を表示させることで、収益化や内部回遊に繋げることを目的としているフォーマットになります。 ……というのがセールスポイントらしいのだが、サイトから離れる人は、サイトから離れた

Perplexityは生成AIを利用した検索エンジンであり、ユーザーの質問に対してAIが直接回答を生成できるほか、ユーザーのプロンプトに基づいたウェブページを生成する「Pages」という機能を提供しています。そんなPerplexityが、検索エンジンやAIトレーニングなどのボット(クローラー)を制御するテキストファイル「robots.txt」の指示を無視し、管理者がPerplexityの巡回を禁止したウェブサイトにもアクセスしていることが判明しました。PerplexityAI Is Lying about Their User Agent • Robb Knight https://rknight.me/blog/perplexity-ai-is-lying-about-its-user-agent/GoogleやBingなどの検索エンジンやChatGPTをはじめとする生成AIは、ク

ピュー・リサーチ・センターの調査 日本のメディアでも報じられたのでご存じの方もいるかもしれないが、米国シンクタンクのピュー研究所が最近発表した報告が話題となっている。 この調査は定期的にウェブ全体をクロール(ダウンロード)し、収集したデータをオープンデータとして提供する非営利団体Common Crawlのデータに基づくものだが、報告によれば、膨大な量のウェブコンテンツが失われつつあるという。 例えば、2013年のクロール時に存在したウェブページのうち38パーセントはすでに消失した。該当ページが削除されたか、ウェブサイトごと消滅したためである。また、2013年から2023年の間に存在したウェブページの4分の1が、2023年10月現在アクセスできなくなっている。消えるのは古いページだけではなく、2023年のクロールで存在したページのうち8パーセントがすでに利用できなくなっているそうだ。 ソーシ

リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く