Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録
< 最近のgoogle検索使えな... |セフレが既婚者かもし... >

2024-03-11

AIの生成技術なんて、リアルフェイクの見分けが完全に不可能になるのがもうすぐそこまで来てると思うけど

本当にそうなったときに、例えば刑事事件証拠としての画像動画真実性が担保されないっていう世界になるわけで

今までは画像動画自白証言よりも揺るがない客観的証拠として重視されてきたけど、それらが信用できなくなった後の世界では今後はどうやって事実認定するの?

AIに詳しい人教えて

Permalink |記事への反応(4) | 18:35

このエントリーをはてなブックマークに追加ツイートシェア

記事への反応 -
  • 「監視カメラの中に保存されたまま改竄も複製もされてないデータですよ」というのを証明できればいいんじゃね

  • 冤罪多発して最高に楽しい世界になる。全員苦しんで死ねwwwwwwwww

  • それはAI関係ない 手作業でえっちらおっちらフェイク画像/動画を作った時と扱いは一緒

    • 作るハードルが大幅に下がるのは一緒じゃ無いだろ 包丁でも人を殺せるからサブマシンガンの規制は同じで良いと言う様なもん

  • 画像に関して言うなら、C2PAと言う、画像の来歴、改変の有無などを記録する規格ができつつあって、それで対処すると言うことのようだよ。 企業がやってる生成系AIで作られたものに...

記事への反応(ブックマークコメント)

全てのコメントを見る

人気エントリ

注目エントリ

ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2026 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2026 Movatter.jp