
はてなキーワード:オプトアウトとは
労働時間規制(例:労働基準法の週40時間制限や残業時間上限など)がなぜ国家によって設けられているのかは、単に「労働者を守る」という話以上に、経済構造・政治哲学・社会政策が複雑に絡み合っています。以下で整理します👇
⸻
•長時間労働は労災・過労死・生産性低下に直結するため、国家が介入して制限してきました。
•日本では「過労死」という言葉が国際的に知られているように、健康被害との因果関係は強く、WHO/ILOの合同報告でも週55時間以上の労働は脳卒中・心疾患リスクを著しく高めるとされています【WHO/ILO, 2021】。
•労働市場は、各企業がコスト削減を競う中で労働時間を伸ばすことで賃金を抑える方向に向かいやすい構造があります。
•労働者1人1人が個別に「働きすぎない」という交渉力を持つことは難しく、囚人のジレンマが起きる。
• 「自分だけ早く帰る」と収入や評価が落ちる →結果的に全員が長時間労働せざるを得ない。
• こうした市場メカニズムの失敗を是正するのが、労働時間規制の重要な役割です。
•労働時間を短縮することで、一人当たりの雇用を分け合う効果もあります。
• これは特に戦後ヨーロッパで強調され、「労働時間短縮=雇用創出」として政策的に用いられました(例:ドイツの週35時間制)。
•国家は経済成長だけでなく、出生率維持・地域コミュニティの再生などの社会目的も持っています。
•労働時間が過剰だと、子育て・介護・市民活動に時間を回せず、社会基盤が弱体化するため、あえて経済合理性以外の時間の使い方を保障する方向に政策が向きます。
• 例:北欧諸国では「ワーク・ライフ・バランス」を福祉国家の柱と位置付けています。
⸻
一見、「市場原理に任せれば、労働者は過剰労働を嫌がって自らバランスを取る」ように思えるかもしれません。しかし、現実には次の構造的問題があります👇
企業は交渉力が強く、労働者は雇用依存度が高い自由な選択が機能しない
「他人が働いてるなら自分も残る」全体最適ではなく過労の均衡点に
多くの企業で成果より「労働時間」が評価される文化的要因自発的に短く働きにくい
日本などでは世帯単位での生活費を賄うため「残業前提」結果的に長時間労働の均衡が固定化
→つまり、市場は労働時間の「ちょうどいい」均衡を自動的には作れない構造的な特徴があります。
⸻
• 🇪🇺EU:EU労働時間指令により、週48時間を上限とする(オプトアウトあり)。休暇・余暇も制度として保障。
• 🇯🇵日本:労働基準法で週40時間+残業上限規制。実態としては「36協定」により緩和されてきたが、2019年から罰則付き上限規制が導入。
• 🇺🇸米国:時間規制は比較的緩いが、残業は割増賃金(オーバータイムペイ)で企業コストが上がる仕組み。
👉つまり、「労働時間をどう制御するか」は各国の経済政策×社会政策の価値観に深く依存しています。
⸻
🧭 4. まとめと含意
•健康被害の防止
が重なっています。
•市場任せでは構造的に「過剰労働」が起きやすいため、国家が介入して「適正水準」を社会的に決める必要があります。
いや、まずさ、某証券会社のインターフェイス。使いにくすぎるんだよね
なんで登録時に証券口座だけじゃなく、銀行口座を同時に2つも作らされるのかよくわからないし (オプトアウトするもんなのかもわからんし)
んで、某国産SNS。普通、RESTでも何でも良いけど、APIインターフェイスがはっきりしてたらアプリ版のあとにWeb版を実装するなんてのは簡単な話なのよ
要するに、インターフェイス(APIもUIも含む)の設計がクソなんだよね
複雑なごちゃごちゃしたものを作れる能力があるから、自頭は良いし実装力はあるんだろう
「こんなものは作りません」「こんなものを好きがってはいけません」
そういうのに抑圧された「ボクこれほしー」「こうすれば最強じゃんwww」が叶ってるんだよ。
クソみたいな発想で、作りたがらない、作ってはいけないと怒鳴る奴のいるようなものこそ下民は求められてるんだ。
パルワールドが売れたのと同じだ。
何がイメージブランドだ。何がクリエイターの矜持だ。欲しいものを与えなかったら欲しいものを得られるチャンスが来たら俺以外にも考えなしに手を伸ばす奴はいる。
どうせSora2からオプトアウトしたところで、近々中国製の同クラスのAIが出てきて好き勝手やりはじめる。
個人の「欲しい」を止められる力は今のコンテンツ業界にはありますか?AIを使って、表に出さない私的な消費に禁止を強制できますか?
2年前に下記にように書いたんだけど、懸念してた通りになりましたわね😒
2023-03-28
AIには学習データや調教が必要で、かつてのニコニコ・YouTubeみたいに法が整備される前に一般ユーザー集めた方が勝ちやぞ
ジャップランドはクリエイターや萌え豚をたくさん抱えているにも関わらず、PC音痴な人がぎゃおんして搾取されるだけなの、
マジなんとかした方がいいぞ
萌え絵は需要あるから、日本のクリエイターは海外AI勢にデータ学習で搾取され、萌え豚も萌え絵消費で海外AI勢に搾取される
真に日本がやらなきゃいけなかったのは、提携企業間ならクリエイターが自由にデータ学習を行えるようにする枠組みを作ることだったんやで
たぶん、ワイは100回くらい言った・・・・ってのはオーバーだけど、正直こうなることは、IT音痴以外のすべての人にとって知ってた速報だよね?
まぁ今からでも遅くない(?)から、ディズニーやマーベルみたいに、日本企業も圧力掛ける団体を作りつつの、
利害関係を丸めて企業間を超えてデータ学習をできる枠組みとクリエイター保護(学習に利用されたデータやそのデータを作ったクリエイターに報酬払う)は
やった方がええと思うよ
任天堂やセガやバンナムやサイゲなどの大手ゲーム会社や東映などの大手制作会社は上記でいい+法務部と顧問弁護士に任せるとして、
「個別にオプトアウトしてね⭐️」って言ったって、どこからやるの?だし、
二次創作(ただし、二次創作ガイドラインがちゃんと公開されてるやつね)はどうするんだろ?ってなる
年がら年中、反AI勢とバトルしてる某氏が、まんま東方projectの二次創作アニメ、
というか、これまんま満福神社(https://youtube.com/@manpukujinja)じゃん・・・なPVを作っていて、
東方知ってる人がこれをSNSに公開するのは流石にダメくない?って思ったら・・・・なななななななななななな・・・なんと!!!!!!!!!!!!
下記一行を Sora2ちゃんに打ち込むだけで、満福神社っぽいキャラデザのPVアニメ出来ちゃうんだよね・・・
霊夢と魔理沙と咲夜とレミリアが出てくるアニメOP風のPV
別に某氏が満福神社を狙い撃ちしたんじゃなくて、Sora2ちゃんというかOpenAI が満福神社でトレーニングしただけですの
ほんで学習データがほぼ満福神社だから、そのまま満福神社風がお出しされるってだけみたいやね
(プロンプトがこの短さだとさすがにクオリティはガチャだが、キャラデザとポーズが満福神社っぽい)
満福神社は、バトル気質で炎上したり、なぜかキャラの裸絵を公開してたりなので(ただし東方はウマ娘と違って公式で禁止されてはいない)、
正直、同サークルに対して思うところが何もないわけではないんだけど、素晴らしいアニメを描くってことに対しては異論ないのよね
レイアウト、キー・フレームというかポーズ?、キャラデザが、パッと見は間違い探しレベルでそっくりで、
明らかに違うのは中割りだけみたいなアニメを単純なプロンプトでポン出しされるのは、流石に気の毒では?感
『嫌ならオプトアウトしろ、訴えろ』は、さすがに無法者が過ぎるので、
日本政府も制作会社もIPホルダーも『自分の縦割りのことしか考えない』はやめて、大連合して黒船に立ち向かって欲しいところですわね
そして黒船に立ち向かって欲しいって書いたところで、日立がOpenAI と提携とかいう、ほげぇぇぇぇってなるニュースな?
データセンター&電気周りだけなら、ふんふん、日立の強みを活かせる分野だ🧐なんだけど、
どうも生成AI分野やAIエージェント分野でも協業するみたいな書かれ方してんのよね・・・
えっ・・・日立の Lumadaちゃんはどうしたの?MS とOpenAI のソリューションを導入するSI屋(黒船代理店)になることにしたの?みたいな・・・
今こそ日立のやってること紹介にリリース出すタイミングじゃないの?
https://www.hitachi.co.jp/New/cnews/month/2024/08/0828c.html
あと日立は公共事業部持ってて、公共インフラの構築も請け負ってるわけだけど、
えっ・・・日本政府も公共事業請け負ってる大大大企業も国産AIどうした?ってなる
『なんちゃってプライベートクラウド 〜謎の東京DC集中&DR/BCP消滅を添えて〜』とかをかますくらいなら、素直にAWS やAzure 使えやとはなるし、
ゼロトラスト実現しよ?データ主権とかデータドリブンとかいう前にまずデータしっかり置こう?フルスクラッチで約束された失敗をかますくらいなら、
とりあえず、MSソリューションでいいよ(旧Google App/G Suite、現GoogleWorkspaceで通った道)ってなるけどさぁ、
インフラを請け負う大企業こそ、国と連携してデータ主権を守る姿勢を見せないと、国民のデータまで海外勢に握られることになりかねないやで
日本政府も大企業もスイスの国産AIくらいの頑張りは見せて欲しい
2024年7月、EPFL(スイス連邦工科大学ローザンヌ校)、ETHチューリッヒ(チューリッヒ工科大学)、スイス国立スーパーコンピューティングセンター(CSCS)は、大規模言語モデル(LLM)開発に関する共同プロジェクトを発表。
そして今、その成果が現実に:**スイス初の大規模・多言語・オープンなLLM「Apertus」**が公開された。
このモデルは、AIチャットボット、翻訳システム、教育ツールなど、あらゆるアプリケーションの基盤として開発者や組織に活用されることを想定している。
「Apertus(アペルトゥス)」とはラテン語で「開かれた」という意味。
この名前が示す通り、このモデルは以下すべてが完全公開・ドキュメント化済み:
ApertusはApache2.0ライセンスで提供されており:
• 商用利用もOK
•モデルサイズは**8B(80億)と70B(700億)**の2種類(小さい方は個人利用向き)
•ダウンロードはHugging Face経由、もしくはSwisscomプラットフォーム経由で利用可能
Swisscomや他のパートナー経由で、プロジェクトに組み込むこともできる。
「一部だけ公開」な他モデルと異なり、Apertusは“完全オープン”がモットー。
「信頼できる、主権を持った、包摂的なAI開発のリファレンスモデルを提供したい」
このプロジェクトは「研究→産業への技術移転」ではなく、イノベーションとAIスキル強化の起点として位置づけられている。
Thomas Schulthess(CSCS所長)はこう述べている:
「Apertusは新たなAIスキルと応用力を生み出す“触媒”になる」
Apertusは15兆トークン、1,000以上の言語で学習。
データの40%が非英語で構成され、スイスドイツ語やロマンシュ語など、他LLMで無視されがちな言語も多数含まれる。
「Apertusは“公益のためのAI”として設計された数少ないモデルの一つ」
— Imanol Schlag(ETHチューリッヒ上級研究員・プロジェクト技術責任者)
SwisscomはApertusを自社の「スイス主権AIプラットフォーム」でホスト。
Swiss {ai} Weeks では、開発者が実際にモデルを試し、フィードバックを提供する初の実験機会が設けられる。
「Apertusは公共の利益とスイスのデジタル主権のためのモデルです」
—Daniel Dobos(Swisscomリサーチ責任者)
スイス国外のユーザー向けには、PublicAI Inference Utility(PAIU)を通じてApertusが利用可能に。
「これは道路、水道、電気と同じく、“公共インフラとしてのAI”を示す証明だ」
Apertusはトレーニング全工程を再現可能な形で完全公開。
そして何より、以下の法的・倫理的ガイドラインを尊重して開発されている:
•著作権法
•パブリックデータのみ使用、機械判読可能な除外リクエストに対応
「Apertusは“パワフルかつオープンな生成AI”の実現可能性を証明した」
— Antoine Bosselut(EPFLNLP研究室長・SwissAI共同責任者)
これは完成形ではなく、始まり。
今後のバージョンでは:
https://actu.epfl.ch/news/apertus-un-modele-de-langage-multilingue-ouvert-et/#
画像生成AIをめぐる議論が白熱する中、自身はプロ漫画家として40年以上、現行の著作権法の恩恵を受けてきた。
「無断学習」問題について、安易な規制は既存のクリエイターを困らせるとし、まずは「人間の学習」と「機械の学習」を切り離して考えるべきだと主張。
AIは道具であり、その性質と成り立ち、使用する人間の所業こそが問題だと考えている。
AIは新しい道具の一つであり、拒否反応は過去の新しい技術(スクリーントーン、デジタルツールなど)導入時にも見られた歴史の繰り返しだと捉えている。
「無断学習」に対する憤りは、学習元に尊敬と感謝がない点にあるとし、自身の倫理観と感情論であることを認めている。
自身が「画材はAIでもいい」とSNSに投稿したことで炎上したことが、この問題に関わるきっかけとなった。
その後、被害者や弁護士、開発者など、多岐にわたる関係者を集めた勉強会を主催。
法律を作る側(政治家)の考えを知るため、議員会館に足を運び、現状を訴えた。
当時は自分自身も勉強不足であり、様々な意見を聞いて判断する段階だったと述べている。
AIとの共存のためには、「データセットの情報開示の義務」「簡単なオプトアウトシステム」「AI生成のラベリング」が必要ではないかと提案。
今後、AIを使った漫画が多数現れるだろうが、それは新しい技術を持った作家だと捉え、プロ同士の切磋琢磨を楽しみたいとしている。
自身の考えは、あくまで漫画家としての個人的な心境であり、他業界に押しつけるものではないと断っている。
技術の進化とそれに伴う摩擦を冷静に見つめ、感情論だけでなく、法制度や倫理、歴史的背景を交えて多角的に考察している。
安易な規制や感情的な対立ではなく、対話を通じて解決策を探っていく姿勢を示している。
https://x.com/WANPOWANWAN/status/1954901931203428818
「画像生成AIの使用で被害に遭っている、なんとかかならんか?」との内容でした。
この時点で自分はうっすらとしかこの話題を認識していませんでした。
前年に漫画家協会内でも議題となりましたが「詳しい人に任せよう」というノリでした。
4月に漫画家志望の若い方へ呼びかけるポストをしていたときでした。
どうやら地雷を踏み抜いたようです。
「今度はなんだー?」くらいの鈍感さでしたが
「立場がある人間がそういう発言を無神経にするな」という意見があまりにも多く
Hさんに話を聞いていたのもあり、「どうやら深刻そうだ」と調べてみることにしました。
まず自分の炎上に加担していた人達を呼んで事情を聞くことから始めました。
[被害者とその周辺の方、弁護士、政治関係者、アニメ業界の方、声優さん、
当然業種により賛否があり、答えが出るハズもなく、主に話し合ったのは
「今何ができるのか?どこを目指せばいいのか?」でした。
法律を作る側は今何を考えこの問題がどんな状態なのか知りたくて、
帯同した者達は被害の深刻さと今後どうしてほしいかを訴えていましたが自分はほぼ黙っていました。
この時Hさんと作ったチラシを持参していました。
「とにかく言いたいことを盛り込みなさい、後から引き算すればいい」と作ったものです。
それと並行して現状を訴えて政治家さんがどんな反応をするのか、
どこまで把握されているのかを見ていました。
自分はまだ勉強不足で、出会った人たち全ての意見を聞いて反応を見て
勉強不足と書きましたが自分なりに本を何冊か買って読んでみたのです。
横文字が多く、読む作業より単語をググる作業に時間が費やされ、
遁辞の意味は自己に理解すれど 1/100 も理解できません。
すがやみつき先生にいただいた本が一番わかりやすかったんです。
「なんで? どうして?」というスタンスでから炎上しながらも、沢山の情報が入ってきました。
6月くらいにはずいぶん自分の中で整理できていたように思います。
・扱いによって道具は凶器になる
その性質が劣る方面では著作権侵害の塊とみなされますが、自分はそれを断定できません。
プロ漫画家として40年以上現行の著作権法の恩恵を受けてきました。
それを守りそれに助けられてきた立場から、越境する発言はできません。
そこは徹底的にドライです。
手続と窓口を間違えそれがらが必要と判断される程の声を届けることが重要なのかと思います。
何故それをしないのか甚だ疑問です。
未だバフコメ以上のものは見えず、疎情報自体も知られていません。
政治家さん達の動きが鈍く感じられるのも当然です。
『他責にするな、他力にするな』
コレを自分はドライな言い回しでポストするので反感を買う一因となっているのかもしれません。
規制を求めるとして、考えねばならないのは
良かれと用意し立法したものが現場活動の邪魔になる例はあります。
一度立法された法、条例を撤廃するのは並大抵のものではありません。
コレに安易に規制をかけようと既存のクリエイターも困ることになります。
「人間の学習」と「機械の学習」を感情論抜きに切り離すロジックを確立しなければならないとは思います。
その量を棚上げして、現行の著作権法に抵触していないものに人間であれ機械であれ咎めることはできません。
(わししか法や条項で機械の学習がダメとされたらその時は堂々と咎めます)
そうこう考えている間に並行して色々なことが起きました。
特に声優さんが決起した『NOMORE 無断生成AI』は大拍手で、
無断でなければ共存共栄していきましょうという意味と受け取りました。
その業界の方々が最大譲歩した呼びかけをしたのです。
感動しました。
一人ユースプメントになると思いました。
ところがこうしたすぐ手の甲が上り、
規制を求める味方のはずの人達から責められトーンダウンすることになります。
「いつでも譲歩してはいけなかったのですか」ね。
『著作権者が自らの著作物をAI学習にさせたい場合には、その意向が尊重される仕組みが必要である
と考える(要約)』というクリエイターに寄り添った内容のパブリックコメントを提出しています。
2024年2月の「文化庁のパブコメ結果(団体)」のP175に記載されています。
「外部に声明を出すべき」との意見もよく見ますが、省庁内で各著作権団体の集まる会議に参加し
て内部で発言しているので、外部から発信する必要がないのです。
スクリーントーンが登場した1960年代に「楽してる」とスミ指定の時代の誰かが言ったそうです。
初期は糊面に印刷がされていて、表からホワイトでグラデーションをつける作業が必要でした。
そののち表面印刷になり、削りが可能になった時、やはり「楽してる」と思った人はいたようです。
(ここまでが伝聞です)
当時トーンは高価だったためか手描きのカフアウゼが正義とされる風潮もありました。
ミリペンでコマ割をするようになった時は「カラスロを使え」と言われ、
コピック登場の際には「今の若い連中は筆も使えない」と言われ、
それも当初「ペンや紙の使い方知らない」と言っていた人もいます。
一方でで多くのこれまでの漫画家は道具の進化を歓迎し今に至りました。
生成AIは現在最も新しい道具の一つですから拒否反応もあるのでしょう。
問題視するとしたら、その性質と成り立ち、使用する人間の所業かと思います。
嫌悪となりますが「人間の無断学習」は多くの場合そこに尊敬と感謝が含まれます。
学習元にリスペクトの無い「機械の無断学習」に憤りを感じるのは当然です。
常識しかないと申しつけますが、先人の積み重ねを瞬時に手に入れられると仮定して、
その学習元を見下す発言、冷笑、嘲笑、悪用する手法諸々、あっていいことではありません。
足りないなりに導き出した「あったらいいな」が以下です。
ここが整えば、少しは混乱が減るかなと思います。
(今年1月に出席したMANGA議員の場でも生成AIの話題は出ており、
気にかけている議員さんは少なくないです。広く深い議論を期待します)
提案していてズッコケなのですが、自分が積極的に動く覚悟はないのです。
答えが出せないことが多いのです。
「楽しんでね」と黙認しており、それは使用道具がなんであれ同じと考えるからです。
当然【人間でも機械使用でも一線を越えたものには強い処分】を考えます。
しかし多少の緩さがないと後に続く文化の裾野が広がらないと思うのです。
このへんとても難しいですね。
すでに存在はしていますが、この先、生成AIを使用した漫画も多く見かけることになるでしょう。
自分の横に並ぶかもしれません。
或いはもう並んでいるかもしれません。
その最中できっと多くの学びがあるはずです。
その繰り返しと積み重ねです。
負けたら勝つ方法を考えればいいし、必要とされない時代がきたら去るだけです。
ずっとそういう業界に身を置いてきました。
これからも僕がやるべきことは変わりないのです。
ツラツラと書き続けましたが、漫画業界と、アニメ、イラスト等の隣接する業界は似て非なるものです。
押しつけるものでもありません。
「画像生成AIの使用で被害に遭っている、 なんとかならんか?」 との内容でした。
この時点で自分はうっすらとしかこの話題を認識していませんでした。
前年に漫画家協会内でも議題となりましたが 『詳しい人に任せよう』 というノリでした。
4月に漫画家志望の若い方へ呼びかけるポストをしていたときでした。
どうやら地雷を踏み抜いたようです。
「今度はなんだー?」 くらいの鈍感さでしたが
「立場がある人間がそういう発言を無神経にするな」 という意見があまりにも多く
Hさんに話を聞いていたのもあり、『どうやら深刻そうだ』 と調べてみることにしました。
まず自分の炎上に加担していた人達を呼んで事情を聞くことから始めました。
[被害者とその周辺の方、弁護士、政治関係者、アニメ業界の方、声優さん、
当然業種により賛否があり、答えが出るハズもなく、 主に話し合ったのは
『今何ができるのか? どこを目指せばいいのか?』でした。
法律を作る側は今何を考えこの問題がどんな状態なのか知りたくて、
帯同した者達は被害の深刻さと今後どうしてほしいかを訴えていましたが自分はほぼ黙っていました。 この時Hさんらと作ったチラシを持参していました。
『とにかく言いたいことを盛り込みなさい、 後から引き算すればいい』 と作ったものです。
それを渡して現状を訴えて政治家さん達がどんな反応をするのか、
どこまで把握されているのかを見ていました。
自分はまだ勉強不足で、出会った人たち全ての意見を聞いて反応を見て
勉強不足と書きましたが自分なりに本を何冊か買って読んではみたのです。
横文字が多く、 読む作業より単語をググる作業に時間が費やされ、
『なんで?どうして?』というスタンスですから炎上しながらも、 沢山の情報が入ってきました。
6月くらいにはずいぶん自分の中で整理できていたように思います。
・扱いによって道具は凶器になる
その性質がある方面では著作権侵害の塊とみなされていますが、自分はそれを断定できません。プロ漫画家として40年以上現行の著作権法の恩恵を受けてきました。
それを守りそれに助けられてきた立場から、 越権する発言はできません。
そこは徹底的にドライです。
手順と窓口を間違えずそれらが必要と判断される程の声の塊を届けることが重要なのかと思います。 何故それをしないのか甚だ疑問です。
未だパブコメ以上のものは見えず、陳情団体も知られていません。
政治家さん達の動きが鈍く感じられるのも当然です。
『他責にするな、 他力にすがるな』
コレを自分はドライな言い回しでポストするので反感を買う一因となっているのかもしれません。
規制を求めるとして、考えねばならないのは
良かれと用意し立法したものが現場活動の邪魔になる例はあります。
一度決議された法、条例を撤廃するのは並大抵のものではありません。
コレに安易に規制をかけてしまうと既存のクリエイターも困ることになります。
「人間の学習」と「機械の学習」を感情論抜きに切り離すロジックを確立しなければならないと思います。自分は先輩達の漫画を散々無断学習してきた身です。
その事を棚上げして、 現行の著作権法に抵触していないものを人間であれ機械であれ咎めることはできませ ん。(しかし法や条項で機械の学習がダメとされたらその時は堂々と咎めます)
そうこう考えている間に並行して色々なことが起きました。
特に声優さん達が決起した 【NOMORE無断生成AI】 は大拍手で、
無断でなければ共存共栄していきましょうという意味と受け取りました。 声の著作権は現在ありません。
その業界の方々が最大譲歩した呼びかけをしたのです。
感動しました。
一大ムーブメントになると思いました。 各業界も続く可能性も考えられました。
ところがコレにすぐ火の手が上がり、
規制を求める味方のはずの人達から責められトーンダウンすることになります。
一つでも譲歩してはいけなかったのですかね。
『著作権者が自らの著作物をAI学習にさせたくない場合には、その意向が尊重される仕組みが必要である と考える(要約)』というクリエイターに寄り添った内容のパブリックコメントを提出しています。2024年2月の 『文化庁のパブコメ結果 (団体)』のP175に記載されています。
「外部に声明を出すべき」 との意見もよく見ますが、 省庁内にて各著作権団体の代表が集まる会議に参加し て内部で発言しているので、外部から発信する必要がないのです。
スクリーントーンが登場した1960年代に 「楽してる」とスミ指定の時代の誰かが言ったそうです。 初期は糊面に印刷がされていて、表からホワイトでグラデーションをつける作業が必要でした。
そののち表面印刷になり、 削りが可能になった時、 やはり 「楽してる」 と思った人はいたようです。 (ここまでが伝聞です)
当時トーンは高価だったためか手描きのカケアワセが正義とされる風潮もありました。
ミリペンでコマ割りをするようになった時は 「カラス口を使え」と言われ、
コピック登場の際には 「今の若い連中は筆も使えない」 と言われ。
それも当初「ペンや紙の使い方も知らない」 と言っていた人もいます。
一方で多くのこれまでの漫画家は道具の進化を歓迎し今に至りました。
生成AIは現在最も新しい道具の一つですから拒否反応もあるでしょう。しかし機械であり道具であることは間違いありません。
問題視するとしたら、その性質と成り立ち、使用する人間の所業かと思います。
雑感となりますが 「人間の無断学習」は多くの場合そこに尊敬と感謝が含まれます。学習元にリスペクトの無い 「機械の無断学習」 に憤りを感じるのは当然です。
常に感謝しろとは押しつけませんが、 先人の積み重ねを瞬時に手に入れられると仮定して、 その学習元を見下す発言、冷笑、嘲笑、悪用する手法諸々、 あっていいことではありません。 この問題がここまで拗れた原因の一つがコレなのだと思います。
ここまで読んでいただいた方はすでにおわかりだと思いますが、
足りないなりに導き出した 『あったらいいな』 が以下です。
ここが整えば、 少しは混乱が減るかなと思います。
(今年1月に出席したMANGA議連の場でも生成AIの話題は出ており、 気にかけている議員さんは少なくないです。 広く深い議論を期待します)
提案しておいてズッコケなのですが、自分が積極的に動く覚悟はないのです。 答えが出せないことが多いのです。
「楽しんでね」と黙認しており、 それは使用道具がなんであれ同じと考えるからです。
当然 【人間でも機械使用でも一線を越えたものには強い処分】 を考えます。
しかし多少の緩さがないと後に続く文化の裾野が広がらないと思うのです。
このへんとても難しいですね。
すでに存在していますが、この先、 生成AIを使用した漫画も多く見かけることになるでしょう。自分の横に並ぶかもしれません。
或いはもう並んでいるかもしれません。
その最中できっと多くの学びがあるはずです。
その繰り返しと積み重ねです。
負けたら勝つ方法を考えればいいし、必要とされない時代がきたら去るだけです。
ずっとそういう業界に身を置いてきました。
これからも僕がやるべきことは変わりないのです。
ツラツラと書き続けましたが、漫画業界と、アニメ、イラスト等の隣接する業界は似て非なるものです。
押しつけるものでもありません。
https://digikar.m3.com/policies/terms
本規約の中でも特に慎重な検討を要するのが、契約者データ(患者の個人情報を含む医療データ)から作成される匿名加工情報および統計情報に関する一連の条項です。
契約者は、当社に対し、契約者データに基づく匿名加工情報および統計情報の作成を委託し、これらを当社に提供するものとされています 。この「委託し」「提供する」という表現は、契約者がこのプロセスに能動的に関与して、契約者が当社に提供するために匿名加工情報および統計情報を用意する必要があることを示し、そのために情報の作成を委託し、作成された情報を提供することを意味します。これはオプトアウト(拒否)の選択肢が規約上は見当たらない、必須の協力事項と解釈されます。
さらに重要なのは、契約者は、匿名加工情報の作成を当社に委託し、作成された匿名加工情報を当社に提供するにあたり、匿名加工情報に含まれる個人に関する情報の項目およびその提供の方法を、当社の指定するポスターを含む院内掲示等により自ら公表するものとされている点です 。これは、患者に対する透明性確保の責任を契約者である医療機関が負うことを意味します。この公表義務を怠った場合、法令違反のリスクを医療機関が直接負うものと解釈されます。
また、契約者は、匿名加工情報の安全管理、苦情処理その他適正な取り扱いを確保するために必要な措置を自ら講じ、その責任を負うものとされています 。当社が匿名加工情報を作成・利用するにもかかわらず、その元となる情報管理や患者からの苦情対応の一次的な責任が医療機関側に残る形となっています。
そして、契約者は、当社およびグループ各社が、施設を特定可能な情報とともに本件匿名加工情報および本件統計情報を特定の範囲で利用することを許諾するものとされています 。 これは、契約医療機関のデータ(患者個人は匿名化されているが、どの医療機関のデータかは識別可能)が、グループ全体の事業(新サービス開発、既存サービス改善、マーケティング活動など)に広範に活用されることを意味します。医療機関は、本サービスを利用することで、間接的にグループのデータ収集・活用戦略に組み込まれることになります。
当社は、匿名加工情報および統計情報を第三者に開示することがあります。ただし、施設を特定可能な情報とともにこれらの情報を第三者(グループ各社を除く)に開示する場合は、契約者から別途同意を得るものとされています 。これは一定の歯止めですが、施設が特定できない形であれば、契約者の個別同意なく匿名加工情報・統計情報が第三者に提供される可能性があることを示唆しています。
さらに複雑なのは、当社が患者から許諾を得ることを条件に、当該患者に係る契約者データを当社に提供し、当社が配信したアンケート等の結果と契約者データを組み合わせて匿名加工情報・統計情報を作成・利用できるとしています。また、当社が契約者に対し特定の条件に合致する患者データの抽出を依頼し、合致した場合に当該患者を識別できる情報を受領の上、その情報に基づいて(当社が別途患者から同意を得て)アンケート等を配信できるとしています。これは、特定の条件に合致する患者を医療機関が抽出し、その(識別可能な)情報をグループに提供するという、より踏み込んだデータ連携の可能性を示しています。この場合、患者からの二重の同意(医療機関への医療情報提供の同意と、グループからのアンケート等受領に関する同意)の整合性や、患者への説明のあり方が極めて重要になります。
まとめるとこれらの条項群は、契約医療機関のデータが、単にサービス運営のためだけでなく、グループの広範な事業活動のための重要な資源として位置づけられていることを明確に示しています。医療機関が単にソフトウェアサービスを利用するという立場を超え、グループの広範な患者データ活用エコシステムに対して能動的にデータを提供する役割を担うことを意味し、規約上は拒否の選択肢がありません。この点は、契約の意思決定において、倫理的側面、運営上の負担、患者との関係性など、多角的な視点からの慎重な検討が不可欠です。医療機関は、このデータ提供と活用の範囲、匿名加工情報・統計情報とはいえ患者情報を自ら提供する責任、そしてそれに伴う患者への説明責任、法令違反のリスクを当社ではなく自らが直接負うことについて、契約前に深く理解し、受け入れられるかを慎重に判断する必要があります。
PimEyesという顔画像からネット上から同一人物の画像を探し出せるwebサービスがあるから、マジでストーカーに特定される危険性はあるぞ。
ストーカーがPimEyesを知っていたら、うっかりではなく簡単に意図的に見つけることができてしまう。
「ストーカーの間では常識らしいんです」くらい言って広報・人事の目の前でその危険性を見せてやれ。
顔画像を公開される危険性が高いなら、PimEyesから検索されないようにオプトアウトしておくのも選択肢のひとつ。でもPimEyesに個人情報渡す気持ち悪さはある。
https://pimeyes.com/ja/blog/pimeeyeskarahua-xiang-woxue-chu-surufang-fa
まあ、オプトアウトしても他にも似たサービスがあるから困るんだけどな。
試したことは無いが、FaceCheck というのもある。
これが話題になっていましたね、という話。
もしかしたらWEBデザイナとかUIデザイナ、工学デザイナあたりに興味を持っている人には面白い話かも・・・?
この手のUIを見るたび「どっちやねん」と心の中で叫んでる→オンオフ状態が分かりづらい「フリップフロップ問題」回避のために規格統一して欲しい。
「言いたいことはわかる、言いたいことはわかるが・・・」と電気工学系が畑の方々はおそらく「設計する側の苦悩もわかるんだよなぁ」ってなってるんじゃないでしょうか?
だって「単路スイッチはOFF-ONだけじゃない!」ですもの。
これが多くの人がイメージする2方向のスイッチで、ON時になんらかの機能を作動させるスイッチ。
デフォルト状態はOFFで、スイッチを作動させるとONになるというスイッチ。モダンなIT開発界隈ではよくオプトインとも称されますな。
OFF-ONスイッチとは反対でデフォルト状態はONで作動させるとOFFになるスイッチ。オプトアウトですな。
ここから素人の理解が困難になってくる、機能を作動させるONの逆は別の機能を作動させるONというスイッチ。
これを大衆へ理解させるユーザインターフェイス設計は困難を極める。
ON-ONスイッチとは反対で機能を停止させるOFFの逆は別の機能を停止させるOFFというスイッチ。
大衆へ「何故この様なスイッチが存在するのか?」を説明することすら困難になる。説明しても理解して貰えるのはほんのひと握りの人たちだけだ。
このスイッチング4パターンをどうやって大衆へ理解させられるか?がデザイナの腕の見せ所。
義務教育レベルの電気工学の知識があり、電気工作とかやったことがあるのならば上記の4パターンは「知っていて常識」みたいな知識だろうけれど、大衆は「1階と2階の2箇所で点灯消灯できる階段の照明電気回路」すらパッとまともに回路図を書けない・組めない人が大半なので決してそれは常識ではない。書けない・組めない方が常識なのだ。
そして、そんな初歩的な電気工作の知識がある人でも躓きがちなのが「スイッチング時に初期化」という概念です。
小難しく説明しても理解しにくいので例え話にしますが、早い話が自動車のマニュアルトランスミッションをイメージすると理解しやすいかな?と。
例えば4速マニュアルトランスミッションであればバックギアを無視するとON-ON-ON-ONの4方向のスイッチと仮定できますが、マニュアルトランスミッションには「ニュートラルという状態が存在する」んですよね。
つまり、ONとONの間にどっちつかずの状態があるわけで、マニュアルトランスミッションは必ずニュートラルを経由してONへスイッチするわけです。
これはマニュアルトランスミッションだけでなく、スイッチングを伴う場合はすべての製品サービスにおいて考慮して置かなければならない概念です。
そう「スイッチング時に初期化を必ず行わなければならないモノ」と「スイッチング時に初期化を絶対に行ってはならないモノ」が存在するということを。
即ち、誰がどう見ても単純なA-Bという2つの状態を切り替えるスイッチは、大まかに分類しても計8パターンものバリエーションが存在することになるのです!!!!
中にはこれまでの業務上の流れや都合、案件の内容によって「スイッチング時に初期化するヤツなんて居るんかぁ?」と思ってしまうプログラマやデザイナなども居るかも知れません。
これは仕方のないこと。それまでの業務が「スイッチング時の初期化を考慮しなくても良い仕事」ばかりだったわけですから、それがその人の常識でありルーチンであり、開発上の要件であったのですから。
しかし敢えて言うのであれば、それはこれまで散々言われている「未定義バグ」を誘発する実装にほかならない。単純なA-Bという2つの状態を切り替えるスイッチング動作というシンプルな機構にすら未定義バグは隠れているわけです。
そしてここに単純なA-Bという2つの状態を切り替えるスイッチングへ「スイッチング時に初期化を必ず行わなければならないモノ」と「スイッチング時に初期化を絶対に行ってはならないモノ」のほかに「スイッチング時の初期化を考慮しなくても良いモノ」という新たなパターンが追加されバリエーションは12パターンとなりました。
ユーザからしてみれば「いやその辺を何かうまい具合にするのがプロやろ」と言いたくなるのはわかります。
しかし件のTogetterをタイトルをよくみるとおかしなことがわかります。ここまでの説明をあらかた理解したのであれば気付くはずです「規格統一とは・・・?」と。
ていうか何なら大衆と比較して工学リテラシーが高いと思われているはてなブックマークのコメントですらスイッチングについてゆるふわな方々のコメントが散見しているのは明白で、更に工学リテラシーが低いと思われる大衆へ12パターンものスイッチング動作を明示するユーザインターフェイス開発は非常に困難が伴うわけです。
だってはてなブックマークユーザは「1階と2階の2箇所で点灯消灯できる階段の照明電気回路」すらパッとまともに回路図を書けない・組めない人」が大半で、その理解度のままはてなブックマークへコメントしますが、大衆は更にそれ以下の理解度です。この大衆に理解して貰える統一ユーザインターフェイス規格とは一体・・・?
そんな前提知識もないゆるふわな大衆が言うわけです「フリップフロップ問題回避のために規格統一して欲しい」と。
実はこのスイッチング動作の種別、当のプログラマやデザイナの中にも理解がゆるふわな方々が存在します。プロなのに。
大学や専門学校、高校の情報系学科でもちゃんと講義・授業で触れるんですよ。触れるんですけれども他の知識に比べて扱いが小さすぎて記憶から抜け落ちるんです。
これが電気系学科ならば違います。こんなのは基礎の基礎、単路スイッチが扱えなければ古き良きアナログICすらまともに扱えないわけですからしっかりとやります。
情報系学科でもCPUとかネットワークとかハードウェアやる人たちは結構しっかりと理解してるんですがソフト一辺倒のプログラマやデザイナには本当にゆるふわな方々が存在します。プロなのに。
つまりコレ、電気系と情報系の専門性が高まりすぎて距離があり、そのため双方を理解できる人材が稀少で、人材が稀少であるが故にフリップフロップ問題が起きがちというのが現代開発の闇なんですね。
ソフト一辺倒で育ってしまい「単純なA-Bという2つの状態を切り替えるスイッチング」の理解がゆるふわで、そのゆるふわ状態のままユーザインターフェイスの設計をチーム全体が行うため誰も気付かない。
決して馬鹿にしているわけではないのです。前述したように、中にはこれまでの業務上の流れや都合、案件の内容、要件によって各々個人の仕事上常識というのがあるという仕方のない事情があるわけです。
その常識がフリップフロップ問題を生んでいるんです。だって(その人の中で固定化した)常識ですよ?常識から脱却するのは非常に困難です。
大衆もプロモそれぞれの常識の中でコメントしており、それを擦り合わせられる人材というのは稀少人材と言わざるを得ないでしょう!
ただし、ここで重要なのは「平等(Equality)」と「公平(Equity)」の区別だね。
AI時代において、AIを戦略的に活用する能力を持つ人材は平等に評価され、逆にその能力を持たない人材も平等に評価される。
しかし、その結果が「公平(Equity)」かと言えば話は別。
AIに適した能力がない人が満足のいく結果を得られないのは「平等」な競争の結果に過ぎないが、それが「公平」かというとそうじゃない。
人間は様々な能力を持ち、それぞれが等しく尊い。すべての人が公平に評価されるべきよね。つか、AIの活用能力だけが特別に価値を持つ社会になると、不公平感が半端ない。
「あとかつてないレベルで平等でフラット」と言ったけど、これは完全な平等を意味するわけじゃない。エネルギー資源の偏在など、地域や国による構造的な格差は引き続き存在する。
ただ、真の才能と情熱があれば、これらの障壁は乗り越えられる範囲に収まるんじゃないかな?
(一方で、電気さえ満足に使えない地域の人々は、テクノロジー先進国の恩恵から取り残される可能性が高いかもね・・・)
その他に驚き屋が唱えがちなものに、AIとロボによるデストピアがあるよね?
確かに、ロボティクスの技術は飛躍的に発展し、機械学習の効率化によって精度は向上、IoTやエッジAIの普及により、あらゆるモノがデータベースやAIと連携する世界がますます当たり前になると思う。
でもさ、AIやロボットには明確な制約が存在することを忘れちゃダメだよね?驚き屋の展開するデストピア論は、だいたい現実的制約を無視して展開されているので、めっちゃウンザリする。
AIモデルの性能は学習データと目的に応じたカスタムに強く依存するし、ロボットには物理的な耐久性や安全性の限界があり、人間の柔軟性を完全に再現するには至っていない。
さらに物理法則による制約もあって、無からエネルギーやパーツを生成することは不可能だ。
驚き屋さん、同じファンタジーを前提にするなら、ハッピーなやつで頼みますわ。
あと、多くのAIは無料または格安で利用できる。AIパワーそのものよりも、戦略や業務分析、あるいはタスク分析の方が遥かに重要よ。
AIを単なる自動化ツールとして使うだけでは限定的な成果しか得られず、本当に価値を生み出すのは「どのように使うか」の部分。
高額なAIエージェントは確かに利便性を提供するが、それだけで万人のタスクを解決する魔法の杖にはならないし、戦略を示してくれるわけでもない。
結局、AIの価値を引き出すのはユーザー自身のカスタマイズや戦略的思考であり、それがないなら高性能なAIに課金してもあんま意味がない。
(それに時間が経てば経つほど勝手に便利になっていくし、急いで課金する必要性は別に無い)
学位が社会選別の道具になって久しいが、現代では学位ではなく、ビジネスやAIに必要な知識ならインターネットを通じて誰でも取得可能になっている。
AIが無料または低コストで使えることを考えれば、学習の助けになる可能性も大きい。
つまり、AIを活用するスキルは「学歴」よりも「AIを戦略的に活用する能力」によって決まる部分が大きくなり、知識を得ること自体のハードルは劇的に下がっている。
お仕事の観点から見ると、単純なプログラミングスキルだけのIT技術者が厳しい状況に直面するのと同様に、技術理解のない経営陣の時代も終わりを迎えつつある。
現在でも簡単なコード作成はAIがやった方がいいし、財務・経営判断においてもAIの方が合理的な選択をできるケースが増えているからね。
つまり、技術的理解と業務理解に基づくAI戦略を構築できない経営層は不要となり、多様な能力を持つプレイングマネージャーであることが経営層にも求められる時代が来たワケよ。
これは能力主義に基づく平等・・・革命的な意味での"エガリテ(égalité)"の具現化と言えるんじゃないの?知らんけど。
ちなみに、組織においても、基盤整備なしのAI導入はいくら課金しても限定的な効果しか生まない。
なお、2025年の現実では、多くの企業が社内に「安全なAI」(オプトアウト済みAIやオンプレAI)を提供しているにもかかわらず、社員がそれを無視し、より高性能な商用AIを使って情報漏洩かましてるのを日常的に見かけるよね。これはAI導入戦略の不在と、組織全体のITリテラシー欠如の証明でしかないんですわ。
どう考えても技術の進化よりも、こうした適応力のない会社や組織が淘汰されて、浪人(無職)になる未来の方が先に来るんじゃないの?
驚き屋が唱えるファンタジーデストピアよりも現実的な懸念事項だと思うやで。
クソ雑魚ナメクジ あるいは お徳用不揃いジャガイモ(そろそろ芽が生える) のレベルのワイやワイとあんま変わらないレベル でも下記のように考えるんよね
最低限この2点をクリアしてからじゃないと、次のステップの話にはならんと思うねん。「どうせ並みや並以下の技術者やビジネスマンではハッカーに勝てへんし?そんなん気にしても意味ないわ〜」みたいなのはちゃうと思うんよ・・・
繰り返すけど、どうせガチ勢には敵わないって、自宅の玄関のドアや窓開けっぱなしにしとらんやろ?
ITやリーマンや研究者(?)で上手くいかへんのは、スキルとかそんなんじゃなくて、常識の根っこの部分の話やと思うねん。こういう基本的な常識が抜けてると、どんなにスキルがあっても、やっぱ組織では難しい場面が多いと違う?知らんけど
だからYOUの場合、まずは社会の常識と自分のギャップを埋める方が先やと思うわ。そこからやないと技術的な話もビジネスの話もスタートせえへんのちゃうかな〜って思ったりするわけよ。知らんけど
とりあえず、ギャップ埋めのために、オプトアウト設定が可能なのにEdgeAIとかオンプレAIとかセキュアなソリューションが流行ってるのってなんでなんやろうな〜って考えてみると良い気がするけど、どや?
平素よりPerplexityをご利用いただき、誠にありがとうございます。このたびは、当社のサービスにおけるAIモデルの活用、特にDeepSeekR1に関するご質問をお寄せいただき、心より感謝申し上げます。当社では、常に透明性、データのプライバシー保護、そしてセキュリティを最優先事項として運営しております。以下に、大規模言語モデル(LLM)の利用方法や、Perplexityのユーザーとしてご選択いただけるオプションについて、よくあるご質問に基づきご説明いたします。DeepSeek-R1の利用について:オープンソースについて当社が利用しているDeepSeekR1はオープンソースのモデルであり、その基盤となるコードやデータは一般に公開されています。当社では、このR1モデルをさらに改良し、偏りや検閲を取り除いたバージョンを独自にホストしております。この改良されたR1モデルは、当社の安全なサーバー上で管理されており、ユーザーの皆様には、安全性が確保された、検閲のない公正なモデルをご利用いただけます。データの取り扱いについてお客様のデータは、お客様の所在地とアメリカ国内のサーバーとの間のみで送受信され、中国を含むその他の国には一切転送されません。また、R1モデルのオープンソースコードには、特定の組織や国家とデータを統合・共有・送信する機能は一切含まれておりませんので、ご安心ください。利用は任意ですDeepSeek-R1の利用は任意であり、当社が提供する複数のLLM(大規模言語モデル)のうちの一つにすぎません。お客様の検索において、DeepSeek-R1以外のモデルを選択することも可能です。他のモデルを選択された場合、お客様のデータはDeepSeek-R1を経由せず、該当するモデルにのみ送信されます。こうした選択肢を提供することで、お客様ご自身がAIの活用方法を自由に決定できるようにしております。AIによるデータ保持のオプトアウト(拒否)についてデータ保持に関する設定は、perplexity.ai/settings にアクセスして変更することが可能です。ここで、AIによるデータ保持を無効にする(オプトアウトする)ことができます。当社は、透明性の確保、データプライバシーの保護、そしてセキュリティ強化に全力を注いでおります。お客様には、AIの利用に関して明確な情報と選択肢をご提供することをお約束いたします。ご不明な点やご質問がございましたら、どうぞお気軽にお問い合わせください。お客様に安心してサービスをご利用いただけるよう、誠心誠意サポートさせていただきます。このたびはPerplexityをご利用いただき、誠にありがとうございます。今後とも、より良いサービスを提供できるよう努めてまいりますので、何卒よろしくお願い申し上げます。敬具Perplexityチーム
今までは英語で「こんな新機能ができたぜ!」ってノリのメールだけだったのに
生成AIが登場してからAI賛成・反対で争いが続いているように思うので、とりあえず現状を整理する意味で中立な視点で生成AIを捉えてみる。極力中立を意識して書くが、個人の主観が意図せず入ることはご容赦願いたい。まずは議題をまとめるために、議論のターゲットを定義する。
基本的には画像生成、テキスト生成、動画生成、音楽・音声生成などの生成AIをターゲットとする。具体的なサービスとしては
ここでの議論では、生成AIの技術的な内容にはあまり触れず、これらの生成AIは「モデル」に「データセット」を「学習」させることで作られることとする。また、生成AIユーザーはその「学習済みモデル」を使って画像、テキスト、動画、音声などを「生成」することができるとする。
そして、生成AI推進派はこれらの生成AIを推進する、あるいは使っている人たちのことを指し、反AIはこれらに反対する、あるいは使わない人たちのことを指す。
それらとは別に、生成AIの話題に無関心、疎いな層も一定数いることを付記しておく。
日本の現行法に照らし合わせるとデータセットの作成にあたり、著者の許可は「原則」不要である。
詳細は文化庁「AIと著作権」のP.37~40を参考。(AIと著作権,文化庁,https://www.bunka.go.jp/seisaku/chosakuken/pdf/93903601_01.pdf])
一方で、生成AIが出力した著作物が著作権侵害をしているか否かの判定については、「人とAIを区別することなく」著作物が著作権侵害をしているかどうかを既存のルールに則って判断される。(同P.43~)
例えば、最近だと「エヴァ」のポスターを生成AIで作成して販売した人が書類送検された事件(参考:AIで「エヴァ」のポスター生成し販売 神奈川初、著作権法違反容疑で男性2人を書類送検,yahooニュースhttps://news.yahoo.co.jp/articles/33573f324daa8f9f894660b6309ff356a4d338b0])が発生している。上記の理解に則ると生成AIが使われたか否かは関係なく、ポスターが「エヴァ」の著作権を侵害していることが原因であると理解できる。
最近では著者が自身の著作物を保護するために、著作物に対して個別に「AI学習禁止」を掲げている場合や、プラットフォーム上で著作物がAIの学習に使われないように申告(オプトアウト)することができる。このようなケースは「契約」と捉えることができる。そのため、上記のようにデータセットの作成にあたり法的に著者の許可が不要であったとしても個別の対応が必要であり、無断でそのような著作物をデータセットに使うことはできない。
では「AI学習禁止」を明記していれば著者の権利が正しく保護されるかというとそうとも限らない。さらに議論を重ねることになるが、簡単に思いつくだけでも以下のような例外的なデータセットが存在する。
1つ目の「生成AI登場以前に作成されたデータセット」については、そもそもそのデータセットが作られた段階ではAIによる学習禁止を明記していない著者がほとんどであったと考えられるし、各種プラットフォームにそのような設定項目も存在しなかったと考えられる。そのため、それらのデータセットを使った学習を禁止することは法的には難しい。2つ目の「生成AIによって生成されたデータ(合成データ)によるデータセット」についても、生成AIが出力した著作物がたとえ学習元のどれかの著作物と類似していたとしても、学習元の著作物の著者が著作権を主張することは困難である。
これらのようなデータセットが存在することを考えると、仮に「AIによる学習禁止」を掲げていたとしても、著作物が絶対にデータセットに使われないと言い切ることは難しいであろうと考えられる。
実際に、以下の例ではDeepSeekが学習に用いたデータセットにOpenAIが提供するモデルの出力が使われている可能性について話題になっているが、明確な根拠は今のところ示されていない。
OpenAIは、OpenAIのAIモデルの出力を他モデルの学習に使うことを禁止している。しかし、OpenAIが発表している生成AIモデルに使われているデータセットは非公開であり、そのデータセットに一部無許可なデータが含まれている疑いは当初から挙がっている。それらの前提のもとで、最近だとDeepSeek がOpenAIの出力データを学習に使っているという疑惑(参考:DeepSeekがオープンAIデータ不正入手か、マイクロソフト調査中,Bloomberg,https://www.bloomberg.co.jp/news/articles/2025-01-29/SQTXNQT0AFB400])があり、DeepSeekの妥当性が疑われている。(OpenAI自身はデータセットを非公開としており、データセットの透明性が確保されていないことから、ダブルスタンダードであるとの見方もある。)
しかしながら、このDeepSeekの疑惑については一考の余地が残されている。DeepSeekに限らずその他数多くのAIモデルもOpenAIの出力を学習している可能性があり(参考:逆に、すべてのローカルLLMは開発元をOpenAIだと思い込んでいる説, zenn,https://zenn.dev/yuiseki/articles/d90c4544ea3ea6])、OpenAIの出力が何らかの形で間接的にその他AIモデルの学習に使われていると考えることもできる。例えば、OpenAIのユーザがOpenAIの出力を加筆修正してインターネット上に公開したサイト(例えば上記zennのページのようなAIの出力が含まれているサイト)が、他AIモデルの学習に使われるケースなど。このような場合には、OpenAI以外の他AIモデルは明確にOpenAIの出力を学習に使ったと断言できないため、OpenAIの主張を全面的に賛成することには疑問であると考えることもできる。
ここまでの議論では、現行法に則って事実ベースで生成AIを解釈した。一方で、現行法だけでは法整備が追いついておらず、生成AIの脅威が考慮されていないとの意見もある。具体的には以下のような例である。
それぞれの主張について、もう少し具体的に意見の内容を掘り下げる。
著作権侵害は一部非親告罪となっているものの多くが親告罪となっており、著作権侵害が判明した際には著者が主体的に動く必要がある。一方で、生成AIによって生成された著作物は通常の何倍もの速さで作られるため、生成AIの出力を確認するために多くの労力を割くことになり、都度親告することは非現実的である。また、著作権侵害の裁判に関する訴訟費用や、認定されるまでの期間などを考慮すると現行法を適用するだけでは限界がある。
特に法整備に関しては問題が起きてから強化されることが多々ある。(例えば、あおり運転、飲酒運転、違法アップロードなどは社会的な問題を受けて強化されている)そのため、現行法で適法であってもそれが今後も適法であるとは限らず、継続的な議論を経て強化される可能性がある。
生成AIの構築にはモデルだけではなく、データセットも不可欠である。しかし、そのデータセットに多大な貢献しているクリエイターに対してインセンティブがなく一方的に著作物を搾取されている。このような状況では、クリエイターは生成AIの構築に協力する理由がない。その上、生成AIにより一部の仕事が奪われる可能性が考えられており、そのような業界からはかなり反発がある。例えば、イラストレーター、翻訳家、声優、新聞、ニュースなどの業界では、既存の業務が生成AIに代替される可能性を危惧しており、かなり否定的である。
現状の法整備ではそのような業界に関わる方々のリスペクトが一切なく、生成AIが一方的にデータセットとして学習に使っている現状がある。クリエイターの方々の努力があったからこそ、生成AIが登場できたのにも関わらず、生成AI側が一方的に搾取しているためかなりいびつな構造となっている。そのような構造を解消するため、クリエイター保護を念頭に置いた生成AIの規制が導入される可能性がある。
ここまで日本の法律をベースとして議論を進めたが、生成AIを語る上では海外の生成AI取り組み状況も欠かせない。現状では、生成AIはアメリカのOpenAIが業界リーダーの立ち位置を確保しており、大手ではGoogle, Meta,Microsoft などが追従している。また、生成AIの開発にはGPUが必要不可欠であり、GPUの開発・生産の最大手であるNvidiaもアメリカの企業である。一方で、最近話題になったDeepSeekは中国で開発されたモデルである。中国はほかにもAlibabaが生成AIを開発しており、アメリカと技術を競うことができている。それ以外の国の生成AI研究はアメリカ、中国とはかなり水をあけられており、ヨーロッパですらアメリカ、中国の間に割って入ることができる技術力を持ち合わせていない。(唯一フランスのMistralは米中の各種モデルに引けを取らないレベルのモデルを発表できている程度)そのような事実から、日本は生成AIの研究ではほとんど世界にインパクトを残せておらず、アメリカ、中国が開発した生成AIにかなり依存してしまっている。
このような背景から、日本で生成AIに強い規制をかけてしまうと、生成AIの分野で世界から全く相手にされないほど遅れを取る可能性が否定できない。特に、テキスト生成については日本語ローカライズには一定の価値があり、アメリカや中国のモデルを日本語に翻訳するだけでは日本の文化的背景が正しく反映されない可能性がある。例えば、DeepSeekは「尖閣諸島を中国固有の領土」(参考:中国AIディープシークが「尖閣は中国固有の領土」 自民・小野寺氏、衆院予算委で懸念表明,yahooニュース,https://news.yahoo.co.jp/articles/3c710d40d096b74670f09a8bc377b29f33b814a3l])と日本の認識とは異なる回答をしてしまう。そのようなことを考慮すると、今後の国際社会の情報戦のために生成AIに取り組む必要があり、日本で規制を強めた結果として生成AIの開発が出来なくなることは国際領土問題にすら発展しうる可能性がある。
また、他国から見てもこれは同様で、自国で生成AIの規制を強めた結果として他国に遅れを取ることがかなり大きなリスクになることを懸念していると考えられ、いわばチキンレースのような状態になってしまっている。
ここからは世界のAIに対する規制状況を見ていく。アメリカ、中国、日本、EUの中で一番AIに対する規制が強いのはEUであり、昨年AI法が成立している。(参考:EUAI法案が加盟国に承認され成立規制は2026年に適用の見通し,NHK,https://www3.nhk.or.jp/news/html/20240521/k10014456551000.html])EUは個人情報保護の観点で世界をリードしており、AI法もそのような風潮に乗っていると考えることができる。AI法はAIが持つリスクを使用用途に応じて評価しており、リスクが高いと判断された使用用途でのAI利用が禁止されたり、人による確認が義務付けられたりしている。
ここまで生成AIに対する賛否と、生成AIを取り巻く環境をみてきた。賛成、反対にそれぞれ筋の通った主張があり、どちらかが一方的に正しいと判断を下すのは難しい。とはいえ、実際に生成AIが広く普及したことで表出してきた問題点があるのはたしか。だからと言って、生成AIの完全な禁止も国際的な視点から見てもやはり有り得ない。賛成派、反対派が歩み寄り、折り合いがつく着地点を少しずつ模索していくことが重要。
生成AIは「正しく」使えば便利な道具だと思うが、悪用が悪目立ちするので印象がよくない。そもそもインターネットの治安なんてもともとこんなもんだった気がするが、生成AIでよりお手軽にイラストや文章を作れるようになってしまったので、お手軽に治安の悪さが発信できているだけのように見える。
一方で企業レベルでは生成AIを正しく使って業務改善する動きが活発であり、今後数年かけて業務改善していくなら週休3日か、所定労働時間を5時間ぐらいにしてほしいなと思っているところ。仕事を早く終わらせたところで増えるのは給料ではなく仕事になる予感しかしない。
「mixi2は生成AIを使って作られている!投稿したら全部吸われるから投稿しちゃダメ!信用できない!」
的なことを言ってる人がいて、目が点になった。
なお、mixi2の利用規約に生成AIへの学習に対する明記はない。
(昔ながらの広報に使わせてもらうかも的な意味合いのやつは書いてある)
でも今時、無断でそれやる企業いたら心象に良くないのはmixi側もわかってると思うからやらんと思うんだが。
極端な反AIも極端なAI推進派も自分には毒にしかならんと思って避けてたし、
あの手の人たち旧Twitterにいたからマスク嫌いで利用をやめてた自分はそもそも接触の機会もなかったんだけど、
青空にも現れるようになってしまったようで、なんというか、ここまでかーってなってしまった。
今時の開発って、ChatGPTやらCopilotやらは普通に使ってると思うし、
根拠として挙げられてたのなんかnotionAI試してるようなポストだった気がするしで、
よく言われるラッダイト運動っていうより、種痘をすれば牛になる方が浮かんでしまった。
生成AIに学習されたくないって気持ちもわかるし、その気持ちを否定はしたくないんだけど、
ならなんで生成AIに一番無防備な青空にいるんだこの人とも思ってしまった。
旧Twitterでオプトアウトしてた方がマシだったと思うけどなぁ。
とりあえず今後もこの手の人たちとは極力接触したくない。
反反AIで特に絵に対して文句をいっている人って、絵描きに対してコンプレックスがあるか、AIで絵を描いて儲けたいとか何かのポジショントークとしか思えないところがある。
例えば DeepL とかのAIベースの製品も入力内容を学習に使わないオプトアウトができるようになっている。
X とかSNS に載せたらそれは学習に使いますと言われたらそのSNSを使わないという選択があってもよい。
そこを学習は合法だからと連呼するのは、会社のデータをなんでもかんでも外部のサイトに提供してお漏らしすることが許されている会社なのかな?AI の発展のためにおまえのデータをすべて開示すべきとかいってる奴は働いたことがないか、やっかみか何かか?と思ってしまう。
クロール防止を避けられてしまうならウォーターマークなどで自衛するしかないだろう。これは生成AI以前でも行われていたこと。難易度を少しでもあげLORAされにくくする、学習に時間がかかったり手間がかかるので悪用する利益に見合わないと思わせるようにするというのは問題ない。
現代の暗号化も素数とか計算に時間がかかることに依拠しているものもあるように、現実的な時間というのは重要なファクターなのだ。
これは絵だけでない。声やテキスト全ての学習されたくない情報をどうやって学習させないかをちゃんと考えて一般の人に広めるのは個人情報保護のように今後リテラシーになっていくのかもしれない。なので学習されないようにしていると冷笑するのではなく、安全な公開方法を用意したりする仕組みを考えるべきなのだろう。
あの法律、生成AIをあまり想定してなかった、かつ一度決めたら引っ込められないお役所仕草が相まってると思うのだよね。
AI にも色々あって画像認識、背景削除など色々使える。GenAIと違いこれらのAIは基本的に学習した結果がそのまま出力されない。このように使われるなら納得されるだろう。
一方GenAIは学習結果から同じフォーマットの成果物を出してしまうのが問題。画像生成は学習したデータを元にした画像しか生成しない。LLMもニュースや過去のデータを元に回答している。それらには本来権利があるのに無視してしまっている。
声優の話や、海外の getty やニュースサイトの訴訟とか、今後法律も変わってくると思う。
EU なんかは学習元データ開示させようとしてるし、アメリカのエンタメ界隈のロビー活動によってはディズニー法みたいに変わることもあるだろう。
特許や著作権同様、国際協調して進めるべき案件だろう。盗まれるならやはり保護技術や法律が必要ということ。
学習速度と生成速度が全然違う。前述のとおり暗に現実的な時間というものが守ってくれていた部分がとっぱわれてしまった。
活版印刷の時に著作権ができたように何らかの制限ができてしかるべきだと思う。
横道にそれるが量子コンピューティングなりで暗号鍵やHashが推測できるようになったら暗号化はどうなるのだろうね。パスワードの解析も人間が考えたものだから解析するのは問題ないとか言うのだろうか。すでに不正アクセス防止法があるが。
そこは同意だがライセンス、特許はあるよね。ライセンス違反をしてコピーをしたら訴えられる。プロプライエタリな製品のEULAだと大体リバースエンジニアリングも禁止だ。
プロプライエタリの製品のソースコードをすべてオープンソースにせよとかおもってるのかな?
音楽は消費するのに少なくとも一曲3分以上かかるし、小説、動画だってもっとかかる。
一方、絵というのは一目で個人的な見解のレベルでは良し悪しがわかる。そのため消費するのに時間がかからない。それなのに人間が作成するには時間がかかるという非対称性がある。
そういうものをAIで数秒に一枚生成されてしまうのだから反発が大きい。
声もそう、その人の声でなにかするというのは一瞬で消費される。一度学習されてしまえば再利用に歯止めが利かない。
消費するために公開せざるを得ないものについても保護できるようにすると言うのは必要。それが著作権以外でもいい。
何でも学習合法にするとDeepFakeや類似作品が溢れかえる。しかも生成は数秒。
それをすべて被害者が訴えて回るのはフェアではない。学習、生成段階で歯止めをかける仕組み、法制度が必要になってくるだろう。
それを合法だから!反AIは異常とか言ってるのはそれはそれで思慮が足りない。
一方、合意して学習した内容を使ったAI、例えば自分の作品を自分で改善するといった分野に使うなら否やはないだろう。
そういった使い方があるにも関わらずAIは悪と言い、企業や個人に突する反AIもあれはあれでおかしい。
著作権がーとか叫んでるけど、テクノロジーって、そんな著作権がこうだからなんて強権じゃないんすよね。
古くはrobots.txtから
なんでかって?
法律的に正しい利用だとしても、複製容易性によって、その運用が上手くいかない可能性がある。
つう基本があるんすよ。
だからテクノロジーは、こういう理由は法律的には正しいけど、それで被害を被る人がいるかもしれない。
それを想定して、オプトインやオプトアウトが発明されたんですよ。
そこの反反AIrobots.txtって何のためにあるかご存じ?