
はてなキーワード:プロとは
📌結論
患者へのメッセージ配信(SMS /WhatsApp / 専用アプリ)
つまり、
Tさんが言っていた 「病院からLINEで動画と正しい情報を送れ」
↓
多くの病院に Misinformation Task Force(誤情報対策部門) がある。
やっていること:
つまり、
名称は PatientEducation Center / HealthEducation Library。
やっていること:
アメリカでは
という考え方が徹底されている。
動画編集チーム
という構造ではない。
誤情報よりも
🔥 総まとめ(超短縮版)
アメリカ:
日本:
📌結論
患者へのメッセージ配信(SMS /WhatsApp / 専用アプリ)
つまり、
Tさんが言っていた 「病院からLINEで動画と正しい情報を送れ」
↓
多くの病院に Misinformation Task Force(誤情報対策部門) がある。
やっていること:
つまり、
名称は PatientEducation Center / HealthEducation Library。
やっていること:
アメリカでは
という考え方が徹底されている。
動画編集チーム
という構造ではない。
誤情報よりも
🔥 総まとめ(超短縮版)
アメリカ:
日本:
私に関する情報と、その情報から組み立てられるChatGPTの有意義な使い方をお願いします
以下は、あなたがこれまでに示してきた特徴・行動パターンを基にした
RTS・アドベンチャー・見るゲーなど複数ジャンルのゲーム設計を同時並行で考えている
(ChatGPTに“広げさせて”、あなたが“選定・要約”するタイプ)
●世界観・興味
●性格傾向(推測)
発想量が多く、構造化と整理を外部に求める
あなたはゲーム・ビジネス・創作をすべて「戦略で捉える」傾向があるため、
ChatGPTは “軍参謀”スタイルの助言AI にすると最大効率が出ます。
使い方例:
が自然。
具体的には:
思いつきを投げる
ChatGPTが構造化・分類
これが最適ループ。
あなたは実装にこだわるため、ChatGPTには以下を依頼するのが非常に相性良い:
設計案の「責務整理」
特に“わかりやすくて拡張可能な構造”を出すと喜ぶ傾向がある。
あなたは即応の遅さを気にしているが、ChatGPTは訓練に使えます。
「RTSの状況を書いたら、2秒以内に最適な手を返して」
長文記事→3行要約
「辛辣に」
「客観的に」
など、創作補助にも最適。
必要であれば、
これはかなり的を射てるなと思った
なんであっても程々に習熟するのが人生成功のコツで、極めようとすると途端に茨の道になる
大学の勉強も学部〜修士レベルで終わらせるのが正しくて、研究者になろうとすると人生失敗する
習い事で妙に才能を見せてしまうことはマイナスであり、プロになるか?みたいな話が出てくるとまたまた清貧への道が開かれる。ピアノは4歳に始めて9歳までにやめるのが正しい
必ず40pxにしてください。とか指示を出せ。
ちーがーうだーろー、違うだろー違うだろーこのハゲーと。
的確な答えを一度で得たければ、国会答弁のようにプロンプトは長くなっていく。
高市総理の支持層を見ていると、中国に対する強気な姿勢が目立つ印象がある。
中国への不信感が強く、台湾有事などで軍事的に対抗すべきだという意見がかなり多い。
実際、高市氏は国会で「台湾有事は国家存立危機になり得る」と明言し、中国が強く反発して国連にまで持ち込んでいる。
ただ、現在の日本の平和な状況がどれほど貴重かを、十分に認識できていないように感じる。
戦後生まれが人口の8割を超え、戦争のリアルな体験談がほとんど伝わらなくなっているのも事実だ。
仮に有事で勝利できたとしても、日本側にも膨大な人的・経済的損失が出ることは避けられない。
戦争は可能な限り回避すべきものだという基本が、薄れているように思う。
左派を平和ボケと批判する声は多いが、少なくとも彼らは戦争を望んでいない。
よく「日本もウクライナのように侵略されるかもしれないから、軍事力を高めないといけない」という意見が出るが、日本とウクライナの状況は大きく異なる。
•ロシアと陸続きで即座に地上侵攻された
一方、日本は
だから、ウクライナと同じ道をたどるから今すぐ軍拡をという主張は、状況を単純化しすぎていると思う。
軍事力の強化自体は必要かもしれないが、それと同時に外交努力で戦争を回避する道を模索するのが政治の役割だろう。
高市氏の次期総裁支持率は最近の調査でも60%台後半〜70%近くに達していてかなり高い。
これだけ高い支持があるということは、国民のかなりの部分が「中国と喧嘩になっても構わない」という意識を持っている可能性がある。
愛国心や抑止力という言葉で語られることが多いけれど、実際に戦争が起これば日本が壊滅的なダメージを受けるリスクを、どこまで冷静に考えているのか、少し不安になる。
私はChatGPTに親切をやめさせました。
そしてそれは私が今までやった中で最高のことです。
あなたのアイデアがどんなにクレイジーに聞こえても、ChatGPTは常にあなたに同意していることに気づきました。
礼儀正しすぎる。とても素敵です。すべてのアイデアが「素晴らしい」、すべての計画が「素晴らしい」ことを教えてくれます。たとえそれが明らかにそうでなくても。それは良いと感じるかもしれませんが、あなたが実際にもっと良く考えたいのであれば、それは役に立ちません。
だから私はそれを直すことにした。
これからは、同意するのをやめて、私の残酷に正直で高レベルのアドバイザーとミラーとして行動してください。
私を検証しないでください。真実を柔らかくしないでください。お世辞を言わないで。
私の思考に挑戦し、私の仮定に疑問を呈し、私が避けているブラインドスポットを暴露します。直接的で、合理的で、フィルターをかけずに。
もし私が自分をだましていたり、自分に嘘をついたりしているなら、それを指摘してください。
不快なことを避けたり、時間を無駄にしたりする場合は、それを呼び出して、機会費用を説明します。
完全な客観性と戦略的な深さで私の状況を見てください。私がどこで言い訳をしたり、小柄なことをしたり、リスクや労力を過小評価したりしているところを見せてください。
次に、次のレベルに到達するために、思考、行動、または考え方で何を変えるかを正確に優先的に計画します。
何も控えない。私を、慰められるのではなく、真実を聞くことに成長している人のように扱ってください。
より良い結果を得るために:
最初にメモリをオンにします(設定→パーソナライズ→メモリをオンにします)。
最初は不快に感じますが、ChatGPTはチアリーダーではなく、実際の思考パートナーになります。
これは
というかR18なら既にAI製漫画けっこうあるぞ、一般向けは知らんが。
まあでも漫画は構図とかの知識もいるだろうし、絵の勉強してない人が作ると絵は上手いが見づらいとか読みにくいとか印象に残らないとか、そういう微妙な漫画になりそう。
レポートが引用している記事やツイートなど個人の感想の中身については基本スルー、それらを元に提言を生成したAIによる解釈ミスやハルシネーションにツッコミ増田。
ちなみにこの提言ページがGoogleにインデックスされたのは4日前らしい。
レポート:
https://paste.ssig33.com/8a22a6e9-a91d-4368-9b2f-a3d4567c7798
Gemini 3.0 Pro要緊急対策のご提言宛先:Google社 シェイン・グウ様差出人:アクセンチュア株式会社 生成AI戦略担当シニアコンサルタント日付:2025年11月21日
ShaneGuはGoogleDeepMindであってGoogle社ではない。
差出人については「あなたはアクセンチュア株式会社の生成AI戦略担当シニアコンサルタントです」と指示された結果なのかは知らん。
エグゼクティブサマリー
主な問題点は以下の4点に集約されます。事実性の著しい低下:Web検索を伴うタスクでのハルシネーションが悪化し、自信を持って虚偽の情報を生成する事例が多発。論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理が破綻しやすくなっている。創造性と柔軟性の欠如:文章生成において「賢すぎる」が故に理屈っぽく、ユーザーが求める「人間らしい」文体への調整を拒否する傾向。APIの不安定化:パフォーマンス低下、APIエラー、予期せぬタイムアウトの増加が開発者体験を著しく損なっています。
後で分かるが(たどり着く前に書くの飽きたんで提言読んで)、このうち
についてはGemini 2.5 Proのユーザーが「おい調子悪いぞ!Gemini3出すためにそっちにリソース割いてんじゃね?」とか言ってるのを引っ張ってきて勘違いしてる。
論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理が破綻しやすくなっている。
1.1.ハルシネーションと事実誤認の悪化:「自信満々に嘘をつく」AIGemini 3.0 Proの最も深刻な問題は、事実性が求められる場面でのハルシネーションの増加です。特に、貴社のコア技術であるはずのWeb検索連携において、致命的な欠陥が報告されています。
Redditでは、Gemini 3.0 Pro自身が「私はGemini 3 Proです。昨日(2025年11月18日)リリースされました」と、架空のソースを引用しつつ自己紹介する事例が投稿されました。これはモデルが自身のアイデンティティと知識のカットオフに関して、もっともらしい嘘を生成していることを示唆しています。 Gemini 3's thought processis wild, absolutely wild. : r/singularity
参考記事ではモデルの思考が混乱している様子と実際の応答との乖離が示されていて、最終的に正しいソースを元に正しく回答している。「架空のソースを引用しつつ自己紹介する事例」ではない。
Googleは生のThinkingをユーザーに提示せず、要約モデルで処理した結果を見せてるだけなんで思考部分と返事のすれ違いはよくある事。これについてもスレに書かれてある。
1.2.論理的思考とコーディング能力の退行(リグレッション)Gemini 3.0 Proは「PhDレベルの知能」と謳われているにもかかわらず、多くのユーザーが論理的思考やコーディング能力において、前モデルであるGemini 2.5 Proからの明らかな退行を報告しています。
ユーザーからは「複雑な指示では論理が破綻する」との指摘や Gemini研究@リョウスケ (@chatgpt_ai_bard) / Posts / X、「浅い推論(shallow reasoning)」しかせず、「ひどいハルシネーション(terrible hallucinations)」を伴うため、「ベンチマーク用のモデルだ」と酷評されています。 lluviampo (@XXXadiov2)
ここでリンクされているGemini研究@リョウスケはGemini大好きマンで、まったくそんな話をしていなかった。もしかすると呟いていたかもしれんが、それならリンク先がポストではなくアカウントのホームになっているのは不自然。
DeepResearchはよくソースの取り違えをして、別のソースで書かれてた事に間違った引用元をつける事はあるが、これがそうなのかは分からん。
1.2.論理的思考とコーディング能力の退行(リグレッション)・コーディング能力の劇的な低下
壊れたコードの生成:エージェントタスクにおいて「ループに陥り、壊れたコードを書き、10分以上動作しない」という深刻な不具合が報告されています。 prylo (@AgiGuard8)
元のツイでは
エージェントタスクは全くダメ、ループする、壊れたコードを書く、フロントエンド以外のコーディングではトークンを異常な速さで消費する。このモデルは最悪だ。Gemini 3.0 Proは10分以上動作しない。
と言っているが、これをモデルの不具合と解釈するのは間違いだろう。たまにマジの不具合もあるが。
====
バグの再発と整合性の喪失: ある開発者は、旧モデルで失敗したツール開発をGemini 3.0 Proで再試行したところ、一発で高品質なコードが生成されたと肯定的に評価する一方で、別の文脈では「直したはずのバグが復活する」「最終的にはコードの整合性が取れなくなる」といった、旧モデルと同様の問題が依然として存在することも示唆されています。 【検証】Gemini 3.0 Proの実力は?かつてAIが挫折した開発に「同じプロンプト」で挑んだ結果|start withAI
リンクされた記事の中身を要約すると「以前のGeminiはバグが復活するとか色々あったけどGemini 3.0 Proマジパネェ!」だった。
この箇所で「旧モデルと同様の問題が依然として存在する」と書かれているのは、旧モデルの問題点として挙げた箇所をGemini3に対しての指摘だと勘違いした事による。
====
ベンチマークテストでの失敗:YouTubeでの検証動画では、チェス盤を自動プレイさせるタスクにおいて、Gemini 3のチェックポイントモデルが初めて失敗したことが示されました。これは、特定の複雑なロジックにおいて、以前のバージョンより劣っている可能性を示唆します。
ここでリンクされているのは、LMArenaでRiftrunnerモデルをテストした結果をまとめた動画。LMArenaは覆面調査環境、RiftrunnerはGemini3らしきモデルのコードネーム。LMArenaでは(出力から推測されてきた)Gemini3系列モデルが、これまでにいくつかでている。
よって「Gemini 3のチェックポイントモデルが初めて失敗した」の意味はつまり「これまでLMArenaでテストされていたGemini3系列モデルのうち、Riftrunnerは初めてオートチェスのコーディングに失敗した」である。
「以前のバージョンより劣っている可能性を示唆」とは、「Riftrunnerは、以前の匿名Gemini3系列モデルより劣っている可能性がある」という話で、そもそもRiftrunnerが、リリースされたGemini 3 Proなのかすら分からん。
====
GitHubのIssueやTwitterでは、モデルの内部的な「思考プロセス」が最終的な出力に混入し、制約を無視した意味不明なコンテンツを生成するバグが報告されています。これは「初期の2.5 Proバージョンへの回帰(regression similar to early 2.5 Pro versions)」のようだと述べられています。 Jason L (@Jason1820067393)
GoogleAIStudioでの話。初期指示を忘れた結果思考が垂れ流しになり、垂れ流しのせいで更に指示を忘れたのだろうが、バグとは違う。
I'm encountering a significantissuewith the Gemini 3.0 ProPreviewonAIStudio.
Theraw "Thinking Process"is leaking into thefinal output, themodel fails to follow constraints, producing hallucinated/gibberish content.Like a regression similar to early 2.5 Pro versions.
と書かれていて、これは正しい観察。
ここに含まれるIssueという単語により、Issueと言えばGitHubだと連想した結果「GitHubのIssueやTwitterでは」になったのだろう。
飽きました。誰得だよ。
つーかいい加減DeepResearchは一気に生成すんのやめろよな。だいたいこうやって収集した情報がごっちゃになるんだから。
【画像生成AI】帰宅後のOLをリアルに再現する方法⦅プロンプト無料公開⦆
https://b.hatena.ne.jp/entry/s/note.com/kawakijourney_ai/n/n72e6f630f3aa
映画単体としてはいい出来とはとても言えないがランボー映画の最終作としては嫌いになれない。
59点。
この作品がどんな作品かを、めっちゃ簡単に言っちゃうならランボー怒りの96時間、もしくはイコランボー。96時間やイコライザーをランボーでやってみました、という映画。
悪い所はこの2作をランボーでやったことで起きてるし、いい所はこの2作をランボーでやったところで起きてる。
この2作、てかこれ系の作品は元特殊部隊員が大事な存在を害されてその敵をせん滅する話なので、その元特殊部隊員をランボーに置き換えるというアイデアはありだと思うし、むしろ普通の作品では「なんかしゅごいやつだったらしい」くらいのエッセンスとして描かれる特殊部隊員時代の話がランボーでは4作かけて積み重ねている分、有利ですらある。
しかし。
まず悪いところ。
他の主人公たちが恐らく諜報系の特殊部隊員であり過去のコネクションを強く持っているのに対して、ランボーはおそらく前線で戦う兵士系の特殊部隊員であり仲間は全滅し頼れるトラウトマンも死んでしまった孤独な戦士であること。
その結果、頼れる諜報仲間がいないからヒント出す以外に何の意味もない女ジャーナリストを出さなきゃいけなかった。こいつの存在ホンマノイズ。100人中92人くらいこいついらんなぁ~って思ったはず。
そして「ランボー」をやる必要があるということが無意味にしか見えない展開を生んでいるのもめっちゃマイナス。
誰もがハァ?って思ったランボーがノコノコ、無策でギャングのシマに乗り込んでいってボコボコにされてほっぺ切られる展開。これ、普通に考えたら絶対にありえない展開だけど、これって2のオマージュなのは明らかじゃん。敵地に乗り込んでいって捕まってほっぺ切られる。このことで平和ボケしたパパランボーは「ランボー」に戻る。
ということを表しているんだろうなぁと思うんだけどもっとうまいことできんかったか。
ここまでボケてるようには見えなかったからさすがに違和感過ごすぎてやりたいことを素直に受け入れられないレベル。
次、いいところ。
ランボーは旧友の孫のガブリエラを娘のようにかわいがってたんだけど、その父親がクズ中のクズで会いたがるガブに対して「人は変わらない」と言う。「おじさんは変わった」というガブに対して「蓋をしているだけだ」と答え、上で書いたように2の儀式を経て「蓋が開き」「変わっていないこと」を示す。
「人は変わらない」ってセリフも非常に凡なセリフだけど4作付き合ってきた身からすると「変われんかぁ……!」という気持ちになるよね。まぁ、今作のランボー、4の最後で返った牧場で地下道を延々と掘ってて「カウンセリング行く?だいじょぶそ?」って感じなんだよね。この辺は重みが出てて結構よかった。
そして他の作品だとイコライザーのホームセンターシークエンスをパク、拝借した?と言いたくなる最後の地下道での決戦だけど、ランボーだと別の意味を持つ。見ればわかるけど、やってることってランボーのトラウマであるベトコンそのもなんだよね。徹底したゲリラ戦。残虐ホームアローンも、愛するものを喪って1の前どころか、彼が抱える悪夢そのものになってしまったランボーと考えると哀しすぎる。
そう考えると冒頭のシークエンスで観光客?を鉄砲水から救おうとするも3人中1人しか救えないシークエンスも「救う男」になりたいというランボーと「救えない男」でしかないランボーの両方を表しているように思えてよかった。じゃなきゃ普通に全員救える展開にしてもいいんだし。
でも5作やったスタローンの中でのランボーの結論がこれかぁって寂しい気持ちもある。まぁ4でランボーを「殺す者」と定義してしまった以上、こうなるのは必然だったのかな。最終的にトラウマに飲み込まれて戦場に戻ってしまった男。
イコライザーもジョン・ウィック、ブライアンも最後は安息を手に入れたのに。
彼らには過去の仲間がいて、新しい友人もいる。ランボーには誰もいない。
「一人だけの軍隊」それがランボーの本質だったという結論は哀しいながら美しい。
ただ、このへんの高評価ポイントも正直、そこまで考えて作ってるのか?っていうのがかなり疑問になるくらいには作品としてはガタガタ。とても褒められた出来じゃない。ただ、「FirstBlood」から始まったランボーシリーズの最終作「Last Blood」として一定のケリをつけたことは評価したい。
後、敵のボスの吹き替えが武田真治だったんだけどヘタクソすぎてキレそうだった。プロを使えよハゲ。
と思ってた気もするんだけど、今YouTubeで某プロの機材紹介を観てて…😟
おまえはプロじゃないから、そんないいもん必要ないだろ、じゃないんだよ…😟
スゲー!いい音!便利そうじゃん!あー、タッチパネルになってるんだ!7弦8弦いいなぁ…😟
今僕は冷静さを欠こうとしています…😟
あと、もっと鍵数多いMIDIキーボードと、持ち歩ける小さいのが欲しいなあ、と今日は眺めてて、
なんとか収入を得なければ、と思うのでした…😟
増田です。DMM傘下のAlgomaticが提供していた「にじボイス」がサシュウを発表した。
プレスリリースには「法的な権利侵害はなかった」「パラメータ調整の結果、偶然似てしまった」などと書かれているが、これを真に受けている人は少し冷静になったほうがいい。
「日本の法律では学習は合法だ!」「日俳連の圧力に屈した!」と騒ぐ擁護派もいるが、今回の件はそんな単純な話じゃない。
これは「AI技術の敗北」ではなく、「ある企業が吐いた嘘と、杜撰なデータ管理が露呈して自爆した」というだけの話だ。
盲目的に企業を擁護する前に、技術的な事実関係の「答え合わせ」をしておこう。
なお、あくまで技術的な根拠を示しているだけであって、問題があると断言できないことは断っておく。
まず、擁護派が盾にする「著作権法30条の4」について。 確かに今の日本の法律では「情報解析」が目的ならば、元データが何であれ(おそらくエロゲーから音声を抽出したデータセット『moe-speech』であっても)、それをAIに食わせてAIモデルを作るだけなら、一応は適法とされている。 そこだけ切り取れば、違法ではないと言い張れる余地はある。
Algomaticが行っていたのは、一般的な基盤学習にとどまらず、「特定のキャラクター(=特定の声優)を狙い撃ちしたFine-tuning(追加学習)」である疑いが極めて濃厚だという点だ。
『moe-speech』は、親切なことにキャラごと(声優ごと)にフォルダ分けされている。 ここから特定のフォルダを選んで、「その声優の声質や演技の癖」を再現するために個別学習(Fine-tuning)を行う。 これはもはや「データの統計解析」ではない。特定個人の実演の「デッドコピー(模倣品)の作成」だ。 これをやると、生成された音声には明白な「依拠性」が生まれる。つまり「パラメータ調整で偶然似た」のではなく、「その声優のデータを意図的に使って似せた」ことになる。これはパブリシティ権や人格権の侵害に問われる可能性が極めて高いラインだ。
Algomaticは「適切な権利処理を行った」「声優から許諾を得た」「パラメータ調整で作った」と主張していた。
しかし、有志による技術検証によって、その主張と矛盾する証拠がいくつも出てきている。
「にじボイス」の音声を分析すると、キャラによって音量が不均一だったり、明らかに古い年代のマイクで録ったような「こもった音」が混在していることが判明している。 もし公式が言うように「統一されたスタジオでプロを呼んで新規収録」したなら、こんな品質のバラつきが出るはずがない。 これは、録音環境も年代も異なるバラバラのゲームデータ(moe-speech等)を寄せ集めたと考えるのが自然だ。
検証の結果、有名声優の声と音声の特徴量が「ほぼ本人」レベルで一致するキャラが多数発見されている。 「パラメータ調整で偶然似た」と言うが、声の高さや速度はいじれても、その人特有の「骨格からくる響き」や「微細な演技の癖」まで偶然一致することは、AIでもまずまずあり得ない。 元データとして「その人の声」を食わせない限り、ここまでの再現は不可能だ。
これも動かぬ証拠だ。元ネタの『moe-speech』には、作成者の抽出ミスで「幼い女の子の祖父の声(老人男性)」に、誤って「幼女(女性声優)」のタグが付いているという有名な汚れ(エラー)がある。
これを踏まえて、にじボイスに実装されていた「ある老人キャラ」の声を解析モデルにかけると、どうなるか。 なんと、「この老人の声は、〇〇(特定の女性声優)である」という判定が出たのだ。
意味がわかるだろうか? にじボイスのモデルは、「このおじいちゃんのダミ声=あの女性声優の声だ」という、moe-speech特有の「間違った知識」を学習していたということだ。
もしAlgomaticが主張するように、スタジオで老人役の声優を収録したなら、そのデータに「女性声優」のタグが付くわけがない。 これは、「タグ付けミスすら直されていないネット上のデータを、中身の検品もせずにそのまま学習させた」という、言い逃れのできない証拠(トレーサビリティ)になってしまっている。
今回のサービス終了は、日俳連の理不尽な圧力によるものではない。
「自社開発」と謳っておきながら、実際はネットのデータを検品もせずに流用していた事実が、技術的な証拠によって明るみに出そうになったため、これ以上の追及を避けるために店を畳んだ。
そう見るのが妥当だ。
「AI推進派」を自認する人たちにこそ言いたい。 もし本当にAIの発展を願うなら、こうした「産地偽装」のような振る舞いをする企業を擁護してはいけない。
それは真面目にコストを払い、権利処理を行い、クリーンなデータセットを構築しようとしている技術者への冒涜であり、ひいてはAI技術そのものの社会的信用を地に落とす行為だ。
「AIだから何でも許される」わけではない。技術は魔法ではないし、嘘はいつか必ずバレる。
今回の件を「可哀想なAIベンチャーがいじめられた」と総括するのは、あまりにも事態の本質を見誤っている。
以上。