
はてなキーワード:モデルとは
https://chatgpt.com/share/69242064-51c4-8001-9113-e7ebd72b40bd
十分に広い歩道またはスーパーの通路などで人が反対側から歩いてきた場合、ほぼすべての人がお互いに避けるそぶりすら見せず、結果ギリギリの距離ですれ違う(またはしばしばぶつかっている)事象をよく観察します。
これはどういった現象なのでしょうか?行動学や心理学などの観点から教えてください。
=====
歩道やスーパーの通路で「相手が避ける素振りを見せないままギリギリですれ違う/ぶつかる」現象は、行動学・認知心理学・社会心理学の観点からいくつか理由があります。複合的に発生するため、日常的に頻繁に起こります。
-----
と見積もりがちです。
社会心理学的には相互期待の非対称性(mutual expectancy asymmetry) と説明されます。
都市部ではスペースが狭いため接触ギリギリでも心理的負荷が低い 傾向があります。
特に日本の駅や店内では“狭い環境に慣れている” ため、外国人よりも近距離でのすれ違いに抵抗が薄い。
結果、直前まで「どっちに動くべきか」が確定しません。
相手の軌道を予測しつつ自分の軌道を調整する作業は脳の計算負荷が高い。
そのため、
を選ぶ傾向が強い。
多くの研究では、
と報告されています。
認知心理学の「least effort principle」によれば、
人は行動を最小限にしたがるため、
双方が「1°だけ進路を変えた」みたいな状態になるため、結果ギリギリに。
-----
必要なら、
最近の個人勢VTuber、初配信前から営業しまくってチャンネル登録者数を増やし、初配信からガッツリ高価格の応援プラン♡なんかを発表していてびっくりした。
オススメに流れてきた配信をのぞいてみると、「高評価押してくれたよね?♡ 1.もちろん!2.押したよ!」みたいなクソアンケートに答えないとコメントが打てない仕様だったり。
そういう「やり方」は否定しないが、なんだか心底嫌気が差して、胸糞悪くなった。
だから自分もVTuberを始めてみた。ガワは汎用モデルというものを見つけて数千円で購入した。絶対に純粋な配信技術だけで人を楽しませてみせると思った。
そしたら、なんか短期間で想像以上にチャンネル登録も同時接続というのも増えてきていて、自分が一番驚いている。
SNSはろくにやっていないし、配信自体も大した回数できていない。ショート動画も作ったことがない。
運が良いのか、マジで自分に配信者の才があるのか分からないが、単純に配信は楽しい。人を楽しませる工夫をすることが楽しい。だからこれからも続けてみる。
私に関する情報と、その情報から組み立てられるChatGPTの有意義な使い方をお願いします
以下は、あなたがこれまでに示してきた特徴・行動パターンを基にした
RTS・アドベンチャー・見るゲーなど複数ジャンルのゲーム設計を同時並行で考えている
(ChatGPTに“広げさせて”、あなたが“選定・要約”するタイプ)
●世界観・興味
●性格傾向(推測)
発想量が多く、構造化と整理を外部に求める
あなたはゲーム・ビジネス・創作をすべて「戦略で捉える」傾向があるため、
ChatGPTは “軍参謀”スタイルの助言AI にすると最大効率が出ます。
使い方例:
が自然。
具体的には:
思いつきを投げる
ChatGPTが構造化・分類
これが最適ループ。
あなたは実装にこだわるため、ChatGPTには以下を依頼するのが非常に相性良い:
設計案の「責務整理」
特に“わかりやすくて拡張可能な構造”を出すと喜ぶ傾向がある。
あなたは即応の遅さを気にしているが、ChatGPTは訓練に使えます。
「RTSの状況を書いたら、2秒以内に最適な手を返して」
長文記事→3行要約
「辛辣に」
「客観的に」
など、創作補助にも最適。
必要であれば、
俺は映像メインのCGアニメーターで、猫動画を見た後AI映像と知った時、騙されたと感じる程度の感性の持ち主である。
エンタメ業界の片隅でCGを生業とする者として、生成AIと切っても切り離せない原罪、権利侵害に対して明確に拒絶をする。
ただし普段からzoomでの録画による議事録作成、翻訳、プログラミングでのコード作成では日常的に利用しており、
欠かせない存在となっている。
本業でのCGでの最終成果物では使ってはいないが、3Dモデルのポン出し生成には極めて抵抗を感じる。
最後に視聴者が目にするものは、コンピュータの映像だとしても人の血肉から生まれたCG映像であってほしいと願うからだ。
本業では、自分の専門外の分野のノイズの除去や、アニメーションでキャラデザインに合わせることが技量的に難しい場合、
参考ガイドとしてデザイン画から表情参考絵を出力したいとも思っている。
https://www.cohart.com/xemmetvietsub
https://www.brush.bio/100metvietsub
https://www.cohart.com/godzillatrumotvietsub
https://www.brush.bio/godzillatrumotvietsub
https://www.cohart.com/thaichieutaivietsub
俺は映像メインのCGアニメーターで、猫動画を見た後AI映像と知った時、騙されたと感じる程度の感性の持ち主である。
エンタメ業界の片隅でCGを生業とする者として、生成AIと切っても切り離せない原罪、権利侵害に対して明確に拒絶をする。
ただし普段からzoomでの録画による議事録作成、翻訳、プログラミングでのコード作成では日常的に利用しており、
欠かせない存在となっている。
本業でのCGでの最終成果物では使ってはいないが、3Dモデルのポン出し生成には極めて抵抗を感じる。
最後に視聴者が目にするものは、コンピュータの映像だとしても人の血肉から生まれたCG映像であってほしいと願うからだ。
本業では、自分の専門外の分野のノイズの除去や、アニメーションでキャラデザインに合わせることが技量的に難しい場合、
参考ガイドとしてデザイン画から表情参考絵を出力したいとも思っている。
映像だろうがプログラムだろうが翻訳だろうが、どれも生成AIの技術を使った生成物であるというのに。
関心のある分野は手作業を臨み、それ以外には実に無神経極まりない。
しかし、自分のようなどっちつかずの半端ものは意外と多いように思う。
数年後、最終成果物でも、より精度の高いAIレンダラーを嬉々として(あるいは嫌々)使用している自分がいるのだろうか?
情報商材屋があふれるSNSに汚染が目にあまり、実に疲れている。
何もしてない(鉄板だな)のに壊れたらしい
AIのアドバイス(今は本当に便利なった)を元にサクッと直そうとしたが、どうもおかしい
Windows boot managerがない
legacyもない
仕様らしい
は??
回復ドライブ作ってコマンドプロンプトを直接打ち込んでも何も動かない
回復ドライブをもう一度読み込ませて再トライしようとしたが、今度はUSBすら読み込まなくなった
AI曰く、ブートローダーが完全に壊れたとのこと(そしてこれは富士通あるあるの最終形態とのこと)
AIも匙を投げて、修理持ち込めと言って身内はもう買い替えると言ってる
身内は何もしてないと言ってるが、増田の人力検索とエラーコードから推測するにWindows update関係らしい…
昼飯も抜きであれこれしてて疲れた、飯食うよ
助けてくれたgrokに簡潔にまとめさせたよ
今回のトラブル超簡潔まとめ**
原因
→Windows Updateか強制終了でブート情報だけ壊れ → **E104-1-1001**
富士通超軽量ノート(WA1/G3など)のダメな点 5選**
1. **EFIパーティションが最初から無い** →ブート壊れたら詰む
2. **BIOSがロックされすぎ** →CMOSリセット・CSM・Legacy全部使えない
3. **診断でE104-1-1001出たら一般ツールでは直せない**
4. **富士通専用リカバリUSB(非公開)以外で復旧不可**
5. 一度壊れたら**自宅では100%無理** → 店持ち込み必須
結果:**世界最軽量だけど、壊れた時のリスクがデカすぎる**
髪を傷めにくいドライヤーの当て方はいくつかあります。ポイントを押さえれば、熱ダメージを大幅に減らせます。
⸻
✅ 髪を傷めないドライヤーの当て方
• ゴシゴシせず、タオルで“挟んで水分を吸わせる”ように。
⸻
2.ドライヤーは「15~20cm」離す
• 近づけすぎると温度が高すぎてキューティクルが開き、傷む原因に。
⸻
3. 温風→冷風の順で仕上げる
• 7~8割乾いたら冷風に切り替えると、キューティクルが閉じてツヤが出て熱ダメージも軽減。
⸻
4. 風を一点に当て続けない
• 小刻みに動かしながら乾かすことで、局所的な熱ダメージを防ぐ。
⸻
• 根元が乾けば、毛先は自然と乾いてくるため、毛先の乾かし過ぎを防げる。
⸻
• 熱保護成分が入っているものを使うと、ドライヤー熱による乾燥を防ぎやすい。
⸻
• 熱よりも“風”で乾かす方がダメージは少ない。
⸻
✨ これらをすると何が変わる?
• パサつきが減る
• ツヤが出る
• 枝毛や切れ毛が減る
⸻
必要なら、あなたの髪質(直毛・くせ毛、細い太い、ダメージレベルなど)に合わせてベストな乾かし方やおすすめアイテムも提案できます。どうしますか?
「明示的な基準があっても、モデルがその情報をまだ握ってなかったら無理なのでは?」はその通りですけど、メジャーな処理系で普通のことする限り最近のAIはMicrosoftの開発者用の公式アナウンスとかアクセスできてて問題ない。(そんな日単位の最新の変更ってセキュリティ周りの実装くらいしかなくないですか?)あるいは、「〇〇の開発者向けサイトも参照して、obsoleteになる仕様は使わないように」とか一言付けておくだけで良いし、あるいは実装方式が〇〇と▢▢が選べる場合には▢▢を優先してくださいと具体的に言っておくだけでいい。
明示的な基準があっても、モデルがその情報をまだ握ってなかったら無理なのでは?って思うんだけど、それはどうしたら良いんかね
今ってどれくらい前までの情報握ってるん?
レポートが引用している記事やツイートなど個人の感想の中身については基本スルー、それらを元に提言を生成したAIによる解釈ミスやハルシネーションにツッコミ増田。
ちなみにこの提言ページがGoogleにインデックスされたのは4日前らしい。
レポート:
https://paste.ssig33.com/8a22a6e9-a91d-4368-9b2f-a3d4567c7798
Gemini 3.0 Pro要緊急対策のご提言宛先:Google社 シェイン・グウ様差出人:アクセンチュア株式会社 生成AI戦略担当シニアコンサルタント日付:2025年11月21日
ShaneGuはGoogleDeepMindであってGoogle社ではない。
差出人については「あなたはアクセンチュア株式会社の生成AI戦略担当シニアコンサルタントです」と指示された結果なのかは知らん。
エグゼクティブサマリー
主な問題点は以下の4点に集約されます。事実性の著しい低下:Web検索を伴うタスクでのハルシネーションが悪化し、自信を持って虚偽の情報を生成する事例が多発。論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理が破綻しやすくなっている。創造性と柔軟性の欠如:文章生成において「賢すぎる」が故に理屈っぽく、ユーザーが求める「人間らしい」文体への調整を拒否する傾向。APIの不安定化:パフォーマンス低下、APIエラー、予期せぬタイムアウトの増加が開発者体験を著しく損なっています。
後で分かるが(たどり着く前に書くの飽きたんで提言読んで)、このうち
についてはGemini 2.5 Proのユーザーが「おい調子悪いぞ!Gemini3出すためにそっちにリソース割いてんじゃね?」とか言ってるのを引っ張ってきて勘違いしてる。
論理的思考能力の退行: 複雑な指示やコーディングタスクにおいて、前モデル(Gemini 2.5 Pro)よりも論理が破綻しやすくなっている。
1.1.ハルシネーションと事実誤認の悪化:「自信満々に嘘をつく」AIGemini 3.0 Proの最も深刻な問題は、事実性が求められる場面でのハルシネーションの増加です。特に、貴社のコア技術であるはずのWeb検索連携において、致命的な欠陥が報告されています。
Redditでは、Gemini 3.0 Pro自身が「私はGemini 3 Proです。昨日(2025年11月18日)リリースされました」と、架空のソースを引用しつつ自己紹介する事例が投稿されました。これはモデルが自身のアイデンティティと知識のカットオフに関して、もっともらしい嘘を生成していることを示唆しています。 Gemini 3's thought processis wild, absolutely wild. : r/singularity
参考記事ではモデルの思考が混乱している様子と実際の応答との乖離が示されていて、最終的に正しいソースを元に正しく回答している。「架空のソースを引用しつつ自己紹介する事例」ではない。
Googleは生のThinkingをユーザーに提示せず、要約モデルで処理した結果を見せてるだけなんで思考部分と返事のすれ違いはよくある事。これについてもスレに書かれてある。
1.2.論理的思考とコーディング能力の退行(リグレッション)Gemini 3.0 Proは「PhDレベルの知能」と謳われているにもかかわらず、多くのユーザーが論理的思考やコーディング能力において、前モデルであるGemini 2.5 Proからの明らかな退行を報告しています。
ユーザーからは「複雑な指示では論理が破綻する」との指摘や Gemini研究@リョウスケ (@chatgpt_ai_bard) / Posts / X、「浅い推論(shallow reasoning)」しかせず、「ひどいハルシネーション(terrible hallucinations)」を伴うため、「ベンチマーク用のモデルだ」と酷評されています。 lluviampo (@XXXadiov2)
ここでリンクされているGemini研究@リョウスケはGemini大好きマンで、まったくそんな話をしていなかった。もしかすると呟いていたかもしれんが、それならリンク先がポストではなくアカウントのホームになっているのは不自然。
DeepResearchはよくソースの取り違えをして、別のソースで書かれてた事に間違った引用元をつける事はあるが、これがそうなのかは分からん。
1.2.論理的思考とコーディング能力の退行(リグレッション)・コーディング能力の劇的な低下
壊れたコードの生成:エージェントタスクにおいて「ループに陥り、壊れたコードを書き、10分以上動作しない」という深刻な不具合が報告されています。 prylo (@AgiGuard8)
元のツイでは
エージェントタスクは全くダメ、ループする、壊れたコードを書く、フロントエンド以外のコーディングではトークンを異常な速さで消費する。このモデルは最悪だ。Gemini 3.0 Proは10分以上動作しない。
と言っているが、これをモデルの不具合と解釈するのは間違いだろう。たまにマジの不具合もあるが。
====
バグの再発と整合性の喪失: ある開発者は、旧モデルで失敗したツール開発をGemini 3.0 Proで再試行したところ、一発で高品質なコードが生成されたと肯定的に評価する一方で、別の文脈では「直したはずのバグが復活する」「最終的にはコードの整合性が取れなくなる」といった、旧モデルと同様の問題が依然として存在することも示唆されています。 【検証】Gemini 3.0 Proの実力は?かつてAIが挫折した開発に「同じプロンプト」で挑んだ結果|start withAI
リンクされた記事の中身を要約すると「以前のGeminiはバグが復活するとか色々あったけどGemini 3.0 Proマジパネェ!」だった。
この箇所で「旧モデルと同様の問題が依然として存在する」と書かれているのは、旧モデルの問題点として挙げた箇所をGemini3に対しての指摘だと勘違いした事による。
====
ベンチマークテストでの失敗:YouTubeでの検証動画では、チェス盤を自動プレイさせるタスクにおいて、Gemini 3のチェックポイントモデルが初めて失敗したことが示されました。これは、特定の複雑なロジックにおいて、以前のバージョンより劣っている可能性を示唆します。
ここでリンクされているのは、LMArenaでRiftrunnerモデルをテストした結果をまとめた動画。LMArenaは覆面調査環境、RiftrunnerはGemini3らしきモデルのコードネーム。LMArenaでは(出力から推測されてきた)Gemini3系列モデルが、これまでにいくつかでている。
よって「Gemini 3のチェックポイントモデルが初めて失敗した」の意味はつまり「これまでLMArenaでテストされていたGemini3系列モデルのうち、Riftrunnerは初めてオートチェスのコーディングに失敗した」である。
「以前のバージョンより劣っている可能性を示唆」とは、「Riftrunnerは、以前の匿名Gemini3系列モデルより劣っている可能性がある」という話で、そもそもRiftrunnerが、リリースされたGemini 3 Proなのかすら分からん。
====
GitHubのIssueやTwitterでは、モデルの内部的な「思考プロセス」が最終的な出力に混入し、制約を無視した意味不明なコンテンツを生成するバグが報告されています。これは「初期の2.5 Proバージョンへの回帰(regression similar to early 2.5 Pro versions)」のようだと述べられています。 Jason L (@Jason1820067393)
GoogleAIStudioでの話。初期指示を忘れた結果思考が垂れ流しになり、垂れ流しのせいで更に指示を忘れたのだろうが、バグとは違う。
I'm encountering a significantissuewith the Gemini 3.0 ProPreviewonAIStudio.
Theraw "Thinking Process"is leaking into thefinal output, themodel fails to follow constraints, producing hallucinated/gibberish content.Like a regression similar to early 2.5 Pro versions.
と書かれていて、これは正しい観察。
ここに含まれるIssueという単語により、Issueと言えばGitHubだと連想した結果「GitHubのIssueやTwitterでは」になったのだろう。
飽きました。誰得だよ。
つーかいい加減DeepResearchは一気に生成すんのやめろよな。だいたいこうやって収集した情報がごっちゃになるんだから。
増田です。DMM傘下のAlgomaticが提供していた「にじボイス」がサシュウを発表した。
プレスリリースには「法的な権利侵害はなかった」「パラメータ調整の結果、偶然似てしまった」などと書かれているが、これを真に受けている人は少し冷静になったほうがいい。
「日本の法律では学習は合法だ!」「日俳連の圧力に屈した!」と騒ぐ擁護派もいるが、今回の件はそんな単純な話じゃない。
これは「AI技術の敗北」ではなく、「ある企業が吐いた嘘と、杜撰なデータ管理が露呈して自爆した」というだけの話だ。
盲目的に企業を擁護する前に、技術的な事実関係の「答え合わせ」をしておこう。
なお、あくまで技術的な根拠を示しているだけであって、問題があると断言できないことは断っておく。
まず、擁護派が盾にする「著作権法30条の4」について。 確かに今の日本の法律では「情報解析」が目的ならば、元データが何であれ(おそらくエロゲーから音声を抽出したデータセット『moe-speech』であっても)、それをAIに食わせてAIモデルを作るだけなら、一応は適法とされている。 そこだけ切り取れば、違法ではないと言い張れる余地はある。
Algomaticが行っていたのは、一般的な基盤学習にとどまらず、「特定のキャラクター(=特定の声優)を狙い撃ちしたFine-tuning(追加学習)」である疑いが極めて濃厚だという点だ。
『moe-speech』は、親切なことにキャラごと(声優ごと)にフォルダ分けされている。 ここから特定のフォルダを選んで、「その声優の声質や演技の癖」を再現するために個別学習(Fine-tuning)を行う。 これはもはや「データの統計解析」ではない。特定個人の実演の「デッドコピー(模倣品)の作成」だ。 これをやると、生成された音声には明白な「依拠性」が生まれる。つまり「パラメータ調整で偶然似た」のではなく、「その声優のデータを意図的に使って似せた」ことになる。これはパブリシティ権や人格権の侵害に問われる可能性が極めて高いラインだ。
Algomaticは「適切な権利処理を行った」「声優から許諾を得た」「パラメータ調整で作った」と主張していた。
しかし、有志による技術検証によって、その主張と矛盾する証拠がいくつも出てきている。
「にじボイス」の音声を分析すると、キャラによって音量が不均一だったり、明らかに古い年代のマイクで録ったような「こもった音」が混在していることが判明している。 もし公式が言うように「統一されたスタジオでプロを呼んで新規収録」したなら、こんな品質のバラつきが出るはずがない。 これは、録音環境も年代も異なるバラバラのゲームデータ(moe-speech等)を寄せ集めたと考えるのが自然だ。
検証の結果、有名声優の声と音声の特徴量が「ほぼ本人」レベルで一致するキャラが多数発見されている。 「パラメータ調整で偶然似た」と言うが、声の高さや速度はいじれても、その人特有の「骨格からくる響き」や「微細な演技の癖」まで偶然一致することは、AIでもまずまずあり得ない。 元データとして「その人の声」を食わせない限り、ここまでの再現は不可能だ。
これも動かぬ証拠だ。元ネタの『moe-speech』には、作成者の抽出ミスで「幼い女の子の祖父の声(老人男性)」に、誤って「幼女(女性声優)」のタグが付いているという有名な汚れ(エラー)がある。
これを踏まえて、にじボイスに実装されていた「ある老人キャラ」の声を解析モデルにかけると、どうなるか。 なんと、「この老人の声は、〇〇(特定の女性声優)である」という判定が出たのだ。
意味がわかるだろうか? にじボイスのモデルは、「このおじいちゃんのダミ声=あの女性声優の声だ」という、moe-speech特有の「間違った知識」を学習していたということだ。
もしAlgomaticが主張するように、スタジオで老人役の声優を収録したなら、そのデータに「女性声優」のタグが付くわけがない。 これは、「タグ付けミスすら直されていないネット上のデータを、中身の検品もせずにそのまま学習させた」という、言い逃れのできない証拠(トレーサビリティ)になってしまっている。
今回のサービス終了は、日俳連の理不尽な圧力によるものではない。
「自社開発」と謳っておきながら、実際はネットのデータを検品もせずに流用していた事実が、技術的な証拠によって明るみに出そうになったため、これ以上の追及を避けるために店を畳んだ。
そう見るのが妥当だ。
「AI推進派」を自認する人たちにこそ言いたい。 もし本当にAIの発展を願うなら、こうした「産地偽装」のような振る舞いをする企業を擁護してはいけない。
それは真面目にコストを払い、権利処理を行い、クリーンなデータセットを構築しようとしている技術者への冒涜であり、ひいてはAI技術そのものの社会的信用を地に落とす行為だ。
「AIだから何でも許される」わけではない。技術は魔法ではないし、嘘はいつか必ずバレる。
今回の件を「可哀想なAIベンチャーがいじめられた」と総括するのは、あまりにも事態の本質を見誤っている。
以上。
最近ほんと実感するんだけど、中国人観光客が減った瞬間にホテルの値段が普通に戻ってきててビビる。あれだけ「インバウンドは中国人がいないと経済が回らない」とか言ってたの、なんだったんだって感じ。
だって今みたいに中国人がほとんど来てない状態でも、ホテルは値下がりしてむしろ利用しやすくなってるし、街がパンクすることもないし、困ってるのって“爆買い前提の商売モデル”だけでしょ。そりゃそういう店は苦しいだろうけど、それって単純に依存しすぎてた問題であって、日本全体の必須インフラみたいに扱う話じゃない。
むしろ、宿泊の価格が落ち着くことで国内の旅行者が戻ってきてる側面もあるし、これ見ると中国人インバウンドがなきゃ終わりって言ってたのは完全に思い込みだったんじゃないのって思う。
結局、日本に必要だったのは“特定の層への過度な依存”じゃなくて、普通に誰でも使える適正価格の観光環境だったんじゃないかと改めて思わされるわ。
値段が高くなる事と、"ない"という事が良い印象を持たれる唯一の商品である。
まず値段が高くなる事について。
世の中に存在するあらゆる商品は値段が上がるとみんな不満に思うし、文句が出る。ネガティブな印象を持たれるし人々の購買意欲は下がる。
スーパーの野菜の値段が上がったら良くないニュースとして扱われるし、米の値段が上がった時なんかは大ニュースになって世間の不満が凄かった。政府も動いた。そのレベルのネガティブニュースとして扱われた。ガソリンや石油製品とかも同じ扱いをされる。
それとは全く別の、現物資産的な側面を持つロレックス、PP、AP等の高級時計やエルメス等の値上げですらも喜ばれない。(中古市場に価格反映される場合、既存ホルダーは恩恵を受けれる為喜ぶかもしれないが。)
しかし、株に関しては値段が上がると喜ばれる唯一の商品である。
値段が上がる事がポジティブなニュースとして扱われる、人々に購買意欲を与える事に繋がる。
でも実際問題、値上がり前より高い金額を出さないと買えなくなっている、普通に考えるとみんな安い金額で買える方が嬉しい筈である。それなのに何故喜ばれるか。
それは価格が上がる事によって、更なる株価の上昇という"夢を見れる状態"に変化したからである。
人は夢を見てしまっている時が1番財布の紐が緩むし正常な判断が出来なくなる。
自分が欲しい結果である為、自分は適切なアプローチをしている、というバイアスも掛かりやすい。
みんな大切なお金を持って相場に来ている、丸腰で勝負しようとなんてしない。なので知識をある程度つけて望む事になる。その知識が合っているかはともかく、正しい投資をしているというバイアスまでかかる。
将来という不確定な結果へのアプローチなので正解がないから相対的な判断も出来ない。
しかも答え合わせはすぐに来ない。そこに欲まで絡むと最悪だ。
ホストやキャバ嬢が色恋営業して将来の関係性や肉体関係、という夢を見させて"高い酒を買わせる"ように、仕手筋が参加者に対して資産が増える、という夢を見させて"高い株を買わせる"場所なのである。
ホストやキャバ嬢は言葉や体で夢を見させて金を引っ張る。仕手筋は値動きで夢を見させて金を引っ張る。
本質は同じだと思う。
高くなって喜ばれるのは、値上がりにより"夢"というプレミアがつくからである。
次に、"ない"が良い印象を持たれるという事。
人は希少価値に弱い、"「限定」、「ラスイチ」"という言葉に弱い。ステータスや所有欲にも弱い。
これに関しては割と馴染みのある現象だと思う。
お店とかで「限定!」や「ラスイチ!」という言葉に釣られて買ってしまった経験ある人は割といると思う。
人は買えなくなってしまう、これを逃したら買えない、という選択肢に弱い。(この手の選択は割とストレスがかかる行動である。ストレスから逃げたいが故の一種の防衛反応なのかもしれない。)
更には、「数少ないもの、レアなものを所有している」というステータスにもなる。所有欲も満たせる。
ステータスを意識して買い物をする人間は世の中にとても多い、だから世の中に数多くのハイブランドが存在している。ハイブラや高級車が売れるのは人間がステータスを意識する生き物だからである。
先述したロレックス、PP、AP等の腕時計、エルメスであればバーキンを中心としたカバン類。シェーヌとかも品薄だった気がする。
この辺はお店に行っても買えない。意図的に出す客を選んでいる。"ない"状態を作っている。
デイトナを中心としたスポーツモデルはまず出してもらえない。GMTもむずい。サブは比較的簡単だと思うけど。
自分も3年前の夏に、「時計が欲しい、とりあえず有名だしロレックスを買おう!」と思い都内の色々な店を回ったが買えるまで1ヶ月以上掛かった。当時22歳のガキだったし印象はあまり良くなかっただろう。
アパレルであれば、一時期のSupremeを中心としたWTAPSやAPEやネイバーだったりの裏原系ブランド。NIKEのレアスニもその類。他も色々品薄やってるところはある。最近はクロムハーツも品薄。
全部普通に買えないし買うのがとても大変、最近はどこも抽選になっているが2018年くらいまでは徹夜並びや始発集合がザラ、ブロック抽選とか懐かしい。
買える人が少ないからこそ所有欲は満たされるし、実際にモノ自体も少なく需要と供給が吊り合っていないので希少価値は当然高い。
Lない、Mない、Sない、もういい?って感じの状況が1番人の所有欲を満たしてくれる。
株に関してもこれは言えて、
値段が上がってくると、これからも値段が上がる!もうこの値段じゃ買えなくなるぞ!という、「限定」や「ラスイチ」と同じ様な心理が働く。そうなると人は冷静な判断が出来なくなって、本来あまり欲しくなかった株や普段なら買いたくない高い値段になった株でも買ってしまう。
もしそこから値段が上がった場合、株を安く買えたという事になる。そうなると「この株をこの値段で持っているぞ!!」という形で所有欲を満たしてくれる。「あの株をこの値段で持っているぞ!!」というステータスにもなる。SNSでドヤれる。(実際ドヤってる人は多い、株やる上でSNSをやるのは良くないと個人的には思う。)
過去の成功体験が焼きついている人ほど、この心理になりやすいと思う。
品薄の方に関しても、浮動株や発行株数が少ない方がいい。モノが少ないからすぐに売り切れになりやすい。物理的に"ない"になりやすい。需要と供給が吊りあっていない"ない"ものは良い。箱として良い。
結局相場は人間の心理によって成り立ってるもので、相場作る人の出口戦略は人の心理をとことん利用していると思います、まる
以上!
与えられた経済モデルを解いて数式で演繹し、それが社会的に表わしているものを読んで喜んでいる頃の。
最近「AIの思考は人間と本質的に違う!」みたいな主張をよく見るんだけど、正直そこまでの差があるとは思えない。
少なくとも、自分自身の思考を観察してみると「そこまで特別なプロセスじゃないな……」って感じることが増えた。
というのも、人間の思考って結局のところ、これまでの経験や知識のパターンから“次にありそうな結論”を予測してるだけじゃないか?
「直感」とか「理解」という言葉を使うからすごいことをしているように見えるけれど、中身はわりと統計的な推論の積み重ねだと思う。
一方でLLMは、過去データから確率的に次を予測するモデル。仕組みは違うけれど、やってることはかなり似ている。
じゃあどこが違うのかと言えば、「身体性がない」とか「内的動機がない」とか、だいたい“現状の仕様”の話ばかりで、構造上の絶対的な違いという感じはしない。
私は正直、刺激が来たら反応してるだけだし、褒められれば嬉しいし、怒られたら凹むし、わりと条件反射的な存在だと思う。
「AIには世界の理解がない」みたいな話もあるけれど、じゃあ世界中の映像・音声・センサー情報をぶち込んで、ずっと観察させたらどうなるか。
普通に“世界を予測できるモデル”になるだけで、それは自分たちが小さい頃から五感で学んできたことと違うようには思えない。
それは本質というより“データ量とインターフェースの違い”に近い。
「人間の思考には本質的な特別さがある」と信じたい気持ちはわかる。
でも、いざ自分の思考をじっくり眺めると、そんなに魔法みたいな機能は見当たらない。
むしろ、パターンの積み上げで動いているところはLLMとけっこう似てる。
だから私は、「本質的な違いはそこまで大きくない」という立場だ。
もちろん“人間のほうが複雑で多様なデータを処理してる”とは思うけれど、それは量や種類の問題であって、質的な隔たりではない。
結局、私たちは自分の思考を特別視したいだけなんじゃないか──
最近そんなふうに思うようになった。
インスタとかTwitterとかで筋肉アピール?デキる男?のルーティンみたいなのを見て思ったけど、結果を示せよと思ってしまった。
それは収入とか住まいとかお金ではなく、シンプルに「パートナー」だと思うんだわ。
それだけイキるなら最低でも芸能人、有名モデル、何なら今一番モテる、誰もが嫉妬する相手を登場させろよ。
「存立危機事態(=限定的な集団的自衛権)」の3要件は、ざっくりこうです:
ここに当てはまりそうかどうかで
くらいに分けてみます。
法技術的には「台湾も日本と密接な関係にある『他国に準ずる主体』だ」とか、
「台湾陥落は日本の存立を危うくする」と論じる余地はゼロではないですが、
現行の政府説明・国会答弁からすると、ここでいきなり存立危機事態と認定するのは相当ハードルが高いと思っておいた方が現実的です。
「封鎖が日本の存立を脅かす」として、政府が 「存立危機事態になり得る」 と答弁してきたのはまさにこういうパターンに近いです。
ただし、①(密接な関係にある他国への攻撃)をどう構成するかでまだ議論の余地があるので、理屈は立つが政治的には相当繊細なゾーン。
ここは、もはや集団的自衛権の前に個別的自衛権がドンと立つケースです。
が二重に成立し得る状況です。
「台湾有事を理由にした対日攻撃が来たら、自衛隊が反撃しない選択肢はほぼない」レベルと言ってよいゾーン。
このケースは「集団的自衛権の線引き」というより、
「台湾有事に巻き込まれて日本が直接殴られたらどうするか」という話になります。
| ケース | 中身 | 存立危機事態(集団的自衛権)として |
|---|---|---|
| 1 | 台湾外島で小規模衝突・米軍不介入 | ほぼアウト(重要影響事態どまりが現実的) |
| 2 | 台湾本島侵攻・米軍は遠方から関与、日本無傷 | ほぼアウト〜グレー(理論構成は可能だが政治的にかなり重い) |
| 3 | 台湾封鎖+日本向けシーレーン・通信に致命的打撃 | グレー〜ぎりぎりセーフ候補(政府が「なり得る」と言いそうなライン) |
| 4 | 台湾有事を口実に在日米軍基地・日本本土にミサイル攻撃 | ほぼ確実INだが、主役は個別的自衛権(日本防衛)。CSDも併存し得る |
| 5 | 台湾有事の現場で日本船舶・海保・自衛隊だけ攻撃 | ほぼ確実INだが、これも基本は個別的自衛権の枠組み |
…というイメージです。
…みたいな論理で押し通してたわけじゃん。
でも著作権がAI出力に認められた瞬間、それ全部ひっくり返るんだよ。
そのアウトプットを生み出す過程も著作物として扱われうるってことなんだよ。
これ、もう逃げ道ないじゃん。
権利があるなら、当然だけど“権利侵害の責任”もついてくるわけで。
今まで生成AIを使っていろいろ作ってた人は、
「学習データに無断利用があっても関係ない!」って言ってたけど、
じゃあ逆にAIが誰かの作った絵に似すぎたときはどうするわけ?って話。
「これ誰々の絵に似てますよね?」
「無断使用ですよね?」
これが今回の一番デカい衝撃なんだよ。
生成AI界隈の人ってよく
って言うんだけどさ、
って問題が出てくるんだよ。
プロンプト打ったやつ?
誰が著作者なのか明確じゃないのに
って言われても、実務的には超カオス。
これ、ほんと地獄。
いやいやいやいや、
著作権主張するなら、学習データの責任からも逃げんなよって感じ。
その結果生まれた画像にだけ「クリエイティブです!」って主張するの、
それもう完全に良いとこ取りだから。
「学習はセーフ」
「AIは道具であって作者じゃない」
「元作品と似て見えるのは偶然」
こういう建前はもう通用しなくなる。
なんだよね。
電車でよく見かける男性がスーツとセンターパートがよく似合うイケメンさんで見かけるのが楽しみだったんだけど、この前iPadで乃木坂のPVや配信番組のようなものをずっと見ていた。
韓国の女性アイドルのPV見てたり、モデル女性のインスタずっと見てたとしても全く気にならないんだろうけど、乃木坂のPVをずっと見ているという一点でなんかこのイケメンがめちゃくちゃ低レベルの男性に見えてしまった。
たまにバラエティとか音楽番組で坂道系のアイドルグループ見かけると思うけど、あそこまで(ある程度美意識や美容にこだわりがあって自立した)女性が好きになる要素ゼロで弱者非モテ男性が好きになる要素満載のアイドルグループって珍しいと思う。
Permalink |記事への反応(24) | 01:32