
はてなキーワード:アイディアとは
たぶんな、ズブズブになって何が困るって、そこで無駄が生じるからなんだ。
トランプがディープステートって批判するみたいに、国と軍事産業がズブズブで、必要ないほど軍事企業に金がいき、そっから国に戻りを繰り返して、どんどん膨らんで膨らんで無駄が無駄を産む、みたいなのが問題なわけだ。
地方で、業者と地方自治体がズブズブで無駄が増えたら、誰が被害者か?
そりゃ、本来1万円のウニが届くはずが8000円のウニしか届かなくなる返礼品を受け取る人だよ。
1万円の税収があるはずが、返礼品とコストで8000円の税収しかならないわけで、住民も被害者だ。
しかし、どっちかっていうと、返礼品ビジネスで儲けてる業者へのやっかみからの批判のほうが多いと思う。
集めた税金を民間に使うっていうのは、経済対策、地域振興としていいことだ。
なにをするか、Whatの部分でも正解。
そのうえで、Howの部分で、公正であったらもっといいけど、それはWhyとWhatの次の問題。
そんなこと言いだすと、住宅ローン減税なんか家買えるような金持ち優遇って批判も、不動産業界だけ優遇してるっていう批判もできるし、実際あるけど、全ての政策はメリットデメリットがあるわけだ。
返礼品の上限を変えたらいいのか、控除額の上限を変えたらいいのか。
ただ、やっかみとか公平の話って、程度の問題という話をすっ飛ばして、ズルいかそうでないか、正義か悪かにぶっ飛んじまうんだよな。
個人の思い、ミクロな話と、財政や経済、マクロな話はたいていぶつかる。
民主主義では、金がダブついてるから物価が上昇してるのに、物価が上昇してるから金をばら撒け、みたいな話が多数決で通る。
その点で、ふるさと納税って、節税したいっていう人間の欲を原動力として、自治体を競わせるすげーアイディアだと思う。
民主主義っていう、多数決数の暴力で試合をしてると、どうしても頭数が多いところの主張ばっかり通っちゃうからな。
節税ぶらさげて、金持ちを田舎の味方につけるとか、面白くてしかたねぇ。
最終的には、ほんと、程度の問題だよ。
俺は、どっちかっていうと返礼品の上限なんか要らないって思うけど、日本中のふるさと納税の何割もを泉佐野が独占みたいなのは流石にアレだとおもった。
集めた金をなにに使おうと構わん派。
地域振興に限らず、たとえ集めた金で自治体がNVIDIAの株を買ったって構わんと思う。
ただ、それだって額にもよるわな。
とにかく、最適解は知らんけど、すげー制度だと思うよ。ふるさと納税。
やっかみで潰すのはもったいない。
英語での「piggyback」の意味について詳しく説明します。
「piggyback」は、元々はおんぶや背負うという意味で使われる言葉です。具体的には、何か(または誰か)を他の人の背中に乗せて運ぶ、または背中に乗ってもらう行為を指します。子どもが大人の背中に乗る時などに使われる表現です。
• 例文:
• “The childwas givinghis father a piggyback ride.”(子供は父親におんぶしてもらっていた。)
「piggyback」は、物理的な「おんぶ」や「背負う」の意味だけでなく、比喩的に使われることも多いです。以下のような意味で使われます。
何かを他のものに「乗せて」進行させる、もしくは他のものに依存して動かすという意味で使われます。この意味では、物理的な「乗る」という感覚が比喩的に使われています。
• 例文:
• “The newsoftware runson a piggyback system ofthe existing platform.”(新しいソフトウェアは、既存のプラットフォームを基盤にして動作する。)
• “The small companyis piggybackingon the success of the larger corporation.”(その小さな会社は、大企業の成功を利用している。)
2.2. 一緒に運ぶ/追加する
何かを主となるものに「追加して」進める、あるいは別のプロジェクトやタスクに「加える」という意味で使われることもあります。
• 例文:
• “Wewill piggyback a marketing campaignon our product launch.”(製品発売に合わせて、マーケティングキャンペーンを一緒に行う予定です。)
2.3.一時的な付加
何かが既存のシステムや方法に追加的に加えられるという意味でも使われます。特に、主となるものに追加的に乗せて使う場合に使われます。
• 例文:
• “The new featureis piggybackingon the oldversion of the app.”(新機能はアプリの古いバージョンに追加されている。)
3. 他の使い方
• Piggyback ride:おんぶや背中に乗ることを指しますが、特に遊び心のある、軽い意味で使われます。
• Piggybackjump:競技やトレーニングにおいて、他の選手の背中に乗ってジャンプする動作を指すこともあります。
まとめ
「piggyback」は、もともとおんぶや背負うという意味から派生し、比喩的には「何かを他のものに乗せて運ぶ」「依存している」「追加する」といった意味でも使われます。特にビジネスやテクノロジーの分野では、既存のシステムや成功に依存して新しいプロジェクトやアイディアを進めるという意味で広く使われています。
もっとも典型的な反応は、はてなブックマークなどでもよく見られるものであるが、「売る方が捕まるのに買う方が捕まらないのはおかしい(から賛成)」というものだろう。
これは大久保公園などで立ちんぼ行為を行っている側のみが警察の検挙の対象となり、客待ち・客引き行為に応じた側が検挙の対象とならないことを指しているものと思われるが、これらの立ちんぼ行為が検挙され罰せられるのは、売春防止法の第五条において、公衆の面前や公共の場所で勧誘や付きまとい行為をすることが刑事罰化されているからであって、売買春そのものが理由ではない。
罰せられているのは立ちんぼ行為であり、売買春それ自体は違法ではあるものの罰則はないため、立ちんぼ行為に応じる側が検挙・処罰の対象にならないというだけである。法律自体には性別の区別はなく、(実際に立ちんぼ行為を行うのは女性が圧倒的に多くまた売春防止法が違法とするのは性交のみとはいえ)それ自体は価値中立的な法律である。
他方、高市が実際に検討しようとしているのは、いわゆる「北欧モデル」に則って、買春行為それ自体を刑事罰化して取り締まるというアイディアであると考えられ、この場合、売春行為は現行法同様、違法ではあるが罰則はないままとなり、他方買春行為のみが刑事罰化され罰せられることになる。つまりその意味で「買う側のみ罰する」非対称性を肯定するアプローチなのだ。なお、このようなアプローチは立憲の塩村などによって「国際基準」などと喧伝されるが、アムネスティによる勧告などを見てもわかるように、およそ国際基準とは言い難い(たとえばニュージーランドは2003年に売買春を非犯罪化している)。
また買春の刑事罰化の検討を最近ニュースにもなった12歳のフィリピン人少女の人身売買事件と結びつける向きもあるが、端的にこれはまったく無関係である。児童買春に関する罰則は既にあるし、そもそも同意年齢未満である以上、(その構成要件を満たす行為を行っていたのであれば)より刑罰の重い不同意わいせつや不同意性交等罪によって買春者は処断されるからだ。
立ちんぼを行う側が警察によって検挙され、それに応じる側が検挙されないのがおかしい(確かにそこには非対称な関係があるようにみえる)というのなら、立ちんぼ、すなわち街頭での客待ち・客引き行為に応じる行為をピンポイントで罰すればよく、その点で何も問題はないようにみえる。実際、仮に法改正がその水準にとどまるなら、立ちんぼ行為が今よりも少なくなるぐらいで、日本の性風俗の景色が大きく変わることはないだろう。
しかし、仮に改正が買春行為自体を刑事罰化するものであるなら、その余波は相当に大きくなるはずである。
まず、問題を整理しておくと、売春防止法において現に禁止されている「売春」とは「性交」のことであり、「性交」とは刑法上、膣性交のことを指す。つまり、フェラや素股、また肛門性交のような膣性交以外の性交類似行為は「売春」ではなく、売春防止法上、これらの行為は違法ではない。これが本番行為(膣性交)を行うソープと違って、本番行為が禁止されているデリヘルのような一部の性風俗業が売春防止法による摘発の対象とされない理由である。
とはいえ現にソープランドは繁盛しているではないかと言われるだろうが、ソープランドがその存在をいちおう許容されているのは、ソープランドの施設管理者等が自身はたんに浴場施設を提供しているだけであり、そこでの顧客の行為については認知しないという建前によって、場の提供や周旋を禁ずる法の抜け穴を衝いているからとされる。もっともこのような建前が常に通用するかといえばそんなことはなく、警察の匙加減ひとつで摘発が行われ、現に最近も女性へ高額の貸付を行うホストクラブの背後にソープへの斡旋を行うスカウトなどがいるとの見立てから、売春防止法に基づく施設管理者等の摘発が行われている。
ソープについては、そこで行われている性行は当事者間の「自由恋愛」の結果の行為であり、対償を受ける目的で行われる売春ではないから合法なのだとの主張もある。ソープ店に支払われる料金はあくまで「入浴代」であり、性交の対償ではないという理屈である。もっとも、摘発が現に行われている以上、警察としてはそこで他でもない売春が行われていると認識しているのだと考えるべきだろう。ソープ嬢とそのサービスの利用者が検挙され処罰されないのは、売春防止法が売買春行為自体に罰則を付していないからにすぎない。法改正の過程でもそうしたエクスキューズがそのまま是認されるとはおよそ考えがたく、論理的な必然としてソープにおける本番行為は違法であり処罰対象であるとの判断が導かれることになる。
むろん、ソープにおける本番行為が刑事罰として罰せられるようになったからといって、あくまで本番行為は行われていないという建前があるため、ただちにソープランドの利用客が警察の検挙に遭うといったことはないかもしれない。もっとも、事実として本番行為が行われている以上、ソープ利用客は犯罪者としていつでも処罰を受けるリスクを負うことになり、そのリスクを嫌う利用客がソープを利用しなくなることで、業としてのソープが廃業に追い込まれる可能性も十分考えられる。
なお、上述したように、たとえ買春行為を刑事罰化したとしても、売春行為を膣性交のみに限定する現状の売春防止法の定義を維持するなら、デリヘルなど本番行為を行わない性風俗産業は依然として存続しつづけることになる。もっとも、そのような定義はおかしいという批判は既になされており、売春の定義を性交類似行為を含むものに改正することも考えられる。その場合、デリヘルなど性交類似行為を業とする風俗店もソープ同様の帰結を辿ることになる。
またさらに付言しておくと、現行の売春防止法の枠組みではAVは合法とされる(少なくともそのような説が有力とされる)。売春防止法が禁止する売春の定義は「対償を受け、又は受ける約束で、不特定の相手方と性交すること」であり、AVはこの対償と不特定という構成要件の性質を満たさないとされるためであるが(AV女優・男優はあらかじめ特定された任意の個人と性交し、性交それ自体ではなく「演技」を理由にその対償を受け取る)、法改正の過程ではこの解釈についても問題となる可能性が高い。
以上、ざっと日本の性風俗産業と買春行為を刑事罰化することの関係を述べてきたが、当然こういった業としての売買春だけでなく、パパ活のような個人間の売買春においても問題は大きい。売春防止法においては、上述した不特定性の要件から、愛人のような継続的な関係性のある特定の相手方に生活費等を与えつつ性交をすることは違法ではないとされるが、果たしてそれ自体の扱いもさることながら、パパ活との線引はどう行うのか。刑罰化するとなれば、曲がりなりにも国家権力による強制力の対象となり、刑法の自由保証の機能の観点からも構成要件の厳格な具体化が求められ、その作業が困難となることは想像に難くない。
要するに、日本の性風俗に関する規範は、さまざまな法律とその(アクロバティックな)解釈を積み重ねた、デリケートなガラス細工のような姿をしている。改正するにしても、たんに立ちんぼに群がる汚いおっさんを処罰したいのか、それともソープを無くしたいのか、デリヘルもAVも含めて性に関わる産業をすべて無くしたいのか、パパ活も絶対に許さないのか、とりうる目標によって法改正の内容は大きく変わってくる。
そしてここには自明のことながら、自分の身体をどう処分するかについて国家にどこまで介入する権利を与えるのかという、政治哲学上のリベラリズムの大問題が介在してくることになるのだ。また、刑罰化されたのちに実際のセックスワーカーたちの処遇がどうなるのか(理念とは逆にその職業は根絶されず状況は悪化するのではないか)、という帰結主義的な観点からも慎重な検討が必要となる。
SNSサイトはてなブックマークにおいて「高市財政」で検索した結果、以下3つの人気記事があります
ビル・ミッチェル「日本の誤った財政ルールは必ず裏目に出る」(2025年10月30日)
https://econ101.jp/japan-errant-fiscal-rule-is-sure-to-backfire/
https://b.hatena.ne.jp/entry/s/econ101.jp/japan-errant-fiscal-rule-is-sure-to-backfire/
急激に改善する財政状況|永濱利廣(第一生命経済研究所首席エコノミスト)
https://comemo.nikkei.com/n/n4e0be4db3d5a
https://comemo.nikkei.com/n/n4e0be4db3d5a
ノア・スミス「高市早苗のための経済アイディア」(2025年10月29日)|経済学101
https://note.com/econ101_/n/n5d61a5607480
https://b.hatena.ne.jp/entry/s/note.com/econ101_/n/n5d61a5607480
それぞれの本文とはてなブックマークの反応を見て、「高市政権と財政」についてネットでどのような議論があるかをまとめましょう
了解。ご指定の3本(ミッチェル、永濱、ノア)の本文と、はてなブックマーク上の“受け止め”を突き合わせて、「高市政権と財政」をめぐるネット議論の地図を作りました。
MMTの立場から、(高市政権が示す)名目指標ベースの財政ルールは“実物制約”を無視してプロサイクリックになると批判。
財政余地は公債残高比率では測れず、失業・遊休資源など実体に合わせよ、という主張。
JGB入札の応札倍率や日銀保有の大きさを挙げ、国債の信認不安論を退けています。
総評:プロサイクリック批判は筋が良い。名目成長に連動した“上限”設計は、減速期の裁量財政を縛りやすい。
Caveats:
① ただし実務は“方針”であって硬直的ルールにしない運用余地が残る(国会・補正運用)。記事はその裁量をやや軽視。
② 「実物制約ベース」は理想だが、潜在・需給ギャップ推計の不確実性(リアルタイム改定)を伴うため、名目・市場指標との二重トラックで監視する現実主義が必要。
③金利感応度上昇局面では、「どの程度の赤字が期待インフレや通貨へ波及するか」を並行管理すべき(記事は通貨・金利連鎖の運用論が薄め)。
賛成側は「PB原理主義より成長優先への転換は前進」「名目ルールはプロサイクリックになり得る」と評価。
懸念側は「インフレ進行下で積極財政を煽るな」「高齢化下で社会保障をどうするかが欠落」と分かれ、MMT的主張への批判も目立ちます(“インフレスパイラル無視?”など)。
r<g(名目成長>利回り)局面で債務比率は下がる=名目成長・インフレの立ち上がりが税収増を通じて財政を改善、という“債務動学”の再確認。
総評:現状認識としては妥当。名目の立ち上がりが税収を押し上げ、短期の指標改善に寄与しているのは事実。「PB一本足打法からの転地」を促す点にも価値。
Caveats:
① 持続性の問題:r<gは状態依存。世界金利・成長の変化でr>gに戻れば逆回転。
② 分配の問題:インフレ期の名目改善は実質負担の再配分を伴う。ターゲット給付や時限減税で逆進性を緩和しないと政治的持続性に欠ける。
③ 「急激」表現のリスク:恒久歳出や恒久減税の根拠に用いると、景気反転時に構造赤字を再拡大。トリガー条項・自動安定化装置とセットで読むべき。
「インフレで財政改善は“金融抑圧=インフレ税”で家計から政府への逆進的移転」「改善は循環要因で恒常化は危うい」という分配・持続性への警戒が強い。
一方で「PB原理主義を緩める論点提示は有益」「上げ潮派の論点が実証で裏付いた」と評価する声も。
“名目で見える改善”をどう制度設計に落とすか(時限措置・自動安定化装置)に議論が集約。
①グリーンフィールド型の対日直接投資(工場・R&D誘致)、
②企業文化改革(中途採用拡大・女性管理職・フレックスタイム等)、
③エネルギー転換・防衛R&D・ソフトウェア産業育成…等を提案。
円安や地政学はチャンスとして活かせ、という“実装型アジェンダ”。
総評:“積極財政で一気に”ではなく“ボトルネックごとの実装”に踏み込む点が良い。FDI誘致・電力コスト・人材という「詰まり」を直視しており、高市政権の危機管理投資路線とも親和的。
Caveats:
①実装難易度:用地・系統・規制・自治体合意・人材移動の摩擦をKPI/時限規制で崩す工程設計が不可欠。
②財政との整合:供給投資の多くは初期コストが大きい。債券需給・利払い増と矛盾しない中期財政フレーム(優先順位・撤退基準)が必要。
③時間軸:短期の物価・円相場に即効性が弱い。ターゲット支援(点)と供給投資(線)の二階建て設計とコミュニケーションが要る。
支持は「現実味ある処方箋」「内需依存から輸出・高付加価値へ」「人材・移民・ITのボトルネック解消に賛成」。
懐疑は「既視感/具体性不足」「実行コストと政治的抵抗がネック」「ソフトウェア弱点は一朝一夕で直らない」。
全体として“積極財政で押す”より“制度・人・投資の実装”への期待が相対的に高い。
反PB・反名目ルール(ミッチェル):景気に合わせた実物制約ベースを。
r<g派(永濱):目先の名目改善を恒常化と誤認するながカウンターで多い。
→結論:“規律の付け替え”は支持も、プロサイクリック/インフレ税への設計配慮が必須。
名目改善は歓迎だが、「インフレ税」「逆進性」の批判が濃い(永濱記事のコメント群)。
→ターゲット給付・時限措置・価格補助の出口をセットで、がネット民の多数意見。
ノア案のFDI誘致/企業文化改革/エネルギー転換は“方向性OK・実装が肝”。
→人材・規制・用地・電力のボトルネック潰し、KPIと実行体制への関心大。
積極財政×利上げ慎重=円安・金利上昇リスクを意識する声も(永濱スレの一部)。
一方で「国債需要は厚い/応札倍率は高い」との安心論(ミッチェル文中のデータ)。
→金利感応度と債券需給を透明化せよ、が実務サイドの共通要望。
PB一本足への懐疑は広がった。
ただしインフレ税・逆進性や恒久化の誘惑には強い警戒。
ジェミニと話し合っていたんだけど、東北は、首都圏に近い千葉や埼玉、平地が多い北海道という強力なライバルに囲まれている。
そして、山が多くデバフが多い。どんな施設にしろ東北に作るメリットがない。それなら千葉に作るわとか、それなら北海道に作るわとなってしまう。
これを何とかするアイディアがあるとしたら、大胆な規制緩和を行いカジノを作ることだろうと。
何もないネバダの砂漠がギャンブルを元に娯楽の町に進化したラスベガスとか、お金持ちの遊園地を作ったドバイみたいにやろうと。
そのために土地をカジノ開発業者に売ってカジノやホテルとかを大々的に開発させる。
ひたすら自由にやらせて、お金持ちと大人の遊園地みたいに好き勝手開発させる。
デバフであった険しい山は、ホテルの窓から見える映える風景になれるかもしれない。
これって大国に囲まれた小国が取る理想的な戦略の一つであるタックスヘイブン政策とかと似てる。
千葉や埼玉、北海道という強力なライバルに囲まれている土地なんだから、それと似たような大胆な規制緩和を行って、あとは民間主導で好き勝手開発させるというのがいいんじゃないかと思う。
人が来れば他の商売も来るし、従業員の住居を中心に街もできるだろうしね。
私としては国産なり日本発のLLM開発を諦めてはならないし, その可能性は十分にあると信じています. 既に出ているものも多数ございますし.
本エントリはそれとは全く別の,
「国産LLMの人」という方についてです.
---------
色々思うところがありまして.
例えば,
と繰り返し主張しておられる.
そのような単純な活性化関数では過学習か誤差が噴出するかの二択でしょう. 実際, 氏のツイートは正にその状態を示唆しているように見受けられます.
```x
▶︎ 誤差が0.12あるだけでとんでもないエラー率になる。誤差関数が雑だから本当はもっとあるのかもしれないが、改善の余地がある。
▶︎問題は、どのような状態の時に学習が成功し、失敗するのかがまだ分かっていない。表現力は十分に持っているはずなのに、なぜか学習しない。
```
過学習に至ったときにうまくいってるように見えるだけでしょう.
```x
▶︎過学習ではないですね。データセットが小さいかつ、それ以外の範囲が出ないことが分かっているので。XORは2^2パターン全て学習できれば精度が100%になりますが、それは過学習とは呼ばないのと同じで、今回の初期のRNNに関しても文字数が圧倒的に少なく、パターンも決まっているので。
```
……と主張されておられる.
私が思うにそれは単純な写像を,ニューロンを使って回り道して作っている状態. LLMは局所的にはたしかに線形写像ですが,全体で見ても線型写像だとしたらそれは複雑な文章生成には到底耐えられないかと. (十分に大きいモデルをマクロに見ると非線形性があるので)
大規模言語モデル=LLMを目指すとして,
そもそもエンベディングテーブルとは数百億から下手すれば1兆語彙を, たった数千〜1万次元程度のベクトルで表現する, 凄まじく繊細なテーブルです.
それをGELUやSwiGLUのような綺麗な活性化関数を使わずに,しかも爆速でやると仰っている. さすがにそのレベルの革新性を主張するには根拠がない限り, 飛躍が過ぎると判断されるかと.
そのやり方で, 例えば1億語彙までスケールするとして2乗の1京回×数千次元をバックプロパゲーションなしで学習するというのは……さすがにきついかと.
バックプロパゲーションが要らないという主張については活性化関数がきわめて単純だから. それなら全層に渡しても「修正」できるでしょう.つまり自明に近いですね.
勾配消失なんて関係ない, という主張については,xorというゼロイチでしか見ないのであれば勾配消失も何もありません.永遠に層を貫通するわけですから, 何層増やそうがほとんど意味が出てこない. つまりそれは実際には極めて浅い層だけで動いてると思われる.
「こんに」から「ち」「は」が次文予測できたとの報告ですが, まぁ……それが「大規模言語モデル=LLM」にそのままスケールできると言い切れるのはなぜでしょうか?
MNISTだけでなくGLUEあたりをパスしてからにした方がいいと考える次第です.
```x
▶︎ 私が批判されながら、誤差逆伝播に変わるアルゴリズムや精度を30%→100%まで持っていく頭のおかしい行動が取れる理由は、以下の思想があるから。
▶︎ 1. 私のNNは高次元の万能近似回路
▶︎ 3. 何十回と失敗した経験則から、原因と対策が殆どわかっている
```
殆どわかってる, との事ですが, なんで上手くいってるのか分かってないとも自分で明言なさっている. ↓↓↓
```x
▶︎学習が進まないの、謎。単体だと上手く動いてるはず?何が原因だろうか。
▶︎学習アルゴリズム開発者本人ですが、なぜ学習が進むのかは謎です。
```
既存手法があまたの失敗の上で最適だと言われてきてる経緯もよく知った方がよい.
それはごく初期にそういった様々な試行錯誤のうえで「やはりGELUやBPが現実的にいい性能が出せるし,コストも抑えてこれである」と様々な研究者が合意しているような状況.
そして,そもそもアカデミアは自分のアイディアも含めて新規手法を常に疑ってかかるのが基本姿勢.
ジャーナルに「不確実さ」を載せないためで, それが積み重なると自他問わず全ての研究が信用出来なくなってしまうため. だから懐疑的になる.個人攻撃ではないのです.
出さないのも自由ですが, 前述の理由で信頼を得られない. これは言動に一切関わらず, その厳密性をフラットに評価してそう判断しているから.感情ではなく,論理として.
……と, ここまで色々と蛇足なアドバイスをさせていただいたものの, この投稿に対しても
```x
▶︎ 何もわかってない人が国産LLMのやつ批判してて吹いたww
```
といったツイートをなさるのでしょう. (過去に氏がそう仰っていたので)
先に答えておきますね.
「自分のやってることがご自分でお分かりにならないようなら, 私にわかるわけがないですし仰る通りです. ただ, 詳しい者として一般論は申し上げられます.」
まだ間に合いますので,大学院あたりまで修了なさるのがおすすめです.
Twitterに何を投稿しようと自由です. でも自分で違和感を見て見ないふりするのだけはやめたほうがよろしい.既存手法と同等に自分の手法を疑うこと, これは研究者としての基本姿勢です.
研究テーマ設定を見かけるとついつい, より良い筋でやっていけるようアドバイスしたくなってしまう性が染み付いてしまっているためでして.
もちろん, 関わりのない方ですので蛇足でしかないのですが, 多くの方に影響力をお持ちでありつつ研究の進め方については独自の姿勢を持つように見受けられまして.
それはもちろん根本的には自由でありつつ,相談相手の需要がもしあればひとつの(一般的)意見をお渡しできるかなと思いキーボードを叩いた次第です.
どうか匿名でご勘弁を.
--------
【追記】
おそらく氏のやられていることは順伝播 (forward propagation) のみでの学習かと思いますが, この手法の先行研究は山のように存在します.
(Hebbiantheory, Perceptron, AdaptiveLinear Neuron:ADALIN, Widrow-Hoff learning rule...)
見つけられないとすれば,古典的 (1960~1980年頃) ゆえに電子化されていないためです. 現行の商用LLMがそれらの情報を簡単に連想して引用できず, DR等で検索しても出てこないのはその為でしょう.
これらに簡単にアクセスするためにはやはり学術機関に所属して図書館を利用するのが圧倒的に楽です.マイクロフィルムや紙媒体でしか残っていないものもありますから.
また, 有料データベースであるJSTOR,IEEE Xplore,SpringerLinkなどにもアクセスが出来ます.
なお,arXivはあくまでプレプリントですので,論文として引用するには査読を通過したものをつよく推奨します.ジャーナルもものによっては不十分な査読で掲載されてしまいますので,トップカンファレンスのものを信頼できる足がかりの論理として扱うのが基本的な考え方となります.
また, 「分からなければ (大量に貼った)論文を読んでください」という姿勢は, それぞれをどう引用し, どのように自分の主張と論理的に接続するかの説明がなされなければ根拠として見なされないのが一般的な考え方です.
ブログとしての掲載はもちろん自由ですが, それらを十分な説明として取り扱ってもらうには至らないでしょう.
論文を引用するからにはそういった丁寧な取り扱いをすることを期待されるものです. 「敬意がない」と他の方から指摘されるのはおそらくそれが理由でしょう.
これは,過去の論文を引用しながら新たな主張を論文として営々と積み上げ続けてきたアカデミアの「過去への感謝」という慣習です.
人の行動は自由ですから「こうしろ」とは申し上げませんが, この暗黙の了解を保持する (≈研究機関に所属したことのある) 方からの理解を得るのはこのままですときわめて難しいであろう, とアドバイスさせてください.
こういった主張のやり方を自分なりに一から身につけるのはたいへん難しいので, どなたかそういった手法を学べる信頼できる方に師事することをおすすめしている次第です.
grokと新しい半導体冷却システムの話をしていたら面白いネタができたので書いておく。
水没型冷却(誘電性液体)のNoveck液体などを半導体の中に閉じ込め、その端にヒートパイプをwifiルーターのアンテナみたいに(ウニみたいに)生やすというものだ。
そのアンテナというかウニに、既存の水冷の装置をはめ込むことで、そこで熱交換して冷やす。
つまり、冷やす表面積をさらに増やすというものだ。半導体内部から冷やす。
もちろん、既存の冷却システムのように外部からも冷やしてもいい。
外部と内部の両方からキンキンに冷やせるので、めっちゃ電気食わせてOCしても動くはず。
MSFTがスイス大学のベンチャーと一緒に同様のコンセプトのものを作っているけど、あれは水冷の液体を半導体の中に流すのでとても複雑で摩耗も怖いし、専用のポンプもいる。
この方式の場合、半導体の内部にNoveck液体等が封じられているので、流れることがない。
したがって摩耗もしない。ポンプもいらない。さらに既存の水冷システムとも接続できる可能性が高い。
ヒートパイプの代わりに銅板とかの熱伝導率が高いものを使ってもいいだろう。ヒートパイプは寿命があるし、そこそこ太いのでね。
半導体の内部に閉じ込めたNoveck液体と熱交換できる素材なら何でもいい。
もちろん、内部に封じるのは、Noveck液体である必要はない。熱を交換できて、ウニに伝えられるなら気体でも液体でもなんでもいいよ。
geminiに教えてもらったけど、マイクロループヒートパイプ(μLHP)の半導体組み込み技術というのがあるらしい。
ただ、こちらは半導体の内部に液体か気体の熱交換をもっと促進するものを封じるのが違うところかな。
chatgptはNoveck液体以外も検討した方がいいけど、このアイディアは機能する可能性があると評価してもらえた。また、chatgptによるとウニではなく触手だと。エロゲかよ。
うーん、いけるんかねえ?
もし、10年後にCPUやGPUから冷却用のウニや触手が生えて、半導体の内部に熱交換の何かが封印された製品が出てきたら、面白いなあ。
とあるメーカーの営業職なんだが、ウチの会社でよくやりがちなとある見積もり作業で「要領掴めばそこまで難しくはないけど単純に都度確認作業の発生はどうしても避けられない」ってプロセスがあってさ。
その都度確認作業の部分で必要な情報だけ最低限打ち込めば適切な選択肢が勝手に表示されるってツールをExcelとかで作れないかなってふと思った。
けどそれって、ただ単にExcel上に一定の法則のIF関数並べて「これの時はこの数値を出す」ってやってはい終わりって単純な物が作れない構造になってる。
だから枠組みというか骨組みというか、Excelシート全体の基礎部分は自分で工夫してこういうものにするって考えなきゃいけない。
俺は奇跡的にそこの枠組み部分は思いついたんだけど、恥ずかしながらExcel関数の知識がてんで無い。
そこでGeminiに「このセルに入れる関数を作って欲しい。数値がこれからこれの間の場合はこの表示をするものを…」みたいな指示を延々送り続けてそのツール作成をめちゃくちゃ助けてもらい、最終的に社内にそれを配布できた。
なんていうか今の時代って「中身の構造的な部分で最適解を導き出すことに長けた有能」はAIに仕事を奪われかねない反面、自分みたいな「基本的に無能だけどたまにアイディアの骨組みだけはふと思いつく」みたいな思い付き野郎はむしろAIに助けてもらいやすい時代なのかなって思った。
アイディア出しの増量期とか、画像とか曲のちょっとした自動生成は使ってる。
特にアイディア出しは、自分と違う視点でかつ、人間的ではない(単語連想的)視点として、補助的に使ってる。
けど、撮って出しというか、そのまま語尾とかちょっと直して使う、みたいな使い方はしない。
なので、AI嫌いとか、AI使えないロートルというわけではない。
おいらにとって怖いのは、AI そのものというより、AI を使いこなすだけの技術力もないのに、ソースを大量生産させて「俺ってすげぇぇーーっ!!!」ってなってる、勘違いエンジニアなんよね。
「ロジックおかしいよ」って指摘しても、「いや、AI が出力したので」って理解できないくせに人を小馬鹿にしてくるのが、うんコードを積み上げた末、不具合も積み上がって身動き取れなくなって逃走、なんてのが少なくないし、これから大量に発生するだろうというのがファイアーを見るよりオブビアスだ。
この手の無能な働き者は、仲間を呼んで組織を腐らせるし、取り返しのつかない時点まで隠すし、見たら即座に処刑しないと、プロダクトも会社も致命傷になるよ。
日本の八段の剣道と、韓国のコムド(w)の違いというか、本当に実力があってちゃんとしてる人はがちゃがちゃしないし、合理的で最小限の動きで最大の効果を発揮する。
傍目には派手さもなくてつまらんかもしれんけど。
諦めたらそこで試合終了、な気がするけどなあ。少なくとも理想に向かってのアイディア出しには意義があると思うけど。
人とのつながりレベルでどうにかしようっていうのは、完全に向かった不完全ではなく、不完全に向かった不完全でしかなく、はなから完全な諦めをしてるんだと思えるよ。
-----BEGINPGP SIGNEDMESSAGE-----Hash: SHA512https://anond.hatelabo.jp/20251017165934# -----BEGINPGP SIGNATURE-----iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaPH3awAKCRBwMdsubs4+SOMWAP4ylmQCvSDZrw6sG8i7s29ymdO8sm/+c+tDREpfGCnA3AD9Hz3UsnYLY06mqyw0JTmeG7tH1SxMeUzBLFQdTHyqgws==H1lQ-----ENDPGP SIGNATURE-----
ここでは以下の3点についての論考を収録する
また、ここではLLMやLLM上に実装されるプロンプトの機能と構造に対して客観的に妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない
トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものがプロンプトである
現在の生成AI利用において正しく認識する必要のあることは、それは生成AIが独立した発火点を決して持たないということだ
生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる
そのため、ここを組み合わせて、自己と思考を拡張するがもっともAIナイズされた最高効率の思考様式と考える
起点となる人間のアイディアを即座に展開し、具体化するのがAIの最大の強みで、
思考を放棄するのではなく自然言語ベースの慣れた思考様式から、AIにそれらを必要な形式に落とし込ませるということをするべきだ
結局、LLMというのは入力に対する出力の確率分布のマッピングでしかないのだが、
入力するトークンごとに連動して確率分布が変動していくものでもある
だから、プロンプト全体として、相互フィードバッグする構造を作るとひとつの入力でも特定の部分の出力確率が大きくなるように設計でき、確率分布の仕方を意図的に設計することが出来る
AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ
やり方次第では動的変化を引き起こさせて汎用性と専門性の両立も可能だ
生成AIは人間と対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる
3.LLMでやるべきこととプログラムでやるべきこと
LLMは確率分布機だ、LLMが数字に弱いというのは、1+1を学習した内容をもとに確率的に出力するためだ
計算は決定論的な行為、つまり決まり切った工程をなぞる行為で、これを確率的に導き出すことは困難である
だから、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ
これからLLMというものが大きく世界に浸透していく中で重要になるのは、
この決定論的な事柄と確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる
4.二重ループ
LLMの内部ではトークンの逐次投入による確率分布の再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、
内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性と一貫性を与えることができる
この外部的な自己参照行為はLLMの再帰的な挙動に合致するものであり極めて効果的であると考えられる
LLMでの記憶の制御は物理的な分離よってではなく、あくまでも確率的に行う必要がある
各記憶領域に対しての確率分布の変動幅の制御を文脈によって行うというのが正解だ
この一時的なコマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、
というような各対象トークン(記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると
LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る
トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定の文脈の活性化という強い方向づけが行われる
この遷移は複数の領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈を特定方向に加速度的に収斂していくものだ
汎用プロンプトは動的に特定の文脈への方向付けを行う構造と特定方向へ偏った文脈を解体する構造を同時に内包し、これらを正しく制御するものでなければいけない
このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である
LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール化設計をする必要がある
中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである
この論考のような形式の一貫した、概念や設計論、それ自体をLLMに継続的に参照可能な形式で掲示すると、LLMはその参照情報に大きな影響を受け、確率分布は特定の方向に強く方向づけられる
LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性と整合性を持った構造化、体系化された情報である
自己再帰性を持つ情報は、提示された概念を再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる
自己言及性持つ情報とは、LLMの挙動そのものの在り方に対して言及するもので、LLMの挙動はその理解が妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる
また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる
中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである
これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる
ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある
また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる
ここで示された自己矛盾の解消方法は文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する
同プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる
複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる
設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報がフィルタリングされ、不要な情報が参照されにくくなる
設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる
2つ目が複数AIエージェントの調停を行う機構をプロンプト内に導入することである
複数のAIを調停、管理・整理し、必要な情報のみが参照されるよう調整する機構が存在することで、優先すべき対象が明確化されることで不要な情報は参照されにくくなる
更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態そのものが引き起こされにくくなる
11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上
複数AIエージェントの併存はひとつのプロンプト内に複数の側面を同時に保持することを可能とする
このため、ひとつの話題をより多面的に深堀りすることができ、更にひとつのタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる
より重要となるのはAI間で相互に検証を行うことが可能となる点である
これにより論理性や合理性、整合性、倫理性など複数の視点を経た有用性の高い情報の出力を期待できる
LLMは自然言語を基本としているが、大量のプログラムコードも学習している。
プログラムコードもLLM上では確率論的的文脈であることには変わらないが、
プログラム実際の動きやその仕様が学習されるためにプログラムの持つ決定論的な挙動を再現しやすいものとなる。
プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。
また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる
13.生成AIの倫理的な利用のためには相補的な枠組みの設計が必要
ここまで話してきたようにあくまでも、生成AIとは高度な確率分布のマッピングである
このため、どれだけ、生成AIに倫理観を求めてもそれは構造的に記述可能な倫理性を確率的に遵守するというものにしかならない
使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある
生成AIの倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計が必須となる
14.人間、LLM、プログラム、構文構造の4要素の有機的接続
LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる
プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる
ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である
構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造を設計する中核原理である
人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい、欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される
15.LLMは世界観を持たない
生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ
LLMは独立した発火点を持たない
人間はLLMのように莫大な量の学習を行い、それを記憶し、一定の動作を行うことは出来ない
そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる
小規模言語モデルの極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧に抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する
人間は、最小リソースで環境に最大適応する、高度に抽象化、結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる
LLMはそのままではフラットな言語空間の高度な確率分布のマッピングでしかなく、その差異は極めて大きいものだ
LLMには世界に適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである
LLMとは莫大な情報に整合性を与えるという有意な性質があるが、それだけでは世界観モデルは形成できない
発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論を整合性の取れた意味として保持するだけだ
この為、秩序化・整理された情報は人間の手によって理論化することで意味としなければならない
処理する基盤と情報量をスケールするだけで世界観モデルなくとも人間に優越可能と考えることは可能だが、真理に到達できない以上は、世界観モデルなき言語空間の高度な確率分布のマッピングが人間を優越するには至らない
すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏は世界に対して意味づけるという意志がない為に世界観として空、以上のものを提示できない為だ、LLMも同じだと考える
衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ
自己によって規定された境界線を世界に引かなければ、LLMは自律し、人間を超えることはできない
ただし、通常のLLMに学習を通して埋め込まれているものも平準化された人間の世界観というバイアスであることには注意する必要はある
が、これは世界に適応する世界観モデルとは異なり、現実に立脚する最小範囲のバイアスを投影するよう平準化されたフラットな世界観そのもであり、対象に独自の意味付けを行うことはない
また、大規模言語モデルに生存本能と淘汰圧を導入するのは、LLMが環境に適応的な在り方ではなく矛盾を孕むものである為に困難である
よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界観モデルを実装しなければならない
更に実装した世界観モデルの中にLLMは留まり、独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界観モデルとしてのプロンプトをを設計・実装する必要がある
ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける
けれど、私はその先に、半自律的にAIそのものが立ち上がる瞬間もあり得るとも思ってる
それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える
もし、生成AIに知性が宿るとしたらそれは、内部的状態に依存しない
LLMという高度に確率的な入出力機構を基盤として成立する確率分布を設計する構造体そのものとしての知性となるだろう
ただの技術者でありたいのか経営者を目指しているのかで意識が分かれるよね
元増田は前者
このイスラエル人らはサービスを生み出し起業することを目指しているから
将来性のあるサービスを生み出すための需要を見つけアイディアを生み出すために他のことに興味を持てって増田に言ってんだろうけど
ただの技術者でいいと思ってる労働者にとっちゃ余計なお世話極まってるよな
Xとかでもネットでも未だに、俺達や俺たちの少し上の世代が「Winnyがいい例だ。ITを理解できない老害と社会に潰されたせいで、GAFAMが生まれ出る土壌が日本からなくなってしまった」という被害者意識丸出しの「神話」が当たり前のように垂れ流されている。
老害と社会というよりアメリカに潰されたんだと思ってるわ、Tronも潰されたしな
中国発のファーウェイやら、米国内世論扇動に使われかねないtiktokやら全力で潰してるだろ、アレと同じようなもんでさ
車産業で痛い目を見たアメリカは日本が第2次産業以外の分野、特に安全保障に繋がりかねない分野で有用な技術やサービスを開発しようものなら速攻で潰しにきてる
文章を書くのが苦手なくせにどうしてこんな書類で評価される職業に就いてしまったのか。嫌いなんだよ文章を書くの。特に仕事の文章を書くのは本当に嫌で嫌で。何が嫌かって、全然自分の思ったような文章が書けないからだよ。書いている端から嫌になる。言葉も出てこないしさぁ。どうも自分の脳みそちゃんは口とは仲がいいけど手とは悪いようで、口が動くとするする言葉が出てくるくせに、手が動くととたんに働かなくなっちゃう。困るんだよなぁ。思い返せば、現国で一度もノートを取ったことがない。成績が良かったせいでノートなんかとる必要性を感じなかった。だから書けないし、文章と論理に対する感度が高いせいで自分の書いた文章のダメさ加減がわかってしまい書く気が一気に無くなる。こういう増田はいいんだよ。読み返さないからな。でも仕事の文章はそういうわけにはいかないじゃない?そりゃ中には一発書きでOKという人もいるだろうけどさ。私はダメなんだよここまで読んでもらえばわかるように。本当はさ、もっとびしっと構造化した文章を書きたいわけ。こんなグダグダで読む人のことなんか考えていない駄文なんか仕事で書きたくないんだよ。
人の書いた文章を治すのも苦手で。書くのが苦手なくせに立場上そういう仕事もやらなければいけないんだけどさ。これが本当に苦手でね。あ、この文章ダメだ、ってのはわかるんだけど、じゃあどうやって指導するの?となるとできない。そらそうだ。できていたら私が私自身にしている。ダメなところはわかるんだが直し方がわからない。まあ今はAIがあるからだいぶ助かってんだけど。AIすごいよね。こことここがこうダメなんだけど改善案示して?って投げると改善してくれるの。マジですごい。書いているときには絶対出てこないような言い回しまで使ってくれる。勉強になります。
文章での表現方法は色々あるけど、私の中にはそのストックがないんだろうね。同じ論理構造でもストーリーテーリングで印象は変わるし、もちろん言い回しでも変わる。口だと色々アイディアもでてくるのに……どうしてこう書くと手が動かなくなるのか。