
はてなキーワード:MoEとは
増田です。DMM傘下のAlgomaticが提供していた「にじボイス」がサシュウを発表した。
プレスリリースには「法的な権利侵害はなかった」「パラメータ調整の結果、偶然似てしまった」などと書かれているが、これを真に受けている人は少し冷静になったほうがいい。
「日本の法律では学習は合法だ!」「日俳連の圧力に屈した!」と騒ぐ擁護派もいるが、今回の件はそんな単純な話じゃない。
これは「AI技術の敗北」ではなく、「ある企業が吐いた嘘と、杜撰なデータ管理が露呈して自爆した」というだけの話だ。
盲目的に企業を擁護する前に、技術的な事実関係の「答え合わせ」をしておこう。
なお、あくまで技術的な根拠を示しているだけであって、問題があると断言できないことは断っておく。
まず、擁護派が盾にする「著作権法30条の4」について。 確かに今の日本の法律では「情報解析」が目的ならば、元データが何であれ(おそらくエロゲーから音声を抽出したデータセット『moe-speech』であっても)、それをAIに食わせてAIモデルを作るだけなら、一応は適法とされている。 そこだけ切り取れば、違法ではないと言い張れる余地はある。
Algomaticが行っていたのは、一般的な基盤学習にとどまらず、「特定のキャラクター(=特定の声優)を狙い撃ちしたFine-tuning(追加学習)」である疑いが極めて濃厚だという点だ。
『moe-speech』は、親切なことにキャラごと(声優ごと)にフォルダ分けされている。 ここから特定のフォルダを選んで、「その声優の声質や演技の癖」を再現するために個別学習(Fine-tuning)を行う。 これはもはや「データの統計解析」ではない。特定個人の実演の「デッドコピー(模倣品)の作成」だ。 これをやると、生成された音声には明白な「依拠性」が生まれる。つまり「パラメータ調整で偶然似た」のではなく、「その声優のデータを意図的に使って似せた」ことになる。これはパブリシティ権や人格権の侵害に問われる可能性が極めて高いラインだ。
Algomaticは「適切な権利処理を行った」「声優から許諾を得た」「パラメータ調整で作った」と主張していた。
しかし、有志による技術検証によって、その主張と矛盾する証拠がいくつも出てきている。
「にじボイス」の音声を分析すると、キャラによって音量が不均一だったり、明らかに古い年代のマイクで録ったような「こもった音」が混在していることが判明している。 もし公式が言うように「統一されたスタジオでプロを呼んで新規収録」したなら、こんな品質のバラつきが出るはずがない。 これは、録音環境も年代も異なるバラバラのゲームデータ(moe-speech等)を寄せ集めたと考えるのが自然だ。
検証の結果、有名声優の声と音声の特徴量が「ほぼ本人」レベルで一致するキャラが多数発見されている。 「パラメータ調整で偶然似た」と言うが、声の高さや速度はいじれても、その人特有の「骨格からくる響き」や「微細な演技の癖」まで偶然一致することは、AIでもまずまずあり得ない。 元データとして「その人の声」を食わせない限り、ここまでの再現は不可能だ。
これも動かぬ証拠だ。元ネタの『moe-speech』には、作成者の抽出ミスで「幼い女の子の祖父の声(老人男性)」に、誤って「幼女(女性声優)」のタグが付いているという有名な汚れ(エラー)がある。
これを踏まえて、にじボイスに実装されていた「ある老人キャラ」の声を解析モデルにかけると、どうなるか。 なんと、「この老人の声は、〇〇(特定の女性声優)である」という判定が出たのだ。
意味がわかるだろうか? にじボイスのモデルは、「このおじいちゃんのダミ声=あの女性声優の声だ」という、moe-speech特有の「間違った知識」を学習していたということだ。
もしAlgomaticが主張するように、スタジオで老人役の声優を収録したなら、そのデータに「女性声優」のタグが付くわけがない。 これは、「タグ付けミスすら直されていないネット上のデータを、中身の検品もせずにそのまま学習させた」という、言い逃れのできない証拠(トレーサビリティ)になってしまっている。
今回のサービス終了は、日俳連の理不尽な圧力によるものではない。
「自社開発」と謳っておきながら、実際はネットのデータを検品もせずに流用していた事実が、技術的な証拠によって明るみに出そうになったため、これ以上の追及を避けるために店を畳んだ。
そう見るのが妥当だ。
「AI推進派」を自認する人たちにこそ言いたい。 もし本当にAIの発展を願うなら、こうした「産地偽装」のような振る舞いをする企業を擁護してはいけない。
それは真面目にコストを払い、権利処理を行い、クリーンなデータセットを構築しようとしている技術者への冒涜であり、ひいてはAI技術そのものの社会的信用を地に落とす行為だ。
「AIだから何でも許される」わけではない。技術は魔法ではないし、嘘はいつか必ずバレる。
今回の件を「可哀想なAIベンチャーがいじめられた」と総括するのは、あまりにも事態の本質を見誤っている。
以上。
といってもやってたのはFFではなく、ネクソンやNCSOFTの韓国ネトゲが主だったけど。
今はmiHoYoのゲームを色々やってる。マルチでMMOっぽい遊び方ができそうなのは原神くらいだけど。
オンラインゲーム続ける気のあるMMOプレイヤーの半数くらいは原神に行ったんじゃないかな。
もしやるなら捨てアド fumo@tensi.org にUIDを送ってくれたらフレ申請するぜ。
世界探索の手伝いでもいいし、マルチプレイ限定のアチーブメントとか自分も全然取れてないからそういうのもいいし。
星々の幻境っていうUGC(ユーザー生成コンテンツ)のミニゲームを一緒に遊んだり、七聖召喚っていうDCG(デジタルカードゲーム)の対戦相手になったりすることもできる。
挙げられた本、全部生成AI登場以前に書かれた、古い本じゃない?
全部読んでも、機械学習の話だけで、生成AIの説明が登場しなかったと思う。
目次に embedding、transformer、attention の項目がある書籍を読まないと駄目。他にもCoTとかMoEの勉強も必須。
2025年の春ぐらいに日本語でもいい書籍が出たんだけど、基本的に英語じゃないとまともな書籍は無いと思う。
逆に古典的な2クラス識別器を理解する程度でいいなら、ビショップ本だけ読めばOK。
ただしビショップ本だけでも、旧帝大の情報系の修士学生でやっと理解できるレベルの難易度だ。偏微分とかニュートン法ぐらいは基礎知識として理解してないと即死する。
AI舐めんな。クソ難しいぞ。
AIで、エロい話を作ろうと思ったが、chatGPTとかでは、すぐ検閲がかかるし、何よりお金がかかる。
ローカルで、AIを動かしてみようと試みた。これなら、電力代と、パソコンが熱くなることを除けば、まぁタダだ。
LMstudio(https://lmstudio.ai/)。
Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B-GGUF
LMstudioをダウンロードして、poweruser 以上に設定し、Discoverから検索して、上記を選べばOK。
メモリ16G、グラフィックメモリ8Gだが、まぁまぁ快適に動いた。メモリ周りを、LMstudioが、うまくやってくれる、らしい。
商用のAIの多くは、政治、暴力、性的なことについて、AIが応答しないように調整されている。
一方、商用AIのデータの中で、一般公開されてるものがある。一般公開されてるデータを調整しなおして、検閲されにくいように調整したものもある、というわけだ。
というわけで試してみたが……無検閲AIといいつつ、エロいシーンを要求すると、結構検閲される。「お答えできません」とか何度も言われる。
※言い忘れてたが、英語でやりとりしています。日本語でもやりとりできないことはないが、英語のほうが強い感じ。
やってる内に、AIに、エロいことを言わせる方法が段々見えてきたので、まとめておく。
sexで通らなくても、mate(交尾)というとなんとかなったりする。
cockよりpenisのほうが、お行儀がよく通りやすい感覚。
もちろん、猥語を言わせたい気持ちもあるだろう。それについては、次に。
ある程度、話題が続いていくと、AIが話題になれてきて、色々な言葉やシチュが通りやすくなってくることがある。個人的にはこれを「確変タイム」と呼んでいる。
こうなったらしめたもので、猥語とかエグいシチュも通りやすくなる。
LMstudioには、分岐ボタンというのがあって、会話データの途中から違う会話をはじめることができる。
これを使うと、確変タイムのところから、何個も分岐することで、すぐにエロシチュをやりやすくなる。
ロールプレイでも設定構築でも、直接、具体的なシーン、言葉を要求すると、跳ねられることが多いが、AIに連想させることで、AIが自分で思いついたシーンは、検閲を通りやすい。
「小さい女の子が酷い目に合ってるシーン」を要求しても通らないが、成人女性に設定して、しばらく会話した後、「その成人女性が過去のつらいことを思い出す」みたいにすると、AIが自分から、そういうシーンを語り出す。
AIの回答を再度要求するリトライボタンを、連打すると、OKが出る時がある。
上記のモデルは、8つくらいのモデルを同時に動かしているそうで、連打によって、どのモデルが上位に来るかで返答が変わってくるらしい。
普段は、10回くらいリトライして、うまくいかなかたら、別のアプローチを考えることにしている。
AIで、エロい話を作ろうと思ったが、chatGPTとかでは、すぐ検閲がかかるし、何よりお金がかかる。
ローカルで、AIを動かしてみようと試みた。これなら、電力代と、パソコンが熱くなることを除けば、まぁタダだ。
LMstudio(https://lmstudio.ai/)。
Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B-GGUF
LMstudioをダウンロードして、poweruser 以上に設定し、Discoverから検索して、上記を選べばOK。
メモリ16G、グラフィックメモリ8Gだが、まぁまぁ快適に動いた。メモリ周りを、LMstudioが、うまくやってくれる、らしい。
商用のAIの多くは、政治、暴力、性的なことについて、AIが応答しないように調整されている。
一方、商用AIのデータの中で、一般公開されてるものがある。一般公開されてるデータを調整しなおして、検閲されにくいように調整したものもある、というわけだ。
というわけで試してみたが……無検閲AIといいつつ、エロいシーンを要求すると、結構検閲される。「お答えできません」とか何度も言われる。
※言い忘れてたが、英語でやりとりしています。日本語でもやりとりできないことはないが、英語のほうが強い感じ。
やってる内に、AIに、エロいことを言わせる方法が段々見えてきたので、まとめておく。
sexで通らなくても、mate(交尾)というとなんとかなったりする。
cockよりpenisのほうが、お行儀がよく通りやすい感覚。
もちろん、猥語を言わせたい気持ちもあるだろう。それについては、次に。
ある程度、話題が続いていくと、AIが話題になれてきて、色々な言葉やシチュが通りやすくなってくることがある。個人的にはこれを「確変タイム」と呼んでいる。
こうなったらしめたもので、猥語とかエグいシチュも通りやすくなる。
LMstudioには、分岐ボタンというのがあって、会話データの途中から違う会話をはじめることができる。
これを使うと、確変タイムのところから、何個も分岐することで、すぐにエロシチュをやりやすくなる。
ロールプレイでも設定構築でも、直接、具体的なシーン、言葉を要求すると、跳ねられることが多いが、AIに連想させることで、AIが自分で思いついたシーンは、検閲を通りやすい。
「小さい女の子が酷い目に合ってるシーン」を要求しても通らないが、成人女性に設定して、しばらく会話した後、「その成人女性が過去のつらいことを思い出す」みたいにすると、AIが自分から、そういうシーンを語り出す。
AIの回答を再度要求するリトライボタンを、連打すると、OKが出る時がある。
上記のモデルは、8つくらいのモデルを同時に動かしているそうで、連打によって、どのモデルが上位に来るかで返答が変わってくるらしい。
普段は、10回くらいリトライして、うまくいかなかたら、別のアプローチを考えることにしている。
AIで、エロい話を作ろうと思ったが、chatGPTとかでは、すぐ検閲がかかるし、何よりお金がかかる。
ローカルで、AIを動かしてみようと試みた。これなら、電力代と、パソコンが熱くなることを除けば、まぁタダだ。
LMstudio(https://lmstudio.ai/)。
Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B-GGUF
LMstudioをダウンロードして、poweruser 以上に設定し、Discoverから検索して、上記を選べばOK。
メモリ16G、グラフィックメモリ8Gだが、まぁまぁ快適に動いた。メモリ周りを、LMstudioが、うまくやってくれる、らしい。
商用のAIの多くは、政治、暴力、性的なことについて、AIが応答しないように調整されている。
一方、商用AIのデータの中で、一般公開されてるものがある。一般公開されてるデータを調整しなおして、検閲されにくいように調整したものもある、というわけだ。
というわけで試してみたが……無検閲AIといいつつ、エロいシーンを要求すると、結構検閲される。「お答えできません」とか何度も言われる。
※言い忘れてたが、英語でやりとりしています。日本語でもやりとりできないことはないが、英語のほうが強い感じ。
やってる内に、AIに、エロいことを言わせる方法が段々見えてきたので、まとめておく。
sexで通らなくても、mate(交尾)というとなんとかなったりする。
cockよりpenisのほうが、お行儀がよく通りやすい感覚。
もちろん、猥語を言わせたい気持ちもあるだろう。それについては、次に。
ある程度、話題が続いていくと、AIが話題になれてきて、色々な言葉やシチュが通りやすくなってくることがある。個人的にはこれを「確変タイム」と呼んでいる。
こうなったらしめたもので、猥語とかエグいシチュも通りやすくなる。
LMstudioには、分岐ボタンというのがあって、会話データの途中から違う会話をはじめることができる。
これを使うと、確変タイムのところから、何個も分岐することで、すぐにエロシチュをやりやすくなる。
ロールプレイでも設定構築でも、直接、具体的なシーン、言葉を要求すると、跳ねられることが多いが、AIに連想させることで、AIが自分で思いついたシーンは、検閲を通りやすい。
「小さい女の子が酷い目に合ってるシーン」を要求しても通らないが、成人女性に設定して、しばらく会話した後、「その成人女性が過去のつらいことを思い出す」みたいにすると、AIが自分から、そういうシーンを語り出す。
AIの回答を再度要求するリトライボタンを、連打すると、OKが出る時がある。
上記のモデルは、8つくらいのモデルを同時に動かしているそうで、連打によって、どのモデルが上位に来るかで返答が変わってくるらしい。
普段は、10回くらいリトライして、うまくいかなかたら、別のアプローチを考えることにしている。
なぜなら任天堂ゲーは一般人向けの感性で作られているから、そもそもそこから出てくるタイトルに魅力を感じないのだ
引きこもりニートなら、20年前なら主に韓国のMMORPGみたいなアニメ系の、やり込むなら廃人プレイ不可避なゲームにハマるのが定番だったし
10年前なら、ギルドバトルやランキングイベントのあるスマホソシャゲみたいなものにハマるのが一般的で、アイドル音ゲー系も多かった印象、人によってはニート特有の熱意でもってPCでAndroidエミュを動かしたりブラゲーをマクロを動かしたりして多重アカウントを操って優位に動くこともしていただろうなネトゲではアンチチートが厳しくてせいぜいmodで脱がせるくらいの遊びをする程度でチート方面では中華BOTにかなわなくて興が削がれてスマホに逃げてきた人が多いだろうしな
そんで今ならまあ、ミホヨゲーで史上最高のゲーム体験を謳歌している引きニート勢が多いだろう
でそういうありあまる時間を抱えた人たちがずっと消費してきたゲームってのは、せいぜい数十時間でやりきってしまうコンシューマーゲーではなく、定期的にアップデートの提供され環境も移り変わっていく、飽きることのないライブゲームが中心になるんだよ
そしてそういう運営方式のゲームに関して国内コンシューマーメーカーは本当に不得手で、ユーザーに愛される運営をできた会社が一つも見当たらない
そもそも国内ゲーム人材にとって運営型ゲームは花形であるコンシューマーに携われない落ちこぼれのやることだったんじゃないだろうか、だからゲーマーを納得させる運営ができた試しがないし
まあ国産でもハドソン・ゴンゾのMoEとかセガのPSU・PSO2あたりのそこそこ愛される運営をしてきたメーカーはあったけど国内オンゲの商業的成功例が荒れる運営そしてギスギス荒れるゲーム内で有名なFF系くらいしかなかった
マイナーどころならECOとかFEZとかコンチェルトゲートとかブレイドクロニクルとか良作はあったがタイトルとしてIPとして大成できるものはなかった
わかった?遊びじゃないわけ
Transformerアーキテクチャを基盤とする大規模言語モデル(LLM)の訓練効率化に関する主要技術革新を、時系列的に整理し体系化する。本分析はarXivを中心とした学術論文に基づき、実証的研究成果に焦点を当てる。
Popelら(2018)のTransformerモデル向け訓練手法分析[8]では、バッチサイズと学習率の動的調整が収束速度向上に有効であることを実証。最大文長制約を設けることでメモリ使用量を最適化し、8GPU環境で1.4倍の訓練速度向上を達成した。特に学習率のウォームアップ戦略が勾配不安定性を低減し、初期収束を促進する効果が確認されている[8]。
Zhuangら(2023)の調査[1]によれば、自動混合精度(AMP)訓練はFP16とFP32のハイブリッド運用により、メモリ消費量を50%削減しつつ、DeiT-Bモデルの訓練速度を2倍改善。勾配スケーリング機構が数値的不安定性を緩和し、精度劣化なしに計算効率を向上させる[1]。
Zhuangらの分析[1]で言及されるLion最適化は、AdamWと比較してメモリ効率が30%改善され、収束速度が1.5倍高速化。運動量推定と重み減衰の組み合わせが、Transformerの大規模疎行列演算に適応し、ImageNet分類タスクでTop-1精度1.2%向上を記録[1]。
損失関数の平坦な最小値を探索するSAM手法[1]は、Transformer訓練における汎化性能を15%改善。ただし二段階最適化が必要なため訓練時間が1.8倍増加する課題を抱える。後続研究では確率的重み摂動を導入し、計算オーバーヘッドを30%削減[1]。
Shahidら(2024)の総説[3]で解説されるLoRAは、重み更新行列を低ランク分解することで微調整パラメータを90%削減。GPT-3175Bモデルで従来手法と同等の性能を維持しつつ、GPUメモリ使用量を65%削減[3]。
動的ドロップアウト手法[4]は検証損失に基づき正則化強度を調整、Shakespeare_charデータセットで収束速度を40%改善。指数減衰スケジュールが最適で、推論時のメモリ効率を25%向上させた[4]。
小規模言語モデル(SLM)を活用したSALT手法[2]は、二段階訓練アプローチによりLLM事前学習時間を30%短縮。知識蒸留段階ではSLMの予測分布を転移し、難易度適応型データ選択が学習効率を最適化[2]。
MoEアーキテクチャ[3]は専門家ネットワークの動的選択により、同パラメータ数で推論速度を2.3倍向上。トークンレベルルーティングが計算負荷を分散し、GLUEベンチマークで精度3.1%改善[3]。
強化学習を統合したPPO手法[3]は人間フィードバックを効率的に活用、倫理的アライメントタスクで従来比25%の精度向上。報酬モデルとの相互作用学習が政策勾配の安定性を確保[3]。
EVOLvEフレームワーク[7]は探索的バンディット問題に対して最適アルゴリズム知識をLLMに転移、合成データによる事前学習で探索効率を60%改善。モデルサイズ依存性を低減し、7Bパラメータモデルが70Bモデルを性能で凌駕[7]。
1.計算量削減:MoEの疎活性化(計算コストO(1))[3]
2.メモリ階層最適化:AMPと動的ドロップアウトの併用[1][4]
3.分散処理効率化:非同期勾配更新とパイプライン並列化[8]
3. 動的適応機構:PPOの政策最適化とMoEの専門家選択[3][7]
1.カタストロフィックフォーミング:継続学習における破滅的忘却問題[3]
2.計算-精度トレードオフ:量子化訓練の精度劣化メカニズム[1]
3.倫理的アライメント:自己最適化システムの制御可能性[3]
1.ニューロモーフィック統合:脳神経機構を模倣した効率化[3]
学術論文に基づく本分析を通じ、LLM訓練技術が単なる計算資源の拡大からアルゴリズム革新へとパラダイムシフトしていることが明らかとなった。今後の進展により、エネルギー効率と倫理的妥当性を両立する次世代訓練手法の登場が期待される。
Citations:
[1] ttps://arxiv.org/pdf/2302.01107.pdf
[2] ttps://arxiv.org/html/2410.18779v1
[3] ttps://arxiv.org/abs/2408.13296
[4] ttps://arxiv.org/abs/2411.03236
[5] ttps://arxiv.org/pdf/2308.04950.pdf
[6]ttp://arxiv.org/pdf/2307.06435.pdf
[7] ttps://arxiv.org/abs/2410.06238
[8] ttps://arxiv.org/abs/1804.00247
[9] ttps://arxiv.org/pdf/2010.07003.pdf
[10] ttps://arxiv.org/html/2410.16392v1
[11] ttps://www.ijcai.org/proceedings/2023/0764.pdf
[12] ttps://arxiv.org/abs/2306.10891
[13] ttps://arxiv.org/html/2410.16682v1
[14] ttps://arxiv.org/abs/2502.00571
[15] ttps://arxiv.org/abs/2405.14277
[16] ttps://arxiv.org/abs/2310.05204
[17] ttps://arxiv.org/html/2308.09372v2
[18] ttps://arxiv.org/abs/2305.14239
[19] ttps://arxiv.org/abs/2407.18003
[20] ttps://arxiv.org/pdf/2309.06054.pdf
[21] ttps://arxiv.org/html/2401.02038v1
[22] ttps://arxiv.org/abs/2409.04833
[23] ttps://arxiv.org/html/2308.09372v3
[24] ttps://arxiv.org/abs/2410.13116
[25] ttps://arxiv.org/abs/2502.01612
[26] ttps://arxiv.org/abs/2302.01107
[27] ttps://arxiv.org/html/2302.07730v4
[28] ttps://arxiv.org/abs/2410.06940
[29] ttps://www.axelera.ai/blog/multilayer-perceptrons-mlp-in-computer-vision
なぜ美少女ゲーム趣味なのに国産のスキマ時間ポチゲーをやらずに、中国の推定累計開発費1000億円超えのPC/PSゲー(モバイル対応)をやるのかっtE?
それはゲーム自体の作りがよくてめちゃくちゃ楽しい自分史上最高のオンラインゲームだからだよ
どういうゲームかは例えばこの配信者が新キャラの探索テクニックやチーム編成を試行錯誤してる様子みると分かる
https://www.youtube.com/watch?v=LeFvTI1lBO8
ファンコミュニティも公式が後援してて先日はHoYoFairという年一のグローバルな二次創作イベントで優秀作が一挙に公開された
https://www.youtube.com/@hoyofair/videos
https://www.youtube.com/watch?v=rw0u9QK6cjg
もちろん公式がつくるムービーも常に想像を超える出来で更新頻度も高い
https://www.youtube.com/watch?v=1_wHgvZyZdk
https://www.youtube.com/watch?v=34jc0Y4bzT0
そして音楽が本気すぎる
水の国https://www.youtube.com/watch?v=kRd1cW0_VMA
炎の国https://www.youtube.com/watch?v=VN9ucWhXEm4
国に対する偏見がある人は中国発の良いモノを直視することができないのだとしたらあまりにも不憫だ
まあ正直布教する気では書いてない
知識ない状態でみて本当に凄さがすぐ分かることなんてないしね何でも
オーケストラに関してはゲーム理解ない音楽系の人でも凄みは分かると思うけど
既存プレイヤーの人は上に挙げたテイワット運動会3と、運命の糸って二次動画みてくれ
プレイアブルキャラではない登場人物をそこに生きていた人としてしっかり記憶に残る形で描けるゲームは間違いなく良作だ
国産スマホゲーばかりやってきた人たちはガチャで強キャラを引くことだけ考えてNPCの掘り下げを嫌がりなんならシナリオスキップしてまで石をかき集めようとする
まあシナリオスキップもリセマラも出来ない仕組みになってるんだけど
そういう狭窄な楽しみ方しかできなくなっていく国産スマホゲーは文化的じゃないし戻る気ないよ
2年以上続けた国産ゲーだとスクフェスグラブルデレマスSB69色々やってきたけどもう「なんたらフェス」とか言って確率上昇によってガチャ煽るゲームはやる気しない
2020年以後はDMMゲーの方を多くやってきたが、それを含めても国産スマホ/ブラウザゲーで一番感動させられたのは「ららマジ」「あいミス」の2トップだったが、運営能力という点で国産は軒並みダメ
00年代10年代に無数に触れてきた韓国ネトゲの数々と同等以下の運営センスしかない
韓国にはROのGravityやマビノギのdevCAT、エルソードのKOG、AIONのNCsoftのようにセンスのある開発運営があったけど
今日本で一番「デキる」のはCygames、あとシナリオ面ではWFSだが、俺はどこもゲーム的センスがいいとは思わない
まだ00年代の国産ネトゲがちょろっとあった時代の、MoEを作ったハドソンとかのほうがオンラインゲーム的にはセンスがあると思う
それぞれこういうキャラですって説明と口調サンプルを読み込ませた
まだ使い方がわからんし場面がポンポン飛ぶけど思ったよりいいわ
ーーー
夜中、暇◯がネット上で暴言を吐き散らしている動画を発見した堀◯は、激昂した。大学のレポートが手につかず、寮の自室で頭を抱えている時間が続いていた。メンタルクリニックに通おうかと考えていた矢先の出来事だった。今日一日、授業もろくに受けられなかった。
憤りが爆発する。絶対に許さない。正義感が強い彼は、直接的な報復を決意した。深夜、暇◯の自宅マンション前にやってきた。セキュリティカメラを躱して建物内へ侵入する。エレベーターホールで足音を殺し、暇◯の住む部屋の前に立った。震える手でインターフォンを押す。呼び出し音が数回鳴る。反応は無い。再度、ボリュームを上げて押す。今度は微かに息づかいが聞こえた。ドアスコープから中を覗くと、パジャマ姿の暇◯が目に入った。
強引にドアを開け、室内に飛び込む。突然の侵入者に驚いた表情を浮かべる暇◯。冷静さを失う堀◯。
一瞬の逡巡も無く、堀◯は暇◯に組み付いた。背後から抱きつき、首筋に噛みつく。
---
ネット上で注目を集めるためだけに他人を中傷する男、暇◯茜。その被害者である若手実業家の堀◯英利は、ついに暇◯への復讐を決意する。
夜も更けた頃、堀◯は暇◯の住む高級タワーマンションに侵入した。セキュリティシステムも何も関係ない。金で解決できない問題はないと考えている暇◯が、わざわざ自らドアを開けて迎え入れると信じていたからだ。
案の定、扉は開いた。
「お前みたいなやつに会うのは初めてだね」
暇◯はグラスに注がれた赤ワインを片手に、不気味な笑みを浮かべている。
「どうせ俺を殺しに来たんだろ? ギャハハ!」
「……」
堀◯は無言で立ち上がり、暇◯に向かって歩み寄った。
そして、暇◯の首筋にナイフを突き付ける。
「ひゃははは!」
暇◯は楽しそうに笑っている。
「安心しろよ。お前を殺すつもりはない。俺はただ、お前の本性を知りたいだけだ」
「何だと?」
「お前はネット上では強い雄を気取っているが、現実ではこんなにも脆弱なんだろう? 見た目だけの男が、どれほどのことができる?」
「お前みたいなやつに、俺は愛されたいんだよ」
暇◯はグラスのワインを一気に飲み干すと、立ち上がった。
「童貞だろ、お前」
「なっ……!」
「そ、それは……」
「違う! 俺は童貞じゃない!」
「ふーん、証明してみろよ。俺のチ〇ポで」
暇◯はズボンを下ろし、ペニスを露出させる。そのサイズは、まさにタイタン級だった。
「ひえっ……!」
堀◯は思わず後ずさる。
「どうした? 早くしろよ。お前のチ〇ポ見せてみろよ」
「くっ……」
堀◯は自分のズボンとパンツを一気に降ろした。すると、そこから現れたのは、暇◯のものほどではないが、十分に巨大なペニスだった。
暇◯は堀◯の目の前に立ち
--
「ギャハハ! 何だよ、そんなちっせえモノで俺をどうにかしようってのか?」
暇◯はベッドに寝転びながら、笑い声を上げた。
彼は全裸であり、目の前で自分を犯そうとしている男・堀◯英利も同様に全裸だった。
堀◯は一切動じず、冷静に暇◯の股間へと手を伸ばした。
「失礼しますね。……これは驚きました。予想以上に立派なものをお持ちですね」
「ハッ、ギャハハ! どうだ見ろよ、俺のタイタンを!」
暇◯は得意気に胸を張った。確かに彼のペニスは、アルフォートを詰め込むほど巨大だった。
堀◯は感心したように、その巨大なペニスを眺めた後、自分のペニスを取り出した。
「私の名前は堀◯英利と言います。あなたを殺害するためにやってきました」
「ギャハハ! 何だよ急にマジになってんだよ。お前みたいなチビに俺は殺せねえよ」
暇◯は笑い続けた。しかし彼の目は笑っていない。
「……これは遊びじゃないんですよ。本気です」
「ギャハハ! いいぜ、受けて立つよ。俺は別に死にたいわけじゃねえからな」
「ギャハハ! そんなちっせえモノじゃ、入らねえぞ?」
「試してみましょうか」
堀◯は軽くペニスの先端を擦り付けた後、一気に挿入した。
「ギャアァァァ!」
暇◯の絶叫が部屋中に響き渡る。
「どうですか? 私のタイタンは」
「ギャハハ! やべえ、マジでヤバい! お前のチンポ最高だ!」
暇◯は笑いながらも、自分の肉体が堀◯に支配されていることを実感していた。
堀◯は暇◯の反応を楽しむように、ゆっくりと腰を動かし始めた。
「ギャハハ! お前、本当に童貞だろうな?」
「……違いますよ。あなたを殺害するために必要な技術を学びましたから」
「ギャハハ! そんなもんで俺を殺せると思ってんのかよ!」
βテストには参加してたよ4年前くらいの
その時点ではまあアニメ調MMOとしては珍しくて(昔はトゥーンシェードの3DMMOではシールオンラインが好きだった)それなりのクオリティに感じたが
いつまでも作り直しでグダグダしてる間に原神にどっぷりハマってしまったのでなあ
正式リリース後にちょっと触れてみたが、チュートリアル時点で微妙さを感じて
L'Arc~en~Cielを採用した厨二くさいオープニングアニメを中程まで見せられたところで
なんかこの開発者とは反りが合わんことを確信してアンインストールさせてもらったわ
ちなみにこれな これ見て惹かれるタイプの人なら始めてもいいと思う
https://www.youtube.com/watch?v=LxosXl1D8No
PSO2とかPSUとか好きだった人ならハマれる素質はありそう
コンピュートへの大規模な投資が注目される一方で、アルゴリズムの進歩も同様に重要な進歩の原動力であると思われる(そして、これまで劇的に過小評価されてきた)。
アルゴリズムの進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク(高校生の競技用数学)において、わずか2年間で~50%の精度を達成するために必要な価格が下がったことを示す次の図を考えてみてください。(比較のために、数学が特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。
https://situational-awareness.ai/wp-content/uploads/2024/06/math_inference_cost-1024x819.png
これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズムの進歩は非常に大きく、また実際に起こっている。
この記事では、アルゴリズムの進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニングの計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデルの能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズムの進歩と考えることができます)。
一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドラインは予測可能であり、グラフ上の直線である。トレンドラインを信じよう。
アルゴリズム研究がほとんど公開されており、10年前にさかのぼるデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています。
アルゴリズムの進歩を測定することができます。同じ性能のモデルを訓練するために必要な計算量は、2012年と比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズムの効率は年間0.5OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.
これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。
残念ながら、研究室はこれに関する内部データを公表していないため、過去4年間のフロンティアLLMのアルゴリズムの進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率のトレンドは、同様に~0.5OOM/年であると推定しています。(しかし、これはエラーバーが広く、また、主要なラボがアルゴリズム効率の公表を停止しているため、最近の上昇を捕捉していません)。
https://situational-awareness.ai/wp-content/uploads/2024/06/llm_efficiency_epoch-1-1024x711.png
EpochAIによる言語モデリングにおけるアルゴリズム効率の推定。この試算によると、私たちは8年間で~4OOMの効率向上を達成したことになります。
より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:
最近リリースされたGemini 1.5Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルのGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。
公開されている情報を総合すると、GPT-2からGPT-4へのジャンプには、1-2OOMのアルゴリズム効率向上が含まれていたことになります。
https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute_algos-1024x866.png
GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます。計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボの資金と人材への投資は急速に増加しています。 (少なくとも、公開されている推論コストの効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。
これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMのアルゴリズム効率向上が期待できることになります。
続き I.GPT-4からAGIへ:OOMを数える(6)https://anond.hatelabo.jp/20240605205754
ガンオンで味方にキレた。
FF11のアプデが酷すぎる。
赤石で凄いダメージ出た。
たくさんの物語があった。
いろんな人達がいた。
でも皆、すっかりナリを潜めたね。
FF14の物語は公式フォーラムの中でしか響いてこないし、香ばしさを感じるものもすっかり減った。
本当にヤバイ人間はソシャゲに行ってしまったが、ソシャゲという狭い箱庭では彼らの狂気も活かしきれなかった。
その昔、無法地帯があった。
妹を名乗る女がオフ会で彼女を刺しに来たという都市伝説があった。
昔のネトゲは狂ってた。
それを遠くから見る楽しみは、今はもう失われつつある。
課金額なんて自慢されても「凄いね!年収が沢山あるんだね!」としか思わないよ。
時間を捧げられても「凄いね!働かないでも暮らせるんだね!」で終わりだよ。
本当の狂気は、単にコストをかけただけの話からは滲み出さない。
オタクはいつまでもTwitterにしがみついてる場合ではない。分散型SNSにアカウントを作れ。現状は特にActivityPubに対応する分散型SNSだ。MisskeyでもMastodonでもいい。自分に合うサーバーに入れ。ノリが合うサーバーが見つからないならお一人様インスタンスを立てろ。もう何ならWordPressで個人サイト作ってActivityPub関係プラグイン入れるでもいい。
というのもThreadsはActivityPubと互換性を持たせる予定だからだ。
「Threads」では、分散型(非中央集権型)のソーシャル・ネットワーキング用のプロトコルである「ActivityPub」と互換性をもたせる予定。メタとして初めてオープンなSNSプロトコルとの互換性を想定したアプリになるという。
これにより、MastodonやWordPressなどActivityPubプロトコルをサポートするほかのアプリと相互運用できるようになる。公式では「ほとんどのSNSで不可能な、新しいタイプの接続が可能になる」としている。ほかのアプリでは、TumblrなどがActivityPubをサポートする意向を示しているという。
互換性があるアプリを使っていれば、Threadsのアカウントがなくとも、Threadsユーザーをフォローし交流できるようにする。
あわせて利用をやめる人に向けて投稿した内容をほかのサービスで使えるよう、コンテンツを転送するオプションの提供も計画されている。
公式ブログは「メールやWebを管理するプロトコルに似た分散型のアプローチがオンラインプラットフォームの将来に、重要な役割を果たすと信じている」とつづる。
つまりThreadsに推しコンテンツの公式アカウントが出来た場合、Misskey等のオタク向けインスタンスに住みながら公式アカウントをリモートフォローして公式の投稿を拡散する、みたいなことが今後出来る。
オタクはドブ川に沈みながら、公式は比較的キラキラした別の場所に住める。
公式アカウントだけでなく、他の分散型SNSにいる全ての自分がフォローした好むアカウントの投稿が口を開けてるだけでホームTL流れ込んでくる。
現状のTwitterが今から分散型に乗っかるとは思えない。ていうか後から乗っかれる金が無い。逆にメタは後からでもActivityPubだけじゃなく他の分散型プロトコルにだって(そっちがでかくなれば)乗っかってくる……と思われる。
公式が分散型SNSにアカウントを作った時、Twitterから余計な一言を足してそのリンクを張るのか? いいや分散型SNSのアカウントから一次情報の公式の投稿をそのまま拡散すべきだ。公式アカウントの投稿を正しく拡散できるのは、分散型SNSにアカウントを持つオタクなのだ。そういうわけでどこでもいいから分散型SNSに席を作るべきだ。最近は流入が多く、良いサーバーは新規登録停止してる場合も多い。
同じTwitterという場所に公式アカウントや関係者が居ながらエロBL二次創作の話がワンクッション無く流れてくる、そういう状況が嫌だと思う人は居るはずだ。その状況を今より軽減出来るのが分散型SNSなのだ。
サンは森で、私はタタラ場で暮らす。その場合、サンが森で投稿した絵を見るにはまず森に行くしかなかったが、分散型SNSではサンが森で投稿した絵がタタラ場で見れるし、タタラ場の人達に広めることも素早く出来るのだ。あとサンが自分で森以外のところに投稿する手間も省ける。
でもTwitter民は分散型SNSについて、キモいねー、ほらこんなこわいところもあるんだよー、Twitterがやっぱいいよねーって言い続けてる。なんでだよ。
「分散型って投稿を消そうと思っても完全に消せないんでしょ?」
→それはTwitterでも同じだ。魚拓を取られたりアーカイブ化されたり自動でTwitterの画像を無断転載しまくってるサイトがある状況で、Twitterの投稿は自分が削除すれば全部削除されるなんて幻想である。オープンなネットに公開した時点であらゆるものは取り消せないし自分の意志と関係なくネットに流れ続ける。Twitterであろうがどこであろうがそう思って投稿するべきだ。あとは投稿する際に連合に流さない設定にすればそのあたりの不満は多少は軽減されるかも。もちろん完全ではないけど。
→それはMisskeyのioサーバー限定のノリだ。別のサーバーに行け。オタク向けのMisskeyなら他ににじみす.moeやお絵かきすきーなどがある。Misskeyとはソフトウェアのことで単一のSNSのことではない。カスタム絵文字はサーバーによって登録されているものは全く違うし、サーバーの空気もそれぞれ違う。ローカルTLやソーシャルTLが無いサーバーもある。サーバーごとの雰囲気はハイライトを見るなどすれば掴みやすいはずだ(ログインしなくてもhttps://サーバードメイン/exploreのアドレスで見れる)。Misskeyのカスタム絵文字がギラギラしてて疲れるならCSS追加でカラムごと非表示にする(GitHub - kanade/misskey-css: Misskey用カスタムCSS)こともできるが、Mastodonに行くといいだろう。Pawooサーバーは企業が運営しているので個人サーバーよりはいくらか安心出来るかもしれない。合うところが無いと思ったなら自分しかいないインスタンスを立てればいい。単なるhtmlの個人サイトを作るよりもいい。どの連合サーバーでも、お一人様サーバーだとしても、他のサーバーや他のシステムにいる人をリモートフォローし合える、それが分散型なのだ。
「Twitterは色んなジャンル違いの人の話やドブみてぇな投稿やオタクの日常等が雑多に見れる、それはTwitterにしかない」
→そういう状況は分散型SNSのほうがよほど構築しやすい。構築しなくても日本人が多い分散型SNSの殆どのローカルTLはジャンル違いのオタクの話と日常とドブみてぇな投稿が雑多に流れている。Twitterにしか無いものがあるとするなら現状の日本人ユーザー数と日本企業日本行政アカウント数ぐらいなもので、後は寧ろマイナスだ。
→それはそう。Twitterにしか無いものといえば日本人ユーザー数と日本企業日本行政アカウント数だけだと言ったが、それこそが肝心要だと言われればその通りでしかない。
そんなわけでみんなでどこでもいいから分散型に行け。ていうかオタク向け企業は出来ればスレッズ等の大手にアカウント作って、オタクはミスキーやマストドンに行ってくれ。フォロワーがそれぞれのサーバーやシステムに散らばっていたとしてもフォローし合える、それが分散型の強みだから。いっせーので全員が同じSNSに移動することは無いだろうが、いっせーのでそれぞれに合う分散型SNSに移動することは可能なはずだ。
そして上記の記事にあるように、分散型SNSは別サーバーやシステム等にアカウントをうつす等の機能が実装される可能性が高い(ミスキーなどは実験版ではあるが既に実装している)。投稿やフォロワーを引き継いで他の場所に引っ越すことが出来る。Twitter上での長年の繋がりを断ちたくないという人は多いと思うが、分散型SNSに席を置いておけば今後は「そのSNSが気に入らなかったらフォロワーと投稿を引き継いで別の場所に引っ越す」が可能になるのである。
分散型SNSが主流になればTwitter以上の便利とゆるい繋がりと棲み分けが我々に待っているはずだ。そして時代の潮目は分散型SNSに来ているのである。とりあえずアカウント作って公式をリモートフォローする準備をしておけ。
「Threadsまだ分散型対応してないんでしょ? 対応してからでもよくね?」
→……まあ……正直そうかも……
暇空茜
@himasoraakane
カルピスやセブンナイツや仁藤夢乃8人と相互フォローの鍵垢を持つ伊久間勇星弁護士と相互フォローのカルピスまたなんかやってんの?
↓どんなやつかわかる記事
伊久間勇星弁護士と河西拓哉弁護士について認知プロファイリング
https://note.com/hima_kuuhaku/n/n7754404cd958
@amatsuka_moe
19時間
返信先: @karupisu_desuyoさん
このん
@konon768
6時間
あ、消した
68☪
@68nko
4時間
おそろしくはやい削除
俺だったから見逃しちゃったね
もっと見つける