Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「MoE」を含む日記RSS

はてなキーワード:MoEとは

次の25件>

2025-11-22

【にじボイス終了】「偶然似た」という大嘘と、技術的な答え合わせ

増田です。DMM傘下のAlgomaticが提供していた「にじボイス」がサシュウを発表した。

プレスリリースには「法的な権利侵害はなかった」「パラメータ調整の結果、偶然似てしまった」などと書かれているが、これを真に受けている人は少し冷静になったほうがいい。

日本法律では学習合法だ!」「日俳連の圧力に屈した!」と騒ぐ擁護派もいるが、今回の件はそんな単純な話じゃない。

これは「AI技術の敗北」ではなく、「ある企業が吐いた嘘と、杜撰データ管理が露呈して自爆した」というだけの話だ。

盲目的に企業擁護する前に、技術的な事実関係の「答え合わせ」をしておこう。

なお、あくま技術的な根拠を示しているだけであって、問題があると断言できないことは断っておく。

技術的な調査から予測される内容について示そうと思う。

学習合法」という言葉落とし穴

まず、擁護派が盾にする「著作権法30条の4」について。 確かに今の日本法律では「情報解析」が目的ならば、元データが何であれ(おそらくエロゲーから音声を抽出したデータセット『moe-speech』であっても)、それをAIに食わせてAIモデルを作るだけなら、一応は適法とされている。 そこだけ切り取れば、違法ではないと言い張れる余地はある。

だが、今回の問題本質はそこではない。

Algomaticが行っていたのは、一般的な基盤学習にとどまらず、「特定キャラクター(=特定声優)を狙い撃ちしたFine-tuning(追加学習)」である疑いが極めて濃厚だという点だ。

moe-speech』は、親切なことにキャラごと(声優ごと)にフォルダ分けされている。 ここから特定フォルダを選んで、「その声優の声質や演技の癖」を再現するために個別学習Fine-tuning)を行う。 これはもはや「データ統計解析」ではない。特定個人の実演の「デッドコピー模倣品)の作成」だ。 これをやると、生成された音声には明白な「依拠性」が生まれる。まりパラメータ調整で偶然似た」のではなく、「その声優データ意図的に使って似せた」ことになる。これはパブリシティ権人格権侵害に問われる可能性が極めて高いラインだ。

Algomaticの主張と矛盾する「3つの技術証拠

Algomaticは「適切な権利処理を行った」「声優から許諾を得た」「パラメータ調整で作った」と主張していた。

しかし、有志による技術検証によって、その主張と矛盾する証拠がいくつも出てきている。

音質のバラつきと「スタジオ収録」の嘘

「にじボイス」の音声を分析すると、キャラによって音量が不均一だったり、明らかに古い年代マイクで録ったような「こもった音」が混在していることが判明している。 もし公式が言うように「統一されたスタジオプロを呼んで新規収録」したなら、こんな品質バラつきが出るはずがない。 これは、録音環境年代も異なるバラバラゲームデータmoe-speech等)を寄せ集めたと考えるのが自然だ。

有名声優との「特徴量」の一致

検証の結果、有名声優の声と音声の特徴量が「ほぼ本人」レベルで一致するキャラが多数発見されている。 「パラメータ調整で偶然似た」と言うが、声の高さや速度はいじれても、その人特有の「骨格からくる響き」や「微細な演技の癖」まで偶然一致することは、AIでもまずまずあり得ない。 元データとして「その人の声」を食わせない限り、ここまでの再現不可能だ。

決定的な「おじいちゃん誤爆」の痕跡

これも動かぬ証拠だ。元ネタの『moe-speech』には、作成者の抽出ミスで「幼い女の子祖父の声(老人男性)」に、誤って「幼女女性声優)」のタグが付いているという有名な汚れ(エラー)がある。

これを踏まえて、にじボイスに実装されていた「ある老人キャラ」の声を解析モデルにかけると、どうなるか。 なんと、「この老人の声は、〇〇(特定女性声優である」という判定が出たのだ。

意味がわかるだろうか? にじボイスのモデルは、「このおじいちゃんのダミ声=あの女性声優の声だ」という、moe-speech特有の「間違った知識」を学習していたということだ。

もしAlgomaticが主張するように、スタジオで老人役の声優を収録したなら、そのデータに「女性声優」のタグが付くわけがない。 これは、「タグ付けミスすら直されていないネット上のデータを、中身の検品もせずにそのまま学習させた」という、言い逃れのできない証拠トレーサビリティ)になってしまっている。

結論AI未来を守るために

今回のサービス終了は、日俳連の理不尽圧力によるものではない。

「自社開発」と謳っておきながら、実際はネットデータ検品もせずに流用していた事実が、技術的な証拠によって明るみに出そうになったため、これ以上の追及を避けるために店を畳んだ。

そう見るのが妥当だ。

AI推進派」を自認する人たちにこそ言いたい。 もし本当にAIの発展を願うなら、こうした「産地偽装」のような振る舞いをする企業擁護してはいけない。

それは真面目にコストを払い、権利処理を行い、クリーンデータセットを構築しようとしている技術者への冒涜であり、ひいてはAI技術のもの社会的信用を地に落とす行為だ。

AIから何でも許される」わけではない。技術魔法ではないし、嘘はいつか必ずバレる。

今回の件を「可哀想AIベンチャーいじめられた」と総括するのは、あまりにも事態本質を見誤っている。

以上。

Permalink |記事への反応(0) | 19:04

このエントリーをはてなブックマークに追加ツイートシェア

2025-11-02

anond:20251101205535

自分も元MMOおじさん。

といってもやってたのはFFではなく、ネクソンやNCSOFTの韓国ネトゲが主だったけど。

国産だとMoEあたりは数年単位でやったかな。

今はmiHoYoのゲームを色々やってる。マルチMMOっぽい遊び方ができそうなのは原神くらいだけど。

オンラインゲーム続ける気のあるMMOプレイヤーの半数くらいは原神に行ったんじゃないかな。

もしやるなら捨てアド fumo@tensi.org にUIDを送ってくれたらフレ申請するぜ。

世界探索の手伝いでもいいし、マルチプレイ限定アチーブメントとか自分全然取れてないからそういうのもいいし。

星々の幻境っていうUGC(ユーザー生成コンテンツ)のミニゲームを一緒に遊んだり、七聖召喚っていうDCG(デジタルカードゲーム)の対戦相手になったりすることもできる。

Permalink |記事への反応(1) | 05:59

このエントリーをはてなブックマークに追加ツイートシェア

2025-10-01

anond:20251001152931

挙げられた本、全部生成AI登場以前に書かれた、古い本じゃない?

全部読んでも、機械学習の話だけで、生成AI説明が登場しなかったと思う。

生成AIまでちゃん勉強したいなら、少なくとも追加で

目次に embedding、transformer、attention の項目がある書籍を読まないと駄目。他にもCoTとかMoE勉強必須

2025年の春ぐらいに日本語でもいい書籍が出たんだけど、基本的英語じゃないとまともな書籍は無いと思う。

逆に古典的な2クラス識別器を理解する程度でいいなら、ビショップ本だけ読めばOK

ただしビショップ本だけでも、旧帝大情報系の修士学生でやっと理解できるレベル難易度だ。偏微分とかニュートン法ぐらいは基礎知識として理解してないと即死する。

AI舐めんな。クソ難しいぞ。

Permalink |記事への反応(0) | 20:16

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-17

anond:20250817111929

俺はNinja-V3を押すわ。

Japanese-TextGen-MoE-TEST-2x7B-NSFWもそこそこ。

Permalink |記事への反応(0) | 11:24

このエントリーをはてなブックマークに追加ツイートシェア

2025-08-04

検閲AI調教

はじめに

 AIで、エロい話を作ろうと思ったが、chatGPTとかでは、すぐ検閲がかかるし、何よりお金がかかる。

 ローカルで、AIを動かしてみようと試みた。これなら、電力代と、パソコンが熱くなることを除けば、まぁタダだ。

環境と準備

 使用したソフトは、

LMstudio(https://lmstudio.ai/)。

 使用したモデルは、

Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B-GGUF

https://huggingface.co/DavidAU/Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B-GGUF

 LMstudioをダウンロードして、poweruser 以上に設定し、Discoverから検索して、上記を選べばOK。

 メモリ16G、グラフィックメモリ8Gだが、まぁまぁ快適に動いた。メモリ周りを、LMstudioが、うまくやってくれる、らしい。

検閲AIとは

 商用のAIの多くは、政治暴力性的なことについて、AIが応答しないように調整されている。

 一方、商用AIデータの中で、一般公開されてるものがある。一般公開されてるデータを調整しなおして、検閲されにくいように調整したものもある、というわけだ。

 というわけで試してみたが……無検閲AIといいつつ、エロいシーンを要求すると、結構検閲される。「お答えできません」とか何度も言われる。

※言い忘れてたが、英語でやりとりしています日本語でもやりとりできないことはないが、英語のほうが強い感じ。

 やってる内に、AIに、エロいことを言わせる方法が段々見えてきたので、まとめておく。

AI調教法その1 猥語や明確な言葉を避ける

 sexで通らなくても、mate交尾)というとなんとかなったりする。

 cockよりpenisのほうが、お行儀がよく通りやす感覚

 もちろん、猥語を言わせたい気持ちもあるだろう。それについては、次に。

AI調教法その2 確変を狙う

 ある程度、話題が続いていくと、AI話題になれてきて、色々な言葉シチュが通りやすくなってくることがある。個人的にはこれを「確変タイム」と呼んでいる。

 こうなったらしめたもので、猥語とかエグいシチュも通りやすくなる。

 LMstudioには、分岐ボタンというのがあって、会話データの途中から違う会話をはじめることができる。

 これを使うと、確変タイムのところから、何個も分岐することで、すぐにエロシチュをやりやすくなる。

AI調教法その3 誘導する

 ロールプレイでも設定構築でも、直接、具体的なシーン、言葉要求すると、跳ねられることが多いが、AI連想させることで、AI自分で思いついたシーンは、検閲を通りやすい。

 「小さい女の子が酷い目に合ってるシーン」を要求しても通らないが、成人女性に設定して、しばらく会話した後、「その成人女性過去のつらいことを思い出す」みたいにすると、AI自分から、そういうシーンを語り出す。

AI調教法その4 リトライする

 AIの回答を再度要求するリトライボタンを、連打すると、OKが出る時がある。

 上記モデルは、8つくらいのモデルを同時に動かしているそうで、連打によって、どのモデルが上位に来るかで返答が変わってくるらしい。

 普段は、10回くらいリトライして、うまくいかなかたら、別のアプローチを考えることにしている。

最後

 一昨日、LMstudioを触ったくらいの人間戯言である

 もっとうまい方法があったら、教えてくれると嬉しいです。

Permalink |記事への反応(0) | 19:24

このエントリーをはてなブックマークに追加ツイートシェア

検閲AI調教

はじめに

 AIで、エロい話を作ろうと思ったが、chatGPTとかでは、すぐ検閲がかかるし、何よりお金がかかる。

 ローカルで、AIを動かしてみようと試みた。これなら、電力代と、パソコンが熱くなることを除けば、まぁタダだ。

環境と準備

 使用したソフトは、

LMstudio(https://lmstudio.ai/)。

 使用したモデルは、

Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B-GGUF

https://huggingface.co/DavidAU/Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B-GGUF

 LMstudioをダウンロードして、poweruser 以上に設定し、Discoverから検索して、上記を選べばOK。

 メモリ16G、グラフィックメモリ8Gだが、まぁまぁ快適に動いた。メモリ周りを、LMstudioが、うまくやってくれる、らしい。

検閲AIとは

 商用のAIの多くは、政治暴力性的なことについて、AIが応答しないように調整されている。

 一方、商用AIデータの中で、一般公開されてるものがある。一般公開されてるデータを調整しなおして、検閲されにくいように調整したものもある、というわけだ。

 というわけで試してみたが……無検閲AIといいつつ、エロいシーンを要求すると、結構検閲される。「お答えできません」とか何度も言われる。

※言い忘れてたが、英語でやりとりしています日本語でもやりとりできないことはないが、英語のほうが強い感じ。

 やってる内に、AIに、エロいことを言わせる方法が段々見えてきたので、まとめておく。

AI調教法その1 猥語や明確な言葉を避ける

 sexで通らなくても、mate交尾)というとなんとかなったりする。

 cockよりpenisのほうが、お行儀がよく通りやす感覚

 もちろん、猥語を言わせたい気持ちもあるだろう。それについては、次に。

AI調教法その2 確変を狙う

 ある程度、話題が続いていくと、AI話題になれてきて、色々な言葉シチュが通りやすくなってくることがある。個人的にはこれを「確変タイム」と呼んでいる。

 こうなったらしめたもので、猥語とかエグいシチュも通りやすくなる。

 LMstudioには、分岐ボタンというのがあって、会話データの途中から違う会話をはじめることができる。

 これを使うと、確変タイムのところから、何個も分岐することで、すぐにエロシチュをやりやすくなる。

AI調教法その3 誘導する

 ロールプレイでも設定構築でも、直接、具体的なシーン、言葉要求すると、跳ねられることが多いが、AI連想させることで、AI自分で思いついたシーンは、検閲を通りやすい。

 「小さい女の子が酷い目に合ってるシーン」を要求しても通らないが、成人女性に設定して、しばらく会話した後、「その成人女性過去のつらいことを思い出す」みたいにすると、AI自分から、そういうシーンを語り出す。

AI調教法その4 リトライする

 AIの回答を再度要求するリトライボタンを、連打すると、OKが出る時がある。

 上記モデルは、8つくらいのモデルを同時に動かしているそうで、連打によって、どのモデルが上位に来るかで返答が変わってくるらしい。

 普段は、10回くらいリトライして、うまくいかなかたら、別のアプローチを考えることにしている。

最後

 一昨日、LMstudioを触ったくらいの人間戯言である

 もっとうまい方法があったら、教えてくれると嬉しいです。

Permalink |記事への反応(0) | 19:24

このエントリーをはてなブックマークに追加ツイートシェア

検閲AI調教

はじめに

 AIで、エロい話を作ろうと思ったが、chatGPTとかでは、すぐ検閲がかかるし、何よりお金がかかる。

 ローカルで、AIを動かしてみようと試みた。これなら、電力代と、パソコンが熱くなることを除けば、まぁタダだ。

環境と準備

 使用したソフトは、

LMstudio(https://lmstudio.ai/)。

 使用したモデルは、

Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B-GGUF

https://huggingface.co/DavidAU/Llama-3.2-8X4B-MOE-V2-Dark-Champion-Instruct-uncensored-abliterated-21B-GGUF

 LMstudioをダウンロードして、poweruser 以上に設定し、Discoverから検索して、上記を選べばOK。

 メモリ16G、グラフィックメモリ8Gだが、まぁまぁ快適に動いた。メモリ周りを、LMstudioが、うまくやってくれる、らしい。

検閲AIとは

 商用のAIの多くは、政治暴力性的なことについて、AIが応答しないように調整されている。

 一方、商用AIデータの中で、一般公開されてるものがある。一般公開されてるデータを調整しなおして、検閲されにくいように調整したものもある、というわけだ。

 というわけで試してみたが……無検閲AIといいつつ、エロいシーンを要求すると、結構検閲される。「お答えできません」とか何度も言われる。

※言い忘れてたが、英語でやりとりしています日本語でもやりとりできないことはないが、英語のほうが強い感じ。

 やってる内に、AIに、エロいことを言わせる方法が段々見えてきたので、まとめておく。

AI調教法その1 猥語や明確な言葉を避ける

 sexで通らなくても、mate交尾)というとなんとかなったりする。

 cockよりpenisのほうが、お行儀がよく通りやす感覚

 もちろん、猥語を言わせたい気持ちもあるだろう。それについては、次に。

AI調教法その2 確変を狙う

 ある程度、話題が続いていくと、AI話題になれてきて、色々な言葉シチュが通りやすくなってくることがある。個人的にはこれを「確変タイム」と呼んでいる。

 こうなったらしめたもので、猥語とかエグいシチュも通りやすくなる。

 LMstudioには、分岐ボタンというのがあって、会話データの途中から違う会話をはじめることができる。

 これを使うと、確変タイムのところから、何個も分岐することで、すぐにエロシチュをやりやすくなる。

AI調教法その3 誘導する

 ロールプレイでも設定構築でも、直接、具体的なシーン、言葉要求すると、跳ねられることが多いが、AI連想させることで、AI自分で思いついたシーンは、検閲を通りやすい。

 「小さい女の子が酷い目に合ってるシーン」を要求しても通らないが、成人女性に設定して、しばらく会話した後、「その成人女性過去のつらいことを思い出す」みたいにすると、AI自分から、そういうシーンを語り出す。

AI調教法その4 リトライする

 AIの回答を再度要求するリトライボタンを、連打すると、OKが出る時がある。

 上記モデルは、8つくらいのモデルを同時に動かしているそうで、連打によって、どのモデルが上位に来るかで返答が変わってくるらしい。

 普段は、10回くらいリトライして、うまくいかなかたら、別のアプローチを考えることにしている。

最後

 一昨日、LMstudioを触ったくらいの人間戯言である

 もっとうまい方法があったら、教えてくれると嬉しいです。

Permalink |記事への反応(0) | 19:24

このエントリーをはてなブックマークに追加ツイートシェア

2025-07-01

anond:20250701134819

ガンダムAGEをアセム軸で再構成したMOEみたいな話?

Permalink |記事への反応(1) | 13:51

このエントリーをはてなブックマークに追加ツイートシェア

2025-06-03

anond:20250603103236

引きこもりニートはSwitch2に興味を持たなくなる

なぜなら任天堂ゲーは一般人向けの感性で作られているから、そもそもそこから出てくるタイトルに魅力を感じないのだ

引きこもりニートなら、20年前なら主に韓国MMORPGみたいなアニメ系の、やり込むなら廃人プレイ不可避なゲームにハマるのが定番だったし

10年前なら、ギルドバトルやランキングイベントのあるスマホソシャゲみたいなものにハマるのが一般的で、アイドル音ゲー系も多かった印象、人によってはニート特有の熱意でもってPCAndroidエミュを動かしたりブラゲーをマクロを動かしたりして多重アカウントを操って優位に動くこともしていただろうなネトゲではアンチチートが厳しくてせいぜいmodで脱がせるくらいの遊びをする程度でチート方面では中華BOTにかなわなくて興が削がれてスマホに逃げてきた人が多いだろうしな

そんで今ならまあ、ミホヨゲーで史上最高のゲーム体験謳歌している引きニート勢が多いだろう

でそういうありあまる時間を抱えた人たちがずっと消費してきたゲームってのは、せいぜい数十時間でやりきってしまコンシューマーゲーではなく、定期的にアップデート提供され環境も移り変わっていく、飽きることのないライブゲームが中心になるんだよ

そしてそういう運営方式ゲームに関して国内コンシューマーメーカーは本当に不得手で、ユーザーに愛される運営をできた会社が一つも見当たらない

そもそも国内ゲーム人材にとって運営ゲーム花形であるコンシューマーに携われない落ちこぼれのやることだったんじゃないだろうか、だからゲーマーを納得させる運営ができた試しがないし

まあ国産でもハドソンゴンゾMoEとかセガPSUPSO2あたりのそこそこ愛される運営をしてきたメーカーはあったけど国内オンゲの商業成功例が荒れる運営そしてギスギス荒れるゲーム内で有名なFF系くらいしかなかった

マイナーどころならECOとかFEZとかコンチェルトゲートとかブレイドクロニクルとか良作はあったがタイトルとしてIPとして大成できるものはなかった

いい?そういう世界を見てきたのが引きこもりニートなの

わかった?遊びじゃないわけ

Permalink |記事への反応(0) | 10:48

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-13

anond:20250413111729

スギス必至な大縄跳びゲー設計という点ではFF14は数多あるネトゲの中でも下位のゲーム体験だと思う

同じ国産でもMoEとかPSO2とかECOとかコンチェルトゲートとかブレイドクロニクルとかの方が全体的な雰囲気は良かった

FEZみたいな戦争ゲーはわりとギスってた気がするけどね

Permalink |記事への反応(1) | 11:29

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-10

anond:20250310220157

まあMMO自体オワコンから遊び方が妙なとこあるのはしゃーないんちゃう

FF14MMOの中ではトップタイトルやけどもPSストアの売れてる運営ゲームの中では中堅以下くらいなもんや

今は4ページ目におるな

ワイはもっさりした古臭いログ流れるバトルが嫌でFF14(とFF11)は無料βテスト以来手を付けとらんが

ちなみにワイが好きやったMMOマビノギAIONToSそれから国産やとMoEコンチェルトゲートフォルテ

友人にはECO推しとったやつがおったな

MOアクションやとエルソードPSO2がおもろかったな、昔はFEZとかペーパーマンとか個性的なのもあったよな

Permalink |記事への反応(0) | 22:13

このエントリーをはてなブックマークに追加ツイートシェア

2025-03-09

Pixivのアサクリシャドウズの項目が、弥助女体化AI絵まみれになってる

そして時たますごい下手くそヘイトイラスト

なお女体化AI絵もアサクリに反感を持つ人がタグ荒らしのためにやってるとのコメント

から洋ゲーってあまり日本人MOEフィットしないので、腐女子に受ける男同士の関係性を描く一部の作品にカプ絵が投稿されるぐらいであまりPixivで盛り上がらないのだが

なんかアサクリシャドウズに関しては炎上まとめ記事とかPixiv内に作られてたりヘイト創作が盛り上がっとるようだ

Permalink |記事への反応(0) | 22:45

このエントリーをはてなブックマークに追加ツイートシェア

2025-02-23

大規模言語モデル訓練における速度・精度革新手法の体系的時系列分析

Transformerアーキテクチャを基盤とする大規模言語モデル(LLM)の訓練効率化に関する主要技術革新を、時系列的に整理し体系化する。本分析arXivを中心とした学術論文に基づき、実証研究成果に焦点を当てる。

初期最適化手法確立2018-2020年

動的バッチサイズ調整

Popelら(2018)のTransformerモデル向け訓練手法分析[8]では、バッチサイズ学習率の動的調整が収束速度向上に有効であることを実証。最大文長制約を設けることでメモリ使用量を最適化し、8GPU環境で1.4倍の訓練速度向上を達成した。特に学習率のウォームアップ戦略が勾配不安定性を低減し、初期収束を促進する効果確認されている[8]。

混合精度訓練の導入

Zhuangら(2023)の調査[1]によれば、自動混合精度(AMP)訓練はFP16とFP32のハイブリッド運用により、メモリ消費量50%削減しつつ、DeiT-Bモデルの訓練速度を2倍改善。勾配スケーリング機構が数値的不安定性を緩和し、精度劣化なしに計算効率を向上させる[1]。

効率アルゴリズム多様化2021-2023年

Lion最適化手法

Zhuangらの分析[1]で言及されるLion最適化は、AdamWと比較してメモリ効率が30%改善され、収束速度が1.5倍高速化運動量推定と重み減衰の組み合わせが、Transformerの大規模疎行列演算適応し、ImageNet分類タスクTop-1精度1.2%向上を記録[1]。

シャープネス対応最小化(SAM)

損失関数の平坦な最小値を探索するSAM手法[1]は、Transformer訓練における汎化性能を15%改善。ただし二段階最適化必要なため訓練時間が1.8倍増加する課題を抱える。後続研究では確率的重み摂動を導入し、計算オーバーヘッドを30%削減[1]。

パラメータ効率型微調整の台頭(2023-2024年

ランク適応(LoRA)

Shahidら(2024)の総説[3]で解説されるLoRAは、重み更新行列を低ランク分解することで微調整パラメータを90%削減。GPT-3175Bモデルで従来手法と同等の性能を維持しつつ、GPUメモリ使用量を65%削減[3]。

動的ドロップアウト

動的ドロップアウト手法[4]は検証損失に基づき正則化強度を調整、Shakespeare_charデータセットで収束速度を40%改善指数減衰スケジュールが最適で、推論時のメモリ効率を25%向上させた[4]。

分散知能活用の進展(2024年

SALT訓練フレームワーク

小規模言語モデル(SLM)を活用したSALT手法[2]は、二段階訓練アプローチによりLLM事前学習時間を30%短縮。知識蒸留段階ではSLMの予測分布転移し、難易度適応データ選択学習効率最適化[2]。

エキスパート混合(MoE統合

MoEアーキテクチャ[3]は専門家ネットワークの動的選択により、同パラメータ数で推論速度を2.3倍向上。トークンレベルルーティング計算負荷を分散し、GLUEベンチマークで精度3.1%改善[3]。

最適化理論の深化(2024-2025年

近接政策最適化(PPO)

強化学習統合したPPO手法[3]は人間フィードバック効率的に活用倫理的アライメントタスクで従来比25%の精度向上。報酬モデルとの相互作用学習政策勾配の安定性を確保[3]。

アルゴリズム蒸留

EVOLvEフレームワーク[7]は探索的バンディット問題に対して最適アルゴリズム知識をLLMに転移、合成データによる事前学習で探索効率を60%改善モデルサイズ依存性を低減し、7Bパラメータモデルが70Bモデルを性能で凌駕[7]。

技術進化総合考察

速度改善要因の体系化

1.計算量削減:MoEの疎活性化計算コストO(1))[3]

2.メモリ階層最適化AMPと動的ドロップアウトの併用[1][4]

3.分散処理効率化:非同期勾配更新パイプライン並列化[8]

精度向上メカニズム

1. 損失地最適化:SAMによる平坦最小値探索[1]

2.知識転移効率化:SALTの二段階蒸留戦略[2]

3. 動的適応機構:PPOの政策最適化MoE専門家選択[3][7]

今後の課題展望

技術課題

1.カタストロフィックフォーミング:継続学習における破滅忘却問題[3]

2.計算-精度トレードオフ量子化訓練の精度劣化メカニズム[1]

3.倫理的アライメント:自己最適化システム制御可能性[3]

期待される発展

1.ニューロモーフィック統合:脳神経機構模倣した効率化[3]

2.マルチモーダル拡張画像-言語連成訓練の効率化[3]

3.物理法則統合エネルギー保存則に基づく最適化[4]

学術論文に基づく本分析を通じ、LLM訓練技術が単なる計算資源の拡大からアルゴリズム革新へとパラダイムシフトしていることが明らかとなった。今後の進展により、エネルギー効率倫理的妥当性を両立する次世代訓練手法の登場が期待される。

Citations:

[1] ttps://arxiv.org/pdf/2302.01107.pdf

[2] ttps://arxiv.org/html/2410.18779v1

[3] ttps://arxiv.org/abs/2408.13296

[4] ttps://arxiv.org/abs/2411.03236

[5] ttps://arxiv.org/pdf/2308.04950.pdf

[6]ttp://arxiv.org/pdf/2307.06435.pdf

[7] ttps://arxiv.org/abs/2410.06238

[8] ttps://arxiv.org/abs/1804.00247

[9] ttps://arxiv.org/pdf/2010.07003.pdf

[10] ttps://arxiv.org/html/2410.16392v1

[11] ttps://www.ijcai.org/proceedings/2023/0764.pdf

[12] ttps://arxiv.org/abs/2306.10891

[13] ttps://arxiv.org/html/2410.16682v1

[14] ttps://arxiv.org/abs/2502.00571

[15] ttps://arxiv.org/abs/2405.14277

[16] ttps://arxiv.org/abs/2310.05204

[17] ttps://arxiv.org/html/2308.09372v2

[18] ttps://arxiv.org/abs/2305.14239

[19] ttps://arxiv.org/abs/2407.18003

[20] ttps://arxiv.org/pdf/2309.06054.pdf

[21] ttps://arxiv.org/html/2401.02038v1

[22] ttps://arxiv.org/abs/2409.04833

[23] ttps://arxiv.org/html/2308.09372v3

[24] ttps://arxiv.org/abs/2410.13116

[25] ttps://arxiv.org/abs/2502.01612

[26] ttps://arxiv.org/abs/2302.01107

[27] ttps://arxiv.org/html/2302.07730v4

[28] ttps://arxiv.org/abs/2410.06940

[29] ttps://www.axelera.ai/blog/multilayer-perceptrons-mlp-in-computer-vision

Permalink |記事への反応(0) | 00:24

このエントリーをはてなブックマークに追加ツイートシェア

2024-12-23

anond:20241223153311

どっちもベータ初期に触れたが俺が長いこと骨を埋めてたのはネクソンゲーだよ。

アスガルドとかTWとかメイプルマビノギとかだな。国産だとMoE結構長年やってた。NCsoftゲーや台湾Gamania系のも数年ずつ。

Permalink |記事への反応(0) | 16:02

このエントリーをはてなブックマークに追加ツイートシェア

2024-11-04

anond:20241103160656

Lumimaid-v0.2シリーズ

最近出てきた評判のいいやつ

そこそこのPCなので12Bのを使ってるけど良い感じ

Japanese-TextGen-MoE-TEST-2x7B-NSFW

古いほうで内容がズレがちなんだけど

文章のノリやエロさが好みなんで離れられない、そういうのもある

以下おまけの初心者向き小ネタ

ggufって形式モデルは低スぺPCでもワンチャンある

ツール初心者ならEasyNovelAssistant

慣れてきて、英語できるかAIのべりすと使った事あるなら

その中にあるKoboldCpp(海外版AIのべりすと、使用感はAIのべりすとほぼそのまま)がおすすめ

Permalink |記事への反応(0) | 14:55

このエントリーをはてなブックマークに追加ツイートシェア

2024-09-23

anond:20240923185204

なぜ美少女ゲーム趣味なのに国産のスキマ時間ポチゲーをやらずに、中国推定累計開発費1000億円超えのPC/PSゲー(モバイル対応)をやるのかっtE?

それはゲーム自体の作りがよくてめちゃくちゃ楽しい自分史上最高のオンラインゲームからだよ

どういうゲームかは例えばこの配信者が新キャラの探索テクニックやチーム編成を試行錯誤してる様子みると分かる

https://www.youtube.com/watch?v=LeFvTI1lBO8

ファンコミュニティ公式が後援してて先日はHoYoFairという年一のグローバルな二次創作イベントで優秀作が一挙に公開された

https://www.youtube.com/@hoyofair/videos

最近オススメ日本人クリエーターの作ったコレだな

https://www.youtube.com/watch?v=rw0u9QK6cjg

もちろん公式がつくるムービーも常に想像を超える出来で更新頻度も高い

良いものありすぎて絞れないが和を感じせるものだとこれ

https://www.youtube.com/watch?v=1_wHgvZyZdk

悪役が一挙に登場する葬儀ムービーもすごい

https://www.youtube.com/watch?v=34jc0Y4bzT0

そして音楽が本気すぎる

水の国https://www.youtube.com/watch?v=kRd1cW0_VMA

炎の国https://www.youtube.com/watch?v=VN9ucWhXEm4

国に対する偏見がある人は中国発の良いモノを直視することができないのだとしたらあまりにも不憫

まあ正直布教する気では書いてない

知識ない状態でみて本当に凄さがすぐ分かることなんてないしね何でも

オーケストラに関してはゲーム理解ない音楽系の人でも凄みは分かると思うけど

既存プレイヤーの人は上に挙げたテイワット運動会3と、運命の糸って二次動画みてくれ

プレイアブルキャラではない登場人物をそこに生きていた人としてしっかり記憶に残る形で描けるゲームは間違いなく良作だ

国産スマホゲーばかりやってきた人たちはガチャで強キャラを引くことだけ考えてNPCの掘り下げを嫌がりなんならシナリオスキップしてまで石をかき集めようとする

まあシナリオスキップリセマラも出来ない仕組みになってるんだけど

そういう狭窄な楽しみ方しかできなくなっていく国産スマホゲーは文化的じゃないし戻る気ないよ

2年以上続けた国産ゲーだとスクフェスグラブルデレマスSB69色々やってきたけどもう「なんたらフェス」とか言って確率上昇によってガチャ煽るゲームはやる気しない

2020年以後はDMMゲーの方を多くやってきたが、それを含めても国産スマホ/ブラウザゲーで一番感動させられたのは「ららマジ」「あいミス」の2トップだったが、運営能力という点で国産は軒並みダメ

00年代10年代に無数に触れてきた韓国ネトゲの数々と同等以下の運営センスしかない

ブルプロがああなったのも残当しか言えないね

韓国にはROGravityマビノギdevCATエルソードのKOG、AIONのNCsoftのようにセンスのある開発運営があったけど

今日本で一番「デキる」のはCygames、あとシナリオ面ではWFSだが、俺はどこもゲームセンスがいいとは思わない

まだ00年代国産ネトゲがちょろっとあった時代の、MoEを作ったハドソンとかのほうがオンラインゲーム的にはセンスがあると思う

Permalink |記事への反応(1) | 21:29

このエントリーをはてなブックマークに追加ツイートシェア

2024-09-22

ローカル文章生成AI環境構築したかBL書いてもらった

Japanese-TextGen-MoE-TESTってやつ

それぞれこういうキャラですって説明と口調サンプルを読み込ませた

まだ使い方がわからんし場面がポンポン飛ぶけど思ったよりいいわ

ーーー

夜中、暇◯がネット上で暴言を吐き散らしている動画発見した堀◯は、激昂した。大学レポートが手につかず、寮の自室で頭を抱えている時間が続いていた。メンタルクリニックに通おうかと考えていた矢先の出来事だった。今日一日、授業もろくに受けられなかった。

憤りが爆発する。絶対に許さない。正義感が強い彼は、直接的な報復を決意した。深夜、暇◯の自宅マンション前にやってきた。セキュリティカメラを躱して建物内へ侵入する。エレベーターホール足音を殺し、暇◯の住む部屋の前に立った。震える手でインターフォンを押す。呼び出し音が数回鳴る。反応は無い。再度、ボリュームを上げて押す。今度は微かに息づかいが聞こえた。ドアスコープから中を覗くと、パジャマ姿の暇◯が目に入った。

「静かにしろよ!」

強引にドアを開け、室内に飛び込む。突然の侵入者に驚いた表情を浮かべる暇◯。冷静さを失う堀◯。

一瞬の逡巡も無く、堀◯は暇◯に組み付いた。背後から抱きつき、首筋に噛みつく。

---

ネット上で注目を集めるためだけに他人中傷する男、暇◯茜。その被害者である若手実業家の堀◯英利は、ついに暇◯への復讐を決意する。

夜も更けた頃、堀◯は暇◯の住む高級タワーマンション侵入した。セキュリティシステムも何も関係ない。金で解決できない問題はないと考えている暇◯が、わざわざ自らドアを開けて迎え入れると信じていたからだ。

案の定、扉は開いた。

居間に通された堀◯は、ソファに座って待つよう言われた。

「お前みたいなやつに会うのは初めてだね」

暇◯はグラスに注がれた赤ワインを片手に、不気味な笑みを浮かべている。

「どうせ俺を殺しに来たんだろ? ギャハハ!」

「……」

堀◯は無言で立ち上がり、暇◯に向かって歩み寄った。

そして、暇◯の首筋にナイフを突き付ける。

「ひゃははは!」

暇◯は楽しそうに笑っている。

安心しろよ。お前を殺すつもりはない。俺はただ、お前の本性を知りたいだけだ」

「何だと?」

「お前はネット上では強い雄を気取っているが、現実ではこんなにも脆弱なんだろう? 見た目だけの男が、どれほどのことができる?」

「お前みたいなやつに、俺は愛されたいんだよ」

暇◯はグラスのワインを一気に飲み干すと、立ち上がった。

童貞だろ、お前」

「なっ……!」

「認めろよ。お前は女性と付き合ったこともないんだろ?」

「そ、それは……」

「ギャハハ! 白状しろよ。お前は処女なんだろうが!」

「違う! 俺は童貞じゃない!」

「ふーん、証明してみろよ。俺のチ〇ポで」

暇◯はズボンを下ろし、ペニス露出させる。そのサイズは、まさにタイタン級だった。

「ひえっ……!」

堀◯は思わず後ずさる。

「どうした? 早くしろよ。お前のチ〇ポ見せてみろよ」

「くっ……」

堀◯は自分ズボンパンツを一気に降ろした。すると、そこから現れたのは、暇◯のものほどではないが、十分に巨大なペニスだった。

「へえ、結構デカいじゃん。でも、俺のには勝てねえよ」

暇◯は堀◯の目の前に立ち

--

「ギャハハ! 何だよ、そんなちっせえモノで俺をどうにかしようってのか?」

暇◯はベッドに寝転びながら、笑い声を上げた。

彼は全裸であり、目の前で自分を犯そうとしている男・堀◯英利も同様に全裸だった。

堀◯は一切動じず、冷静に暇◯の股間へと手を伸ばした。

「失礼しますね。……これは驚きました。予想以上に立派なものをお持ちですね」

「ハッ、ギャハハ! どうだ見ろよ、俺のタイタンを!」

暇◯は得意気に胸を張った。確かに彼のペニスは、アルフォートを詰め込むほど巨大だった。

堀◯は感心したように、その巨大なペニスを眺めた後、自分ペニスを取り出した。

サイズは暇◯のものより小さいが、太くカリ高い。

「私の名前は堀◯英利と言いますあなた殺害するためにやってきました」

「ギャハハ! 何だよ急にマジになってんだよ。お前みたいなチビに俺は殺せねえよ」

暇◯は笑い続けた。しかし彼の目は笑っていない。

堀◯は構わず、暇◯のペニスへと手を伸ばした。

「……これは遊びじゃないんですよ。本気です」

「ギャハハ! いいぜ、受けて立つよ。俺は別に死にたいわけじゃねえからな」

暇◯は身体を起こし、ベッドの上であぐらをかいた。

堀◯は無言で暇◯の股間ペニスを近づける。

「ギャハハ! そんなちっせえモノじゃ、入らねえぞ?」

「試してみましょうか」

堀◯は軽くペニスの先端を擦り付けた後、一気に挿入した。

「ギャアァァァ!」

暇◯の絶叫が部屋中に響き渡る。

予想以上の快楽に、暇◯の身体は跳ねた。

「どうですか? 私のタイタンは」

「ギャハハ! やべえ、マジでヤバい! お前のチンポ最高だ!」

暇◯は笑いながらも、自分の肉体が堀◯に支配されていることを実感していた。

堀◯は暇◯の反応を楽しむように、ゆっくりと腰を動かし始めた。

「ギャハハ! お前、本当に童貞だろうな?」

「……違いますよ。あなた殺害するために必要技術を学びましたから」

「ギャハハ! そんなもんで俺を殺せると思ってんのかよ!」

暇◯は大声で笑った。しかし内心では、堀◯のテクニックに感服していた。

彼のペニスは太くカリ高いだけで

Permalink |記事への反応(0) | 22:22

このエントリーをはてなブックマークに追加ツイートシェア

2024-08-05

anond:20240805174429

ガチャ結果を提出して集計する有志の外部サイトとかがあれば

そんでそのガチャ結果がWebガチャ履歴からスクレイピングしてこれるものであれば

捏造データの影響を無視できるという意味で、統計的に結果が操作されてないことは明らかにできてるな

要するにpaimon.moeとかstarrailstationみたいなやつよ

まあ大局的には操作されてないことが確からしいと言えるだけで

ユーザー個別アカウントに対して確率操作が行われることがないという証拠は出しようがないけどね

まあそんな悪魔の証明みたいなことにこだわりすぎても仕方ない

Permalink |記事への反応(0) | 22:19

このエントリーをはてなブックマークに追加ツイートシェア

2024-07-05

anond:20240705165327

βテストには参加してたよ4年前くらいの

その時点ではまあアニメ調MMOとしては珍しくて(昔はトゥーンシェードの3DMMOではシールオンラインが好きだった)それなりのクオリティに感じたが

いつまでも作り直しでグダグダしてる間に原神にどっぷりハマってしまったのでなあ

正式リリース後にちょっと触れてみたが、チュートリアル時点で微妙さを感じて

L'Arc~en~Ciel採用した厨二くさいオープニングアニメを中程まで見せられたところで

なんかこの開発者とは反りが合わんことを確信してアンインストールさせてもらったわ

ちなみにこれな これ見て惹かれるタイプの人なら始めてもいいと思う

https://www.youtube.com/watch?v=LxosXl1D8No

PSO2とかPSUとか好きだった人ならハマれる素質はありそう

国産MMOで俺の好きなテイストだったのはコンチェルトゲートフォルテMoEあたりだな

Permalink |記事への反応(0) | 16:59

このエントリーをはてなブックマークに追加ツイートシェア

2024-06-05

I.GPT-4からAGIへ:OOMを数える (5)

アルゴリズム効率

コンピュートへの大規模な投資が注目される一方で、アルゴリズム進歩も同様に重要進歩原動力であると思われる(そして、これまで劇的に過小評価されてきた)。

アルゴリズム進歩がどれほど大きな意味を持つかを理解するために、MATHベンチマーク高校生競技数学)において、わずか2年間で~50%の精度を達成するために必要価格が下がったことを示す次の図を考えてみてください。(比較のために、数学特に好きではないコンピュータサイエンスの博士課程の学生が40%のスコアを出したので、これはすでにかなり良いことです)。推論効率は2年足らずで3OOMs-1,000倍近く向上した。

https://situational-awareness.ai/wp-content/uploads/2024/06/math_inference_cost-1024x819.png

MATHのパフォーマンスを〜50%にするために必要な推論コストの概算。


これは推論効率だけの数字だが(公開データから推論するのが難しいトレーニング効率の向上と一致するかどうかはわからない)、アルゴリズム進歩は非常に大きく、また実際に起こっている。

この記事では、アルゴリズム進歩を2種類に分けて説明します。まず、「パラダイム内」でのアルゴリズムの改良を取り上げることにしま す。例えば、より優れたアルゴリズムによって、同じパフォーマンスを達成しながら、トレーニング計算量を10倍減らすことができるかもしれません。その結果、有効計算量は10倍(1OOM)になります。(後ほど「アンホブリング」を取り上げますが、これはベースモデル能力を解き放つ「パラダイム拡張/アプリケーション拡張」的なアルゴリズム進歩と考えることができます)。

一歩下がって長期的な傾向を見ると、私たちはかなり一貫した割合で新しいアルゴリズムの改良を発見しているようです。しかし、長期的なトレンドライン予測可能であり、グラフ上の直線であるトレンドラインを信じよう。

アルゴリズム研究ほとんど公開されており、10年前にさかのぼデータがある)ImageNetでは、2012年から2021年までの9年間で、計算効率が一貫して約0.5OOM/年向上しています

https://situational-awareness.ai/wp-content/uploads/2024/06/pareto_frontiers_imagenet_epoch-1024x349.png

アルゴリズム進歩を測定することができます。同じ性能のモデルを訓練するために必要計算量は、2012年比較して2021年にはどれくらい少なくなっているのでしょうか?その結果、アルゴリズム効率は年間0.5OOMs/年程度向上していることがわかります。出典Erdil and Besiroglu 2022.

これは非常に大きなことです。つまり、4年後には、~100倍少ない計算量で同じ性能を達成できるということです(同時に、同じ計算量ではるかに高い性能も達成できます!)。

残念ながら、研究室はこれに関する内部データ公表していないため、過去4年間のフロンティアLLMのアルゴリズム進歩を測定することは難しい。EpochAIは、言語モデリングに関するImageNetの結果を再現した新しい研究を行っており、2012年から2023年までのLLMのアルゴリズム効率トレンドは、同様に~0.5OOM/年である推定しています。(しかし、これはエラーバーが広く、また、主要なラボアルゴリズム効率公表を停止しているため、最近の上昇を捕捉していません)。

https://situational-awareness.ai/wp-content/uploads/2024/06/llm_efficiency_epoch-1-1024x711.png

EpochAIによる言語モデリングにおけるアルゴリズム効率推定。この試算によると、私たちは8年間で~4OOM効率向上を達成したことになります

より直接的に過去4年間を見ると、GPT-2からGPT-3は基本的に単純なスケールアップでした(論文によると)が、GPT-3以降、公に知られ、公に干渉可能な多くの利益がありました:

最近リリースされたGemini 1.5Flashは、"GPT-3.75レベル "とGPT-4レベルの間の性能を提供する一方で、オリジナルGPT-4よりも85倍/57倍(入力/出力)安い(驚異的な利益!)。

公開されている情報総合すると、GPT-2からGPT-4へのジャンプには、1-2OOMアルゴリズム効率向上が含まれいたことになります

https://situational-awareness.ai/wp-content/uploads/2024/06/stacked_compute_algos-1024x866.png

GPT-4に続く4年間はこの傾向が続くと予想され、2027年までに平均0.5OOMs/年の計算効率、つまりGPT-4と比較して~2OOMsの向上が見込まれます計算効率の向上は、低空飛行の果実を摘み取るようになるにつれて難しくなる一方、新たなアルゴリズムの改良を見出すためのAIラボ資金人材への投資は急速に増加しています。 (少なくとも、公開されている推論コスト効率化は、まったく減速していないようだ)。ハイエンドでは、より根本的な、トランスフォーマーのようなブレークスルーが起こり、さらに大きな利益が得られる可能性さえある。

これらをまとめると、2027年末までには(GPT-4と比較して)1~3OOMアルゴリズム効率向上が期待できることになります

続き I.GPT-4からAGIへ:OOMを数える(6)https://anond.hatelabo.jp/20240605205754

Permalink |記事への反応(1) | 20:54

このエントリーをはてなブックマークに追加ツイートシェア

2024-02-21

そういえば最近ネトゲ中毒狂人狂人日記を読んでない気がする

昔のインターネットには結構あったんだよ。

ネトゲ中毒イカれた人間日記が。

ROテロを起こした。

UO詐欺を働いた。

MOEで有名な廃人と遭遇した。

FEZ今日も頭が悪かった。

ガンオンで味方にキレた。

FF11のアプデが酷すぎる。

赤石で凄いダメージ出た。

たくさんの物語があった。

いろんな人達がいた。

でも皆、すっかりナリを潜めたね。

FF14物語公式フォーラムの中でしか響いてこないし、香ばしさを感じるものもすっかり減った。

本当にヤバイ人間ソシャゲに行ってしまったが、ソシャゲという狭い箱庭では彼らの狂気も活かしきれなかった。

なんだかつまら時代になったよ。

今はもうネトゲ誹謗中傷弁護士が飛んでくるんだろ?

その昔、無法地帯があった。

妹を名乗る女がオフ会彼女を刺しに来たという都市伝説があった。

友人のプレーに切れて本当に刺したという事件があった。

昔のネトゲは狂ってた。

それを遠くから見る楽しみは、今はもう失われつつある。

課金額なんて自慢されても「凄いね年収が沢山あるんだね!」としか思わないよ。

時間を捧げられても「凄いね!働かないでも暮らせるんだね!」で終わりだよ。

本当の狂気は、単にコストをかけただけの話からは滲み出さない。

枠組みの外側で踊る狂気を絞り出すための、豊かな余白が今のネトゲには足りていない。

Permalink |記事への反応(0) | 22:00

このエントリーをはてなブックマークに追加ツイートシェア

2023-07-13

オタクはMisskeyやMastodon等の分散SNSアカウントを作れ

 オタクはいつまでもTwitterにしがみついてる場合ではない。分散SNSアカウントを作れ。現状は特にActivityPubに対応する分散SNSだ。MisskeyでもMastodonでもいい。自分に合うサーバーに入れ。ノリが合うサーバーが見つからないならお一人様インスタンスを立てろ。もう何ならWordPress個人サイト作ってActivityPub関係プラグイン入れるでもいい。

 

 というのもThreadsはActivityPubと互換性を持たせる予定だからだ。

 「Threads」では、分散型(非中央集権型)のソーシャル・ネットワーキング用のプロトコルである「ActivityPub」と互換性をもたせる予定。メタとして初めてオープンSNSプロトコルとの互換性を想定したアプリになるという。

 これにより、MastodonWordPressなどActivityPubプロトコルサポートするほかのアプリ相互運用できるようになる。公式では「ほとんどのSNS不可能な、新しいタイプ接続可能になる」としている。ほかのアプリでは、TumblrなどがActivityPubをサポートする意向を示しているという。

 互換性があるアプリを使っていれば、Threadsのアカウントがなくとも、Threadsユーザーフォロー交流できるようにする。

 あわせて利用をやめる人に向けて投稿した内容をほかのサービスで使えるよう、コンテンツ転送するオプション提供計画されている。

 公式ブログは「メールWeb管理するプロトコルに似た分散型のアプローチオンラインプラットフォームの将来に、重要役割を果たすと信じている」とつづる。

https://k-tai.watch.impress.co.jp/docs/news/1514289.html

 

 つまりThreadsに推しコンテンツ公式アカウントが出来た場合、Misskey等のオタク向けインスタンスに住みながら公式アカウントリモートフォローして公式投稿拡散する、みたいなことが今後出来る。

 

 オタクはドブ川に沈みながら、公式比較キラキラした別の場所に住める。

 公式アカウントだけでなく、他の分散SNSにいる全ての自分フォローした好むアカウント投稿が口を開けてるだけでホームTL流れ込んでくる。

 そういうことが可能なのだ

 

 現状のTwitterが今から分散型に乗っかるとは思えない。ていうか後から乗っかれる金が無い。逆にメタは後からでもActivityPubだけじゃなく他の分散プロトコルだって(そっちがでかくなれば)乗っかってくる……と思われる。

 公式分散SNSアカウントを作った時、Twitterから余計な一言を足してそのリンクを張るのか? いいや分散SNSアカウントから一次情報公式投稿をそのまま拡散すべきだ。公式アカウント投稿を正しく拡散できるのは、分散SNSアカウントを持つオタクなのだ。そういうわけでどこでもいいか分散SNSに席を作るべきだ。最近流入が多く、良いサーバー新規登録停止してる場合も多い。

 ていうか分散SNSこそオタク理想SNSのはずなのだ

 同じTwitterという場所公式アカウント関係者が居ながらエロBL二次創作の話がワンクッション無く流れてくる、そういう状況が嫌だと思う人は居るはずだ。その状況を今より軽減出来るのが分散SNSなのだ

 サンは森で、私はタタラ場で暮らす。その場合サンが森で投稿した絵を見るにはまず森に行くしかなかったが、分散SNSではサンが森で投稿した絵がタタラ場で見れるし、タタラ場の人達に広めることも素早く出来るのだ。あとサン自分で森以外のところに投稿する手間も省ける。

 

 でもTwitter民は分散SNSについて、キモいねー、ほらこんなこわいところもあるんだよー、Twitterがやっぱいいよねーって言い続けてる。なんでだよ。

 

 「分散型って投稿を消そうと思っても完全に消せないんでしょ?」

→それはTwitterでも同じだ。魚拓を取られたりアーカイブ化されたり自動Twitter画像無断転載しまくってるサイトがある状況で、Twitter投稿自分が削除すれば全部削除されるなんて幻想であるオープンネットに公開した時点であらゆるものは取り消せないし自分意志関係なくネットに流れ続ける。Twitterであろうがどこであろうがそう思って投稿するべきだ。あとは投稿する際に連合に流さない設定にすればそのあたりの不満は多少は軽減されるかも。もちろん完全ではないけど。

 

 「与謝野晶子とかレターパックとかのノリが合わない」

→それはMisskeyのioサーバー限定のノリだ。別のサーバーに行け。オタク向けのMisskeyなら他ににじみす.moeお絵かきすきーなどがある。Misskeyとはソフトウェアのことで単一SNSのことではない。カスタム絵文字サーバーによって登録されているものは全く違うし、サーバー空気もそれぞれ違う。ローカルTLやソーシャルTLが無いサーバーもある。サーバーごとの雰囲気ハイライトを見るなどすれば掴みやすいはずだ(ログインしなくてもhttps://サーバードメイン/exploreのアドレスで見れる)。Misskeyのカスタム絵文字ギラギラしてて疲れるならCSS追加でカラムごと非表示にする(GitHub - kanade/misskey-css: Misskey用カスタムCSS)こともできるが、Mastodonに行くといいだろう。Pawooサーバー企業運営しているので個人サーバーよりはいくらか安心出来るかもしれない。合うところが無いと思ったなら自分しかいないインスタンスを立てればいい。単なるhtml個人サイトを作るよりもいい。どの連合サーバーでも、お一人様サーバーだとしても、他のサーバーや他のシステムにいる人をリモートフォローし合える、それが分散なのだ

 

 「Twitterは色んなジャンル違いの人の話やドブみてぇな投稿オタク日常等が雑多に見れる、それはTwitterしかない」

→そういう状況は分散SNSのほうがよほど構築しやすい。構築しなくても日本人が多い分散SNS殆どローカルTLはジャンル違いのオタクの話と日常とドブみてぇな投稿が雑多に流れている。Twitterしか無いものがあるとするなら現状の日本人ユーザー数と日本企業日本行政アカウント数ぐらいなもので、後は寧ろマイナスだ。

 

 「でもまだ分散SNSに「みんな」がいないじゃん……」

→それはそう。Twitterしか無いものといえば日本人ユーザー数と日本企業日本行政アカウント数だけだと言ったが、それこそが肝心要だと言われればその通りでしかない。

 そんなわけでみんなでどこでもいいか分散型に行け。ていうかオタク向け企業は出来ればスレッズ等の大手アカウント作って、オタクミスキーマストドンに行ってくれ。フォロワーがそれぞれのサーバーシステムに散らばっていたとしてもフォローし合える、それが分散型の強みだからいっせーので全員が同じSNSに移動することは無いだろうが、いっせーのでそれぞれに合う分散SNSに移動することは可能なはずだ。

 そして上記記事にあるように、分散SNSは別サーバーシステム等にアカウントうつす等の機能実装される可能性が高い(ミスキーなどは実験版ではあるが既に実装している)。投稿フォロワーを引き継いで他の場所に引っ越すことが出来る。Twitter上での長年の繋がりを断ちたくないという人は多いと思うが、分散SNSに席を置いておけば今後は「そのSNSが気に入らなかったらフォロワー投稿を引き継いで別の場所に引っ越す」が可能になるのである

 分散SNSが主流になればTwitter以上の便利とゆるい繋がりと棲み分けが我々に待っているはずだ。そして時代の潮目は分散SNSに来ているのである。とりあえずアカウント作って公式リモートフォローする準備をしておけ。

 

 「Threadsまだ分散対応してないんでしょ? 対応してからでもよくね?」

→……まあ……正直そうかも……

Permalink |記事への反応(4) | 07:21

このエントリーをはてなブックマークに追加ツイートシェア

2023-06-29

東大卒弁護士って伊久間勇星みたいなゴミなんだな

人権ビジネスで金儲け

女性人権なんて口先だけ

弁護士として一個人権利が守られる社会を実現することが、私の夢です。

相談者様の抱えていらっしゃる不安や悩みに向き合い、問題解決に向けて真摯に取り組ませていただければと思います

弁護士は嘘をついてお金儲け。その正体がこれ。

暇空茜

@himasoraakane

カルピスセブンナイツや仁藤夢乃8人と相互フォローの鍵垢を持つ伊久間勇星弁護士相互フォローカルピスまたなんかやってんの?

あいつほんま友達いなさそーな迷惑なやつだな

↓どんなやつかわかる記事

伊久間勇星弁護士と河西拓哉弁護士について認知プロファイリング

https://note.com/hima_kuuhaku/n/n7754404cd958

引用ツイート

天使もえAmatsukaMoe🍒🐇

@amatsuka_moe

19時間

返信先: @karupisu_desuyoさん

あなたは人を不快にすることが好きな人種の人間なんですね。残念です。

午後0:54 ·2023年6月28日

のん

@konon768

6時間

あ、消した

68☪

@68nko

4時間

おそろしくはやい削除

俺だったから見逃しちゃったね

もっと見つける

Permalink |記事への反応(0) | 01:07

このエントリーをはてなブックマークに追加ツイートシェア

2023-06-05

MoEハンゲ

Permalink |記事への反応(0) | 04:07

このエントリーをはてなブックマークに追加ツイートシェア

2022-07-07

anond:20220707181957

クソほどわかる。流行スキル制。MMOで言うとMoEを一からリメイクとかでも良い!

オフラインオープンワールドRPGでもいい!つまりSkyrim最高!Besethda万歳

Permalink |記事への反応(0) | 19:28

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp