
はてなキーワード:シータとは
鳴潮のストーリーが面白いか面白くないかで揉めてるけど、面白くないと思う人に対して擁護勢が「面白くないと思う人は話を理解できてないんだよねぇ!」とかニチャっててちょっと寒気がした
そうじゃないよ
リナシータの雰囲気めっちゃええやん!と期待してたら、追加シナリオ時点から早々に2.0勢がオールリストラされて影も形もなくなったこととか
これまでの経歴的にも一か所に長く留まれないことを自覚してるはずなのに、無責任に「ずっと傍にいる」とか囁く漂泊者が薄ら寒いとか
上二つの特徴を合わせた追加パートごとにスポット当たるキャラが違ってそれ以外の脇役はそもそも出てこない+やたらめったら調子のいいことだけ言う主人公という構図がマジでギャルゲーっぽくて受け付けないとか
話を理解してても尚受け付けない要素が多すぎるって話なんだよ
たまに擁護勢の中に「鳴潮をギャルゲーって言う人も話を理解してない!」とかトンチキ発言振りかざしてくる人いるけど、そもそもその鳴潮好き勢の中に「ギャルゲー好きだから鳴潮も好きだわ」とか言う人も結構いるからもうめちゃくちゃだよ
アンチしかギャルゲーって言ってないならそりゃ偏見が入ってるかもしれないけど、ファンの中からもギャルゲーって言い出す声があるなら多分そう思わせる要素は確かにあるんだと思うがね
大規模言語モデル(LLM)の根幹にあるのは数学的な原理です。
ここでは、その仕組みを3つの要点に絞って、数式を交えながらシンプルに解説します。
LLMの最も基本的なタスクは、「ある単語の並び(文脈)が与えられたときに、次に来る単語は何か?」を確率的に予測することです。これを数式で表すと、以下のようになります。
LLMは、インターネット上のブログ記事や書籍といった膨大なテキストデータを読み込みます。
そして、文章中のあらゆる箇所で「次の単語」を予測するクイズを延々と解き続けます。
モデルは、P(晴れ |今日の天気は) の確率が100% (または1.0)に近づくように、内部のパラメータ(後述する重み)を少しだけ調整します。
このプロセスを何十億、何兆回と繰り返すことで、モデルは単語の様々なつながり方や文法、さらには世界の知識に関するパターンを学習していきます。
学習済みのモデルに「AIの未来は」と入力すると、モデルは語彙に含まれる全単語に対して、次に来る確率を計算します。
...
そして、最も確率の高い「明るい」を選んだり、確率分布に従ってランダムに単語を選んだりすることで、文章を生成していくのです。
では、どのようにしてLLMは単なる単語の並びだけでなく、複雑な文脈を理解するのでしょうか?
その技術が Transformerであり、その学習を支えるのがバックプロパゲーション です。
Transformerの最大の特徴は自己注意機構 (Self-Attention) です。
これは、文章中の単語同士の関連性の強さを計算し、どの単語に「注意」を向けるべきかを判断する仕組みです。
例えば、「その猫は疲れていた。なぜなら一日中ネズミを追いかけていたからだ。」という文において、「その猫」が「疲れていた」理由を理解するためには、「追いかけていた」という単語との関連性が重要です。
自己注意機構は、各単語について以下の3つのベクトルを生成します。
そして、以下の計算(概念式)によって、文脈を反映した新しい単語表現を作り出します。
Attention(Q, K, V) = softmax( (Q Kᵀ) / √(dₖ) ) V
1. Q Kᵀ: Queryと各Keyの関連度(内積)を計算します。似ている単語ほど値が大きくなります。
2. / √(dₖ): 値が大きくなりすぎないように調整します(スケーリング)。
3. softmax:計算した関連度スコアを、合計が1になる確率分布に変換します。これにより、関連性の強い単語ほど高い重みが与えられます。
4. V: この重みを使って、各単語の情報(Value)を重み付けして足し合わせます。
この結果、単語は元の意味だけでなく、「文脈の中でどのような役割を果たしているか」という情報を含んだベクトルに変換されます。
Transformerはこの処理を何層も積み重ねることで、非常に複雑で長期的な依存関係を捉えることができるのです。
バックプロパゲーション(誤差逆伝播法)は、モデルの予測と正解との「誤差」を計算し、その誤差を小さくするために、モデル内の膨大な数のパラメータ(重み)をどう調整すればよいかを教えてくれるアルゴリズムです。
1. 順伝播 (Forward Pass):入力(コンテキスト)をTransformerに通し、次の単語の確率分布を予測します。
2. 損失計算 (Loss Calculation):予測した確率分布と、正解の単語とのズレ(誤差)を損失関数(例:クロスエントロピー誤差)で計算します。損失が大きいほど、予測が間違っていることを意味します。`Loss = -Σ yᵢlog(pᵢ)` (yᵢ は正解なら1, それ以外は0。pᵢ はモデルの予測確率)
3. 逆伝播 (Backward Pass): この損失を、出力層から入力層に向かって逆方向に伝播させます。微分の連鎖律を使い、「各パラメータが最終的な損失にどれだけ貢献したか(=勾配)」を計算します。
4.パラメータ更新: この勾配に基づき、損失が小さくなる方向へ各パラメータを少しだけ更新します。
この「予測 → 誤差計算 → 勾配計算 →更新」というサイクルが、LLMの学習の基本です。
バックプロパゲーションで計算された勾配を使って、具体的にどのようにパラメータを更新するかを決めるのがオプティマイザ(最適化手法)の役割です。
最も基本的な考え方は、損失という名の「谷」の底(最小値)に向かって、勾配(傾き)が最も急な方向に一歩ずつ下っていく勾配降下法 (GradientDescent)です。
θ_new = θ_old - η ∇L
現在、最も広く使われているオプティマイザの一つが Adam です。これは、勾配降下法をより賢くしたもので、主に2つの工夫がされています。
1.慣性 (Momentum):過去の勾配の移動平均を保持します。これにより、坂道を転がるボールのように、同じ方向に進み続ける場合は加速し、学習が停滞しにくくなります。
2.適応的な学習率 (Adaptive LearningRate):パラメータごとに学習率を自動で調整します。頻繁に更新されるパラメータは慎重に(学習率を小さく)、あまり更新されないパラメータは大胆に(学習率を大きく)更新することで、学習を効率化します。
Adamのような優れたオプティマイザがあるからこそ、何十億ものパラメータを持つ巨大なLLMを、現実的な時間で安定して学習させることができるのです。
Transformer というアーキテクチャが、自己注意機構によって文脈を理解し、次の単語の確率 P(next token | context) を予測する。
その予測と正解の誤差をバックプロパゲーション で計算し、その誤差を最小化するように Adam などのオプティマイザがモデルのパラメータを効率的に更新する。
11話目前ですが、chatgptくんと一緒に考察してたら割とピンとくる内容が出てきたので書いてみます。ひょっとすると他の方が言及済みの内容を含むかもですが、以下ダラダラ書いていきます。
【ジークアクスのネーミングについて】
まずGQuuuuuuXがメタ構文変数で9番目を意味するというのは結構前から言われていた。そしてジークアクス2号機のジフレドのモデルナンバー、gMS-κ(カッパ)はギリシャ文字で10番目なので、やはり初号機のジークアクスは9号機ということで間違いなさそうだ。
では、なぜ9なのか?ということがずっとわからなかったが、これは6とセットで世界の反転(ジオン勝利if)を暗喩しているのではないかと思い付いた。
6ってどこから出てきたんや、6と9セットで反転を意味するって何?という感じだと思うが、
・マチュはサイド6の学校のプールサイドで逆立ちした後に、9号機のジークアクスに乗ることになる。(6を逆立ちして見ると、9になる)
というのが一つ決定的でないかと思う。
あと、6という数字については、
・主題歌のプラズマは正しいスペルのPla"s"maではなくPla"z"ma、そしてゼクノヴァZeknovaの頭文字もZだが、Z=ゼータはギリシャ文字で6番目。
・GQuuuuuuXのuの数は6つ
というところからも導き出せる。
蛇足だが、6と9で反転を示すのは、ひょっとすると易経の影響?とも考えている。というのも本作品と同じく敗戦国勝利ifとして名高いPKDの「高い城の男」では重要アイテムとして易経が登場するが、易経で6は「陰が極まり陽に転ずる」9はその逆を意味するらしい。正直これは自信がないので与太話として。ただ、制作チームの性格上、このくらいのSFネタをぶっ込んでくる可能性はあるかもと妄想したりする。
マチュ=アマテユズリハと、アムロレイって何か響きが似てるよね、と思っていた。
両者をアルファベットで書くと、
・AMATE YUZURIHA
・AMURORAY
になる。
マチュだけの文字は、E,Z,H,T,I。
ここでアムロ固有文字Oは、ガンダム主人公の始祖(Origin)の地位、あるいはオールド(Old)を示唆すると考える。
そしてマチュ固有文字のE,Z,H,T,Iは以下のとおり、ギリシャ文字の5番目から9番目に対応すると考える。つまり、
#5 Ε(イプシロン)
#6 Ζ(ゼータ)
#7 Η(エータ)
#8 Θ(シータ)
#9 Ι(イオタ)
Θ以外についてはアルファベットとギリシャ文字の対応について異論ないと思う。Θが苦しいが、英語表記ベース(Theta)の頭文字Tということでご容赦いただきたい。
そしてマチュ固有文字で最後のΙ(イオタ)は、以上のとおりギリシャ文字で9番目だ。ここにもやはり9が出てくる。
やや苦しい語呂合わせをすれば、正史世界の主人公であるアム"ロ"=6に対して、反転世界を象徴する数字である"9"を埋め込んだ名前としても解釈できる。
以上、ダラダラ書いてみました。いつか答え合わせができたらいいなあ。
日本の『鳴潮』プレイヤーがいろいろずれててどうやばいのかまとめようかと思ったけど、めんどうだからやめた
ゲームのプレイヤーってただの消費者で桁違いの課金を要求されて搾取されてる側なのになぜか運営目線のオタクが多い
「いいコンテンツに対価を払う」っていうのはわかるよ
でもキャラの性能をフルに出して遊びたいなら完凸10万円払ってねってのは商売としてかなり歪んでると思うのが一般的な感覚
海外は課金文化が違って日本人みたいに馬鹿みたいに課金する人少ないっていうけど、海外の方が一般的なまともな感覚してると思う
人気Youtuberとかも運営目線で語るからどんどんカルト化していってる
ただの営利企業に夢見すぎというか、なんか日本のオタクって運営目線で語るんだよなあ
今回海外で炎上してプレイヤーの抗議の声に反応して運営が対応したわけだけど、「そんなにガチャ券配布したら収益が減る」とかって日本のプレイヤーが怒ってんの
なんでプレイヤーがそんなこと考えるのか謎すぎる
1キャラ課金だけで引く場合には2万かかるっていうとんでもない商売してるのになぜか日本のプレイヤーはいつも収益の心配してる
「運営応援してる」「運営頑張ってるのに」「運営かわいそう」ってなぜか金払ってるプレイヤーが運営目線で運営擁護してる
飼い慣らされすぎというか、自民党支持してそうだし、皇族とかも好きそう
欧米のプレイヤーについては彼らは権利主張をちゃんとやってるだけ
そのプレイヤーの声を受けて運営が対応したなら、営利企業としてそういう判断になったというだけだし、「運営かわいそう」みたいな反応してる日本のプレイヤーが謎すぎる
周年記念ががっかりだったので海外で炎上して大量に人離れしそうになってた
その中には大量の無課金勢もいたと思う
でも運営としてはここで人離れ起こして過疎ってしまうと長期的に考えて不利益になると考えて対応したんだろう
今回ゴネてる中国や欧米のプレイヤー無視してこのまま何も対応しないこともできたわけだけど、その結果大量の人離れが発生して過疎って人気なくなって課金する人が少なくなることと、今回もうちょっと配布して人を引き留めた場合を計算して、後者の方がいいって判断しただけでしょ、営利企業として
「ゲームが流行ってる」ってのは大きなことで、無課金プレイヤーって一見なんのプラスにもなってないように見えて、実は課金層の課金に貢献してるんだよね、運営はそういうのわかってるから追加配布で対応した
流行ってないゲームにわざわざ課金しても優越感得られないし、流行ってなくてサ終がちらついてるようなゲームならなおさら課金されない
なのに「運営かわいそう」ってなんなんだろう
運営がこの炎上に対応しなかったらそのプレイヤーたちは他のゲームに行くだけ
日本のプレイヤーはそんなやつらの要望に応えなくていいじゃんって言ってるんだけど、運営は営利企業として考えてクレームに対応したんだよ、彼らが他のゲームに行かないように
むしろ抗議した海外プレイヤーはなんていいお客様なんだろうとすら思う
普通の人は抗議もせずにただ去るだけ
でも今回は抗議の声が何十万件も寄せられて、運営にこれじゃだめだよってメッセージが届いたんだよね
日本のプレイヤーは「運営かわいそう」「海外の奴らは民度が低くて乞食」「日本のプレイヤーは運営の擁護していて良識がある」とばかり言ってる
ガチャ券無料で大量に配ったら収益減ってサービス継続が難しくなるって心配してるのかもしれないけど、配ってるのってたかが数十連分でしかないんだよなあ
これが500連無料とかだったらおいおい大丈夫かってなるけど、30連40連分配ったところで何がどうなるわけでもないでしょう
たとえば全プレイヤーに100連分くらい一度に配られても、欲しいキャラすり抜けて出ない人もかなりの人数いるわけだ
そんな状況で30連配っただけで「運営頑張ってる」ってなんなんだろう
それにキャラの性能フルに発揮して使う場合完凸で10万以上かかる計算になるんだよ
『鳴潮』ってそういうゲーム
運営頑張ってるか?
『鳴潮』ってやたらと「最近おもしろい」って言われるけど、リナシータって地域がヴェネツィアがモチーフでその場所だけ景色がいいってだけかなって感じた(ネオヴェネツィアっぽい)
無課金でちょっとやってみただけなのでもしかしたら高難度が面白いのかもしれないけど
「キャラが魅力的」ってのもよく言われるけど、『原神』と違ってリアル寄りってだけで、ブラント(男)以外はキャラも魅力感じなかったな
羊宮さんとかは出てるけど、弱いキャラなので使用機会がないのも残念だった
ちなみにリナシータまでやったけど、恒常武器は何回か引けたけど、限定キャラはすり抜けて0でフィニッシュでした
やっぱスタレつよいわ
ゲームの番組でトレンド1位は中堅タイトルでもよくあるが、生特番用タグが世界トレンド1位はともかく、トップストリーマーとはいえ一般出演者のk4senが世界11位まで登ってくるのはすげーよ
原神も新国ナタ実装で移動キャラ革命が起きてゲーム体験変わった上、シナリオも過去一心えぐってくる出来で面白いし仔竜もかわいいしバイク操作が楽しい神実装でここんとこPSストア1位にいるけどさ
鳴潮も2.0新エリアのリナシータで空を自由に飛び回れるソアー機能が追加され初期と比べてえぐい改善量入ってるから復帰者増えててPS5リリース補正もあって2位にいるけどさ
ゼンゼロも原神で言う神枠の雅実装で無双ゲーじみたアクションしつつシナリオの全勢力集結の演出も良くて連れ歩きデート機能やキュートなボンプ探索モードといい改善量すさまじいけどさ
スタレの今日昼に実装されるオンパロス編の世界観やPV、そして過去最長になると明言されてるシナリオのワクワク感は随一だと思うんよな
番組で見た感じマップもオープンワールドゲーかってくらい高低差あって入り組んだ都市で壮観だしえらい力入ってるわ、スマホ対応って枷もあるのに偉い
しょっぱなに来るヘルタが黄泉と同じ使令枠で主人公とペア運用でアホみたいなダメージ出ることをk4senが上手に実演してくれたし、3.0で巻き返してあわよくばトップに来るんじゃないか?
前verのサンデーと新停雲という思い入れが相当強いはずのキャラ2連続でもそれほど回ってなくて貯蓄されてる感があるから今のセールスが大人しいのは嵐の前の静けさかね
ちなみに11月の全世界セールスは原神245億円、ゼンゼロ137億、スタレ114億、鳴潮72億らしいね
ふつうソシャゲは初動で失敗するともう下がっていくだけのもんだけど
このへんの予算潤沢な中華ゲーはむしろ膨大な開発リソースで改善や新コンテンツがどんどん入って良くなっていき口コミ的に人気が広がった結果(もちろん宣伝力もあるが)持ち直すことが起きやすい
日本の運営型ゲームでそういう動きができたのはFF14くらいしか知らないが色々ゴタゴタあった14よりだいぶスマートな感じで運営されてる印象あるね
じっさい原神の2年目3年目あたりがそうだったし、今だと鳴潮がそれにあたる、鳴潮は序盤の世界観的なとっつきにくさはまだあるけどね
というかFateみが年々強まってるようだけどFateシリーズも履修したほうがいいのか?
いやーやりたいことが多すぎる