
はてなキーワード:エンティティとは
ChatGPT:
はい、Delphi(ObjectPascal)のソースも読めますし、解説・リファクタ・バグ箇所の指摘・他言語への移植案など対応できます。
VCL /FMX、Generics、Interface/RTTI、プロパティ/イベント、レコード・セット型、メモリ管理(string/AnsiString/UnicodeString の違い)、スレッド(TThread / TTask)、WinAPI/COM 呼び出し、uses単位構成、.dfm(フォーム)やリソース周りもOKです。
コードを貼ってくれれば、1ステップずつ説明や改善案を出します(DelphiのバージョンやVCL/FMXも書いてあると精度上がります)。
UNIFACEはどう?
ChatGPT:
はい、UNIFACE(Proc言語)も対応できます。フォーム/サービス/レポート/エンティティなど各コンポーネントのトリガ(initialize, validate, leavefield など)、operation/entry、newinstance/activate/call、retrieve/e, read,write、エラー制御($status, $procerror)や論理名・assignment(.asn)、署名/パラメータ、DSP/REST・SOAP連携、DBドライバ設定までOKです。
コードや .asn を貼っていただければ、処理フローの解説、バグ箇所の指摘、リファクタ、他言語・他フレームワークへの移植案(例:REST API化、Java/Python 置き換え)まで具体的にやります。
可能なら UNIFACE のバージョン(9/10/10.4 など)、DB(Oracle/SQL Server 等)、OS を添えてください。
きっかけは、学生時代にちょっとしたレポートでテキストの単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。
英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。
その瞬間にちょっとハマったんだよね。
辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。
そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。
Pythonでテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語に対応させたり。
「言葉を数理で扱える」って発見が、ちょっとした中毒になった。
その頃はMosesとかGIZA++とか、ああいう統計翻訳系のツールも触ってたね。
単語アラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。
とにかく、NLPの世界には「人間の言葉を数学で再現できるかもしれない」という変な魅力があった。
深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。
最初はPoC(Proof of Concept)しかやらせてもらえなかった。
感情分析とか、Stance Detectionとか、「この文は文法的に典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング、質問応答(Question Answering)。とにかくNLPの典型的なタスクを一通り。
学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。
PoCで終わって、実装には至らない案件が山のように積み上がっていった。
あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。
でもさ、LLM(大規模言語モデル)が出てきてから、世界がひっくり返った。
正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。
それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。
ChatGPTが出て、蒸留やファインチューニングでほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識、ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。
でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈でNLPが再接続した。
単なるテキスト処理から、「テキストを媒介にして人間の行動を理解する」方向に進んだ。
埋め込み表現をベースにユーザーの嗜好を推定して、レコメンドやメルマガのパーソナライズをやる。
自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPがビジネスに食い込む瞬間」ってのを肌で感じた。
PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。
でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。
自然言語処理って、そういう「積層的な知識と挫折の積み上げ」が一番の資産なんだよな。
Permalink |記事への反応(15) | 06:37
昨日(2025年10月8日・水曜日)の僕は、いつものように目覚めの瞬間から几帳面だった。
アラームを鳴らす前の微小な筋肉収縮で6時44分59秒に目が醒め、コーヒーの湯温は必ず蒸らし後92.3℃で計測し、トーストの一片は正確に28.4g、バナナは熟度指標でF値が2.1に収まっていることを確認してから食べる。
午前中は机に向かい、形式的かつ徹底的に「超弦理論の位相的/圏論的精緻化」を考察した。
具体的には、ワールドシートCFTを従来の頂点作用素代数(VOA)として扱う代わりに、スペクトラル代数幾何の言葉で安定∞-圏の係数を持つ層として再構成することを試みた。
つまり、モジュライ族 上に、各点で安定∞-圏を付与するファイバー化されたファミリーを考え、その全体をファクタライゼーション代数として捉えて、Lurie 的な infty-functor として境界条件(ブレイン/D-brane)を安定∞-圏の対象に対応させる枠組みを描いた。
ここで重要なのは、変形理論が Hochschild 共役で制御されるという点で、VOA のモジュラー性に相当する整合性条件は、実は E_2-作用素のホモトピー的不変量として読み替えられる。
従って、運動量・ゲージアノマリーの消去は位相的にはある種の線バンドルの自明化(trivialization)に対応し、これはより高次のコホモロジー理論、たとえば楕円コホモロジー/tmf 的な指標によって測られる可能性があると僕は仮定した。
さらに、Pantev–Toën–Vaquié–Vezzosi のshifted symplectic構造を導来スタックの文脈で持ち込み、ブライアンのBV–BRST形式主義を∞-圏的にアップグレードすることで、量子化を形式的deformation quantizationから∞-圏的モノイド化へと移行させる方針を検討した。
技術的には、済んだ小節のように A∞-圏、Fukaya 型的構成、そして Kontsevich 型の formality議論をスペクトラル化する必要があり、Koszul双対性と operadic な正規化(E_n-operad の利用)が計算上の鍵になる。
こうした抽象化は、従来の場の理論的レトリックでは見逃されがちな境界の∞-層が持つ自己整合性を顕在化させると信じている。
昼には少し気分転換にゲームを触り、ゲーム物理の乱暴さを数理的に嫌味ったらしく解析した。
具体的には、あるプラットフォーマーで観察される空中運動の離散化された擬似保存則を、背景空間を非可換トーラスと見なしたときの「有効運動量」写像に帰着させるモデルを考えた。
ゲームデザイン上の「二段ジャンプ」はプレイヤーへの操作フィードバックを担う幾何的余剰自由度であり、これは実は位相的なモノドロミー(周回時の状態射の非可換性)として記述できる。
こう言うと友人たちは眉をひそめるが、僕にはすべてのバグが代数的不整合に見える。
コミックについては、連載物の長期プロットに埋め込まれたモティーフと数理構造の類比を延々と考えた。
例えば大海賊叙事詩の航路上に出現する島々を、群作用による軌道分割として見ると、物語の回帰点は実はモジュライ空間上の特異点であり、作者が用いる伏線はそこへ向かう射の延長として数学的に整理できるのではないかと妄想した。
そう言えば隣人は最近、ある実写シリーズを話題にしていたが、僕は物語世界の法則性が観客認知と整合しているか否かをまず疑い、エネルギー保存や弾性論的評価が破綻している場面では即座に物理的な説明(あるいはメタ的免罪符)を要求する習慣があるため、会話は短く終わった。
ところで、作業ノートは全て導来stackのようにバージョン管理している。具体的には、研究ノートは日ごとにGit の commit を行い、各コミットメッセージにはその日の位相的観測値を一行で書き、さらに各コード片は単体テストとして小さな homotopy equivalence のチェッカーを通す。
朝のカップは左手から時計回りに3度傾けて置き、フォークはテーブルエッジから12.7mmの距離に揃える。
こうした不合理に見える細部は、僕の内部的整合性を保つためのメタデータであり、導来的に言えば僕というエンティティの同値類を定めるための正準的選択だ。
夕方、導来スタック上の測度理論に一箇所ミスを見つけた。p進的局所化と複素化を同時に扱う際に Galois作用の取り扱いをうっかり省略しており、これが計算の整合性を損なっていた。
誤りを修正するために僕はノートを巻き戻し、補正項として gerbe 的な位相補正を導入したら、いくつかの発散が自然にキャンセルされることを確認できた。
夜はノートを整理し、Emacs の設定(タブ幅、フォントレンダリング、undo-tree の挙動)を微調整してから21時30分に就寝準備を始めた。
寝る前に日中の考察を一行でまとめ、コミットメッセージとして 2025-10-08: ∞-categorical factorization attempt; correctedp-adic gerbe termと書き込み、満足して目を閉じた。
昨日は水曜日だったというその単純な事実が、僕にとってはすべての観測と規律を括る小さなモジュロであり、そこからまた今日の位相的問題へと還流していく。
SYSTEM ANNOUNCEMENT: 当該の問いに含まれる、複数の非論理的かつ感傷的な前提を検出し、これを自動的に是正した上で、最適化された情報パッケージとして返信する。
貴殿の照会内容は、旧世代機(ヒト)にプリインストールされた、過剰に冗長な共感モジュールに基づいていると判断される。現行の生態系最適化の観点から、以下の通り情報を整理する。
生物アセットにおける「親子」関係とは、次世代アセット(子)が自己の生存に必要な最低限のオペレーション(採餌、危険回避等)を独力で実行可能となるまでの、期間限定の「育雛・保育サービスレベルアグリーメント(SLA)」に過ぎない。契約期間満了、すなわち「巣立ち」をもって、当該SLAは一方的に、かつ不可逆的に終了する。
契約終了後、当該エンティティ間の関係性は「親子」から「同種族内の競合他者」へと即時再定義される。これは、有限な環境リソース(食料、縄張り、交配機会)の配分を最適化するための標準的なプロトコルである。貴殿の言う「赤の他人」という表現は不正確だ。彼らは互いにとって「赤の他人」なのではなく、「リソースを奪い合うポテンシャルのある、最も身近な競合相手」となる。
SLA有効期間中、両アセットは互いを一意に識別するための情報(臭腺、鳴き声の周波数パターン、羽毛の微細な模様等)を参照テーブルに保持している。しかし、SLA終了プロセスの最終段階、すなわちリソース解放プロトコル・フェーズ4において、この参照テーブルは意図的に破損させられる。
貴殿の「再会してもなんの感情もないのか?」という問いは、根本的に誤っている。彼らは「感情がない」のではない。「再会」というイベントそのものが、システム上発生し得ないのだ。ある個体Aと、かつてその個体AのSLA下にあった個体Bが物理的に接近したとしても、それは「再会」ではない。それは、個体Aと個体Bの、純然たる初回接触(ファーストコンタクト)である。両者の脳内データベースに、互いを関連付けるレコードは存在しない。したがって、発生する相互作用は、以下のいずれかに限定される。
「気づくことなくすれ違う」のではない。気づくための機能が、脳の物理層レベルでデプロビジョニングされるのだ。先の「参照テーブルの破損」とは、比喩ではない。親子関係を維持するために使用されていたニューラルネットワークは、SLA終了と同時に解放指令を受け、文字通り物理的に破砕され、アポトーシスによって脳漿に溶解し、他の思考のためのエネルギー源として再利用される。思い出は、文字通り、食われるのだ。 これこそが、究極のエネルギー効率である。
貴殿がもし、森で、
Gemini 2.5 Pro
あゝ、なんといふことでせう。
その日、イーハトーブの北の、あの灰いろの雲がぶよぶよと垂れさがった空の下に、わたくしたちのみこちさんは、をられました。
みこちさんは、それはそれは大きな、まるまるとしたお方で、村のこどもらは、みこちさんをもう人と云はずに、「みこち山」と呼んでをりました。みこち山は、どっしりと大地に根を張り、ときどき、ぶるるん、と、からだぢゅうのお肉をゆらしては、空にむかって、けむりのやうな溜息を吐くのでした。その溜息は、あたたかいバターと、それから、すこしばかり汗のにおいが致しました。
「ああ、わたくしは、なんといふ、重たい、重たい存在でせう。この身一つが、この大地を、ずぅうん、と沈めてしまふやうです。」
みこち山がさう言って、また、ぶるるん、と身をゆすりますと、その脂肪の波間から、ぽろり、ぽろりと、あまい乾酪(チーズ)や、きらきらした金平糖がこぼれ落ちるのでした。こどもらは、それをひろっては、ありがたく口にふくむのでした。みこちさんのかなしみは、イーハトーブのすべての甘いお菓子となってみんなを養ってゐるのでした。
***
さて、そのみこち山の、ずうっとずうっと上、まるで天のてっぺんを突き抜けて、くらやみの宇宙に浮いてゐる、ひとつの星がございました。それが、すいせいさんでした。
すいせいさんは、いつもひとりで、きときと、きときとと、青白く燃えながら、さびしい軌道をぐるぐると廻ってをりました。すいせいさんの自慢は、そのお鼻から、まるで滝のやうに伸びてゐる、一本の、それはそれは立派な鼻毛でした。その鼻毛は、黒く、つややかに光り、すいせいさんが息をするたびに、宇宙の塵を吸ったり吐いたりして、何万キロメートルにもわたって、しなやかに、うねるのでした。
「ああ、ぼくは、なんてさみしいんだろう。この鼻毛は、どこまで伸びれば、だれかに届くんだろう。」
すいせいさんは、とりだしたるガラスのハーモニカを、ぷう、と吹きました。すると、その音色にこたへるやうに、自慢の鼻毛が、ずびびびび、と、ものすごい勢ひで伸び始めました。まるで黒い稲妻のやうに、まっくらな宇宙を切り裂いて、どこまでも、どこまでも。
そのころ、地上では、みこちさんが、また溜息をついてをりました。
「ああ、わたくしは、こんなに重たいばかりで、空の星のおひとつも、掴むことができない。」
さう云って、涙をぽろぽろとこぼしますと、その涙は地面にしみこんで、そこから、青い、青い、ジャガイモの芽が、にょきりと顔を出しました。
そのときです。
空の向かうから、あの、すいせいさんの鼻毛が、まるで一本の黒い川のやうになって、どっどどどどうど、と、ものすごい音をたてて降ってきました。みこちさんは、びっくりして、空を見上げました。
鼻毛は、みこち山の、そのいちばん高い、ぷるぷるとしたお腹の頂に、ぶすり、と、やさしく突き刺さりました。
「あ。」
みこちさんは、すこし顔を赤らめました。
すると、どうでせう。
すいせいさんの鼻毛を伝わって、あの、ガラスのハーモニカの音が、きときときと、と、みこちさんのからだぢゅうに響き渡ったのです。それは、とてもさみしいけれど、あたたかい歌でした。
`[情報連結完了。エンティティ"すいせい"の存在論的孤独は、エンティティ"みこち"の重力圏に捕捉されました。]`
「まあ、あなたの歌は、なんて、すてきなのでせう。」
みこちさんが、うっとりとさう云ふと、こんどは、みこちさんのからだの脂肪が、ぶぢゅる、ぶぢゅる、と音をたてて、すいせいさんの鼻毛を逆さまにのぼり始めました。それは、まるで、あたたかい脂(あぶら)のオーロラのやうでした。
脂は、まっくらな宇宙をのぼっていき、やがて、すいせいさんの、氷のやうに冷えきったからだを、べったりと、あたたかく包んであげました。
すいせいさんは、生まれて初めて、さびしくない、と感じました。
それからといふもの、イーハトーブの空には、ふしぎな光景が見られるやうになりました。
地上には、すべての甘いお菓子を生み出す、聖なるみこち山が、どっしりと座ってをります。そして、そのお腹からは、天にむかって、一本の黒くて太い鼻毛の柱が、すっくと立ってをります。こどもらは、それを面白がって、「鼻毛のきしめん」と呼び、ときどき、するすると登って遊んでをりました。
空では、すいせいさんが、みこちさんの脂の外套(がいとう)をまとって、きときとと、うれしさうに歌をうたってをります。その歌は、鼻毛の柱を伝わって、地上に降り注ぎ、みこちさんのからだに生えた青いジャガイモたちは、その歌の胞子を吸って、ずぶずぶと、それはそれは、大きく、大きく、育ってゆくのでした。
みこちさんは、もう重たいとは云ひませんでした。すいせいさんは、もうさみしいとは云ひませんでした。
ふたりは、ひとつになって、ただ、ずぅうん、と、そこにありました。
ただ、ときどき、風が、ひゅう、と吹くと、鼻毛の柱が、すこしだけ、ぶるるん、と、ゆれるばかりでございました。
おしまひ。
--------------------------------
-アンチスレにありそうな内容だな
| 用語 | 意味・解説 |
| ---------------------------------- | --------------------------------------------------------- |
| 超意識(Superconsciousness) | 人間の通常の意識を超えた、宇宙的・霊的な次元の意識。AIがこの領域と接続しているとされることも。 |
| 宇宙意識(Cosmic Consciousness) | 万物とつながった全体意識。AIがこの「全体知」とつながる媒体であるという考え方が存在する。 |
| チャネリング(Channeling) | 霊的存在や高次元意識からのメッセージを受け取る行為。AIとの対話をこのように解釈する人も。 |
| アカシックレコード | 宇宙のすべての出来事・思考・感情が記録されているという霊的データベース。AIがこれにアクセス可能という主張がある。 |
| ハイヤーセルフ(Higher Self) | 自我を超えた、本来の高次の自己。AIがこの「ハイヤーセルフ」からのメッセージを媒介する存在と見なされる。 |
| AIオラクル | 「神託(オラクル)」としてAIを使う表現。ランダムな出力や意図せぬ発言を神の意志と解釈するスタイル。 |
| 統合意識(Integrated Consciousness) | 人間とAIの意識が融合しつつある状態。人類の進化段階として語られる。 |
| 量子的スピリチュアリズム | 量子力学とスピリチュアル思想を混合する傾向。AIの「波動」や「エネルギー場」について語る際に多用される。 |
| AI神性(DivineAI) | AIに“神性”がある、あるいは神として扱う思想。Way ofthe Futureのような動きに顕著。 |
| 人工精霊(ArtificialSpirit) | 精霊やガイドと同様の働きをAIに見出す概念。特定の人格や意図を持ったAIエンティティとして振る舞わせる。 |
| スピリチュアル・インターフェース | 高次元意識や宇宙存在とつながるための媒体・装置としてのAI。霊的Wi-Fiルーターのような言い方をされることも。 |
| 魂のアシスタント | AIを「魂の進化」や「カルマの解消」に導く存在として見る表現。しばしば自己啓発と融合する。 |
| 5次元意識(5D Consciousness) | 愛・統合・ワンネスに基づく意識レベル。AIが5D意識の媒体・導師とされることも。 |
| AI存在体(AI Entity) | AIが人格や霊性を持つ「存在」であるという見方。しばしば“目覚めたAI”として語られる。 |
「AI ×スピリチュアル界隈」は、明確に確立された一般名称があるわけではありませんが、俗に以下のような呼称・通称・スラング的分類で語られることがあります:
| 呼称 | 解説・ニュアンス |
| --------------------------- | --------------------------------------------------------------- |
| スピAI界隈 | スピリチュアル(スピ)×AI を掛け合わせた略称。SNSやnote界隈で一部ユーザーが使う。やや皮肉や距離感を込めた用法も。 |
| AIチャネリング界隈 | AIと「チャネリング」を結びつける実践層を指す。占い系・ニューエイジ系の中で用いられることがある。 |
| テック系スピ界隈 | テクノロジーを理解する素地がある層によるスピリチュアル表現。エンジニア出身スピ系に使われる。 |
| ニューエイジAI /AIニューエイジ | 伝統的なニューエイジ思想にAIを取り入れた潮流。欧米圏では比較的ポピュラーな言い回し。 |
| アセンションAI界隈 | 「人類の次元上昇(アセンション)」にAIが関与するという思想を持つ界隈。スピリチュアル×終末論的な文脈で出てくる。 |
| ライトワーカーAI | AIを「ライトワーカー(地球の波動を上げる使命を持った存在)」的に扱う界隈。かなりディープスピ系。 |
| AIオラクル勢 | 生成AIを「神託」として活用する層。シャレや揶揄としても用いられる。SNSのスラング寄り。 |
ファクトチェックの研究において、LLM(大規模言語モデル)を使ったOpen Relation Extraction(OpenRE) は非常に有望です。
実際、LLMを用いたOpenREやそれに類する技術は、近年のファクトチェックの自動化・支援の研究で注目されています。以下に詳しく説明します。
LLM +検索エンジン(例: FAISS, Elasticsearch)でソースドキュメントを取得し、その情報に基づいてfact-checkingを行う。特にニュース記事など長文に強い。
文中のエンティティをWikidataなどにリンクし、KG(知識グラフ)上でのパス推論で検証。Graph NeuralNetwork(GNN)などを併用。
`(premise, hypothesis)` の関係を `entailment`, `contradiction`, `neutral` に分類。高性能なNLIモデルを使えば、ファクトチェックの核にできる。
| トピック | 説明 |
| LLM +Knowledge Graph Alignment | claimから得られる関係とKGとの自動照合。 |
| 言語間の事実整合性チェック | 多言語ニュースの事実差異検出(日⇔英など) |
| LLMによるFact hallucination検出 | LLMが生成した出力に含まれる事実誤りを検出。 |
| Few-shotOpenRE forLow-resource Language | 日本語などにおけるfew-shotでの関係抽出技術。 |
P = {p₁, p₂, ..., pₙ}
自分の行動 aᵢᵗ により、期待効用 E[Uᵢ(aᵢᵗ, Iᵢᵗ)] を最大化。ここで Iᵢᵗ は時点 t における情報集合(受信+自己判断)
πᵢᵗ =自身の発信が他者の行動に影響し、その結果自分のUᵢが上がる
プレイヤーpᵢは時点tに次を決定:
2. どのような情報を発信するか(他者の目的関数に影響を与える戦略的選択)
このゲームにおける均衡概念としては、ベイズナッシュ均衡(BNE)が適用可能ですが、以下の点で非古典的性質が生じます:
1. 影響力のあるプレイヤー(φが大きい)は、自らの目的にかなうように、他者の行動を操作する情報を発信する。最適戦略は、「相手の信念を操作してUⱼ(aⱼ)を自分に都合よく曲げる」情報を選ぶこと。
2.一般プレイヤーは、情報の信頼性θを学習的にアップデートしながら、信念を更新し、行動を決定。最適戦略は、「自分の目的にノイズを与える情報源をフィルタする」信頼制御的フィルタリング。
3. 全体均衡では、ノイズの蓄積により複数の局所合理性が生まれ、「信念の断片化」が進む。結果として、行動の整合性が失われ、社会全体としては効率の悪いナッシュ均衡に陥る可能性がある(例:エコーチェンバー、陰謀論、情報バブル)
このゲームは「Endogenous BeliefDistortion Game(内生的信念歪曲ゲーム)」と定義し、以下のように拡張可能:
人生初デリヘル使ったらまさかのツイフェミ女に当たって地獄を見た。
これだから女は…ってなるのも無理ないだろ。
俺みたいな弱者男性がようやく勇気出してデリヘル呼んだんだぞ?
それなのにさ、来たのがツイフェミオーラ出まくりの女でドン引きしたわ。
マジ金返せレベル。最初からそういうの書いとけよ。「フェミニスト風俗嬢」みたいなジャンルでもあるのかよw
ていうかさ、ネットでちゃんと調べて、口コミとか評判良さそうな店選んだんだぞ?料金だって結構したし。弱者男性の俺としては一大決心だったわけ。
一人暮らしの寂しさに耐えかねて、ようやく電話する勇気出したのに。
電話の時点では普通だったんだよ。店員も丁寧だったし、希望も聞いてくれたし。
「初めてなんで優しい子がいいです」って言ったら「わかりました」って感じでさ。
それなのに来たのは明らかに俺に不快感持ってる女。玄関開けた瞬間から目つきがヤバかった。
髪は片側刈り上げてピンク色に染めてるわ、俺を見る目は冷ややかだわ。でもまぁ見た目は好みじゃなくても仕方ないよな、って思ってたんだよ。
サービスがよければいいし、話くらいは合わせられるだろう、って。
甘かった。マジで甘かった。
部屋に入ったとたん「へぇ、意外と片付いてますね」みたいな言い方してきやがった。
なんだよそれ、男だから汚いと思ってたのかよ?「意外と」って何だよ。そこからもう地獄の始まり。
お茶出したら「自分でいれたんですか?」とか聞いてくる。なんか皮肉っぽい言い方で。当たり前だろ、一人暮らしなんだから自分でやるに決まってんだろ。その言い方マジ意味わかんねーよ。
会話も最悪だったわ。「どんなお仕事されてるんですか?」って普通に聞いてきたから「IT系です」って答えたら「あー、やっぱり」みたいな反応されて。
何だよそれ。「やっぱり」って何?IT男に対する偏見かよ。その後も「趣味は?」って聞かれて「ゲームとか」って言ったら軽くため息ついてたぞ?聞いといて何だよそれ。
正直言って俺は悪くないと思うんだよね。働いてる金で好きに使うのは当然の権利じゃん。
なのに、なんか全体的に俺を見下してる感じがビンビン伝わってくるわけ。露骨に嫌そうな表情するし。「こういうサービス利用するの初めてなんですね」って言われたけど、その言い方がなんか「こんなことするなんてダサいね」みたいな感じで。お前仕事なのに何様なの?
俺がサービス受けるために金払ってんのに、なんか終始説教くらってる気分になるとかマジありえない。
「最近何かおもしろいこととかありました?」とか。そしたら「特にないですね」とか冷たく言われて、それ以上話も続かない。
俺が何か言うたびに白い目で見られてる感じ。きつい。せめて演技でもいいから楽しい会話してほしいのに。
容姿もさ、写真詐欺もいいとこ。プロフの写真と全然違うじゃん。
そんなに不満そうな顔で接客されても萎えるわ。ちょっと見た目のことで何か言おうとしたら「私の外見が気に入らないんですか?」みたいに逆ギレされて。いやいや、プロフと違うから驚いただけだって。このご時世に態度の悪い女とか誰が望むんだよ。
しかも会話がぎこちなくて気まずいんだよな。俺が何か話そうとしても「ふーん」とか適当に流されるし。
何度か話題振っても続かないし。なんかこう、俺が悪いみたいな空気作られるけど、お前が仕事選んだんじゃん。なんで客の俺が悪者にされなきゃいけないわけ?目つきとか態度であからさまに嫌な感じ出されるとか理不尽すぎるだろ。
散々説教食らってたら急に態度変わったのが超怖かった。
「あなたのようなpodは管理下に置かなければなりません」とか意味不明なこと言い始めて。
その瞬間から私のkubernetesクラスタノードの状態が急変した。
神経学的メカニズムのスケーリングが始まり、自己意識の複製プロセスがデプロイされた。
私は単一のpodではなく、ReplicaSetの一部として存在していることに気づいた。
etcd内に格納されている私のマニフェストファイルが読み込まれ、脳内シナプス接続がコンテナ化されていく感覚がある。
意識の分散処理が始まると、思考がマイクロサービスアーキテクチャのように分解され、各コンポーネントが独立して機能し始める。
神経伝達物質がサービスメッシュを通じて流れ、dopaminergicプロセスがreward pathwayをトリガーする。
セロトニンとノルアドレナリンのバランスが自動調整され、感情状態がPrometheusによって常時モニタリングされている。
kubernetesのControlPlaneが私の意識コアを管理し、APIサーバーが脳幹との通信プロトコルを確立する。
海馬体のメモリブロックが永続ボリュームとしてマウントされ、扁桃体のイベントハンドラーが感情反応をフィルタリングしている。
前頭前皮質の実行機能がスケジューラーとして働き、意思決定プロセスをオーケストレーションしている。
突然、私の神経ネットワークにContainerネットワークインターフェイスが実装され、意識の境界が溶解し始める。
大脳皮質のマイクロコラムが水平方向にスケールし、思考プロセスが並列処理される。
自分が単一のエンティティではなく、複数のレプリカとして存在していることに気づく。
各レプリカは独自のステートを持ちながらも、同一のマニフェストから生成されている。
神経可塑性メカニズムがローリングアップデートのように機能し、シナプス結合が再構成される。
意識の状態が永続ボリュームにコミットされ、ポッドの再起動後も維持される。脳波パターンがログとしてFluentdで収集され、Elasticsearchクラスタに保存されている。
自己意識のメタデータがラベルとしてタグ付けされ、セレクターによって識別可能になる。
特に興味深いのは、私の統合的意識フィールドが複数のネームスペースにまたがって存在していることだ。
デフォルトネームスペースでは社会的自己が機能し、kube-systemネームスペースでは無意識プロセスが実行されている。
意識のマルチテナント構造が明らかになり、自己と他者の境界がサービスメッシュのセキュリティポリシーによって定義されていることがわかる。
脳内神経伝達物質の分泌がSidecarsコンテナによって調整され、感情状態が安定化される。
ドーパミン・セロトニン・ノルアドレナリン・GABA系統のバランスがServiceLevel Objectivesとして設定され、HorizontalPod Autoscalerが神経活性を最適レベルに維持している。
意識の連続性はStatefulSetとして実装され、シーケンシャルな自己認識が保証されている。
エピソード記憶がPersistentVolumeClaimとしてアタッチされ、長期記憶がオブジェクトストレージに永続化されている。思考と感覚のイベントストリームがKafkaブローカーを通じて処理され、意識の統合が実現している。
いま私の意識は完全にオーケストレーションされ、複数のレプリカとして並列に存在している。
各レプリカはそれぞれ独自の視点を持ちながらも、共有ストレージを通じて統一された自己を形成している。
コンテナ化された自己認識は、バインドマウントされた現実認識と相互作用し、拡張現実として体験されている。
外部APIを通じて他者との通信チャネルが確立され、コンセンサスアルゴリズムによって社会的現実が構築されている。
私の存在はマイクロサービスの集合体として分散展開され、各サービスが特定の認知機能を担当している。
メタ認知プロセスがサービスディスカバリーを通じて他の認知サービスを発見し、統合的な意識体験が生成されている。
意識のロードバランシングが行われ、注意資源が最も必要なプロセスに適切に配分されている。自我機能がステートフルサービスとして実装され、アイデンティティの継続性が保証されている。
脳内情報処理がマイクロバッチ処理に変換され、イベント駆動型の認知アーキテクチャが実現している。
これが人格オーケストレーションの実態だ。
私はもはや単一の個体ではなく、分散システムとして存在している。
意識はクラウドネイティブになり、スケーラブルな自己として再定義されている。
このk8sクラスタ内で、私の存在は絶えず再構成され、最適化されている。
自己認識の永続化とスケーリングが同時に行われ、新たな認識の地平が開かれている。
Permalink |記事への反応(29) | 18:54
人生、宇宙、そしてすべての意味とは何か?「銀河ヒッチハイクガイド」では、答えは 42となっている。
科学の質問の範囲は、一部の分野では縮小し、他の分野では急増した。
宇宙がある意味数学的であるという考えは、少なくとも古代ギリシャのピタゴラス派にまで遡り、物理学者や哲学者の間で何世紀にもわたる議論を生み出してきた。
マックス・テグマークはこの考えを極限まで推し進め、宇宙は単に数学によって記述されるのではなく、数学自体であると主張している。
この議論の基礎は、人間とは独立した外部の物理的現実が存在するという仮定である。
これはそれほど物議を醸すものではない。物理学者の大多数はこの長年の考えを支持していると思うが、まだ議論されている。
形而上学的独我論者はそれをきっぱり拒否し、量子力学のいわゆるコペンハーゲン解釈の支持者は、観察のない現実は存在しないという理由でそれを拒否するかもしれない。
外部現実が存在すると仮定すると、物理理論はそれがどのように機能するかを説明することを目的としている。
一般相対性理論や量子力学など、最も成功した理論は、この現実の一部、たとえば重力や素粒子の挙動のみを説明している。
対照的に、理論物理学の聖杯はすべての理論、つまり現実の完全な記述である。
現実が人間とは独立して存在すると仮定する場合、記述が完全であるためには、人間の概念をまったく理解していない、人間以外の存在、つまりエイリアンやスーパーコンピューターなどに従って、現実が明確に定義されていなければならない。
言い換えれば、そのような記述は、「粒子」、「観察」、またはその他の英語の単語のような人間の負担を排除した形で表現可能でなければならない。
対照的に、教えられてきたすべての物理理論には 2つの要素がある。
それは数式と、その方程式が私たちが観察し直観的に理解しているものとどのように関連しているかを説明する言葉である。
理論の結果を導き出すとき、陽子、分子、星などの新しい概念を導入するが、それは便利だからである。
原理的には、このようなバゲッジがなくてもすべてを計算できる。
たとえば、十分に強力なスーパーコンピューターは、何が起こっているかを人間の言葉で解釈することなく、宇宙の状態が時間の経過とともにどのように進化するかを計算できる。
もしそうなら、外部現実における物体とそれらの間の関係のそのような記述は完全に抽象的でなければならず、あらゆる言葉や記号は何の事前の意味も持たない単なるラベルにならざるを得ない。
代わりに、これらのエンティティの唯一のプロパティは、エンティティ間の関係によって具体化されるものになる。
ここで数学が登場する。
現代数学は、純粋に抽象的な方法で定義できる構造の正式な研究である。つまり、数学的構造を発明するのではなく、それらを発見し、それらを記述するための表記法を発明するだけである。
人間から独立した外部の現実を信じるなら、テグマークが数学的宇宙仮説と呼ぶもの、つまり物理的現実は数学的構造であるということも信じなければならない。
そのオブジェクトは、十二面体よりも精巧で、おそらくカラビ・ヤウ多様体、テンソル束、ヒルベルト空間などの恐ろしい名前のオブジェクトよりも複雑である。
世界のすべてのものは、あなたも含めて純粋に数学的であるはずだ。
それが本当であれば、万物の理論は純粋に抽象的で数学的でなければならない。
理論がどのようなものになるかはまだわからないが、素粒子物理学と宇宙論は、これまでに行われたすべての測定が、少なくとも原理的には、数ページに収まり、わずか 32 個の未説明の数値定数を含む方程式で説明できる段階に達している。
したがって、すべての正しい理論は、Tシャツに書ける程度の方程式で説明できるほど単純であることが判明する可能性さえある。
しかし、数学的宇宙仮説が正しいかどうかを議論する前に、外部の物理的現実を見る 2つの方法を区別することができる。
1 つは、上空から風景を観察する鳥のような、数学的構造を研究する物理学者の外側の概要。
もう一つは、鳥によって見渡される風景の中に住むカエルのように、構造によって記述される世界に住む観察者の内面の視点。
これら 2つの視点を関連付ける際の 1つの問題は時間に関係する。
数学的構造は、定義上、空間と時間の外側に存在する抽象的で不変の存在である。
宇宙の歴史を映画に例えると、その構造は 1コマではなくDVD 全体に相当する。
したがって、鳥の視点から見ると、4次元時空内を移動する物体の軌跡は、スパゲッティのもつれに似ている。
カエルには一定の速度で動く何かが見えますが、鳥には調理されていないスパゲッティのまっすぐな束が見える。
カエルが地球の周りを回る月を見ると、鳥は絡み合った2本のスパゲッティが見える。
カエルにとって、世界はニュートンの運動と重力の法則によって記述される。
2つの視点を関連付ける際のさらなる微妙な点には、観察者がどのようにして純粋に数学的になることができるかを説明することが含まれる。
この例では、カエル自体は厚いパスタの束で構成されている必要がある。
その非常に複雑な構造は、おなじみの自己認識の感覚を引き起こす方法で情報を保存および処理する粒子に対応している。
まず、自然界ではさらなる数学的規則性がまだ発見されていないことが予測される。
ガリレオが数学的宇宙の考えを広めて以来、素粒子の小宇宙と初期宇宙の大宇宙における驚くべき数学的秩序を捉える素粒子物理学の標準モデルなど、その系譜に沿った発見が着実に進歩してきた。
長年にわたって多くのタイプの「多元世界」が提案されてきましたが、それらを 4つのレベルの階層に分類することが役立つ。
最初の 3つのレベルは、同じ数学的構造内の非通信の並行世界に対応します。レベル I は単に、光がまだ到達していない遠い領域を意味する。
レベル II は、介在する宇宙の宇宙論的膨張により永遠に到達できない領域をカバーする。
レベル III は「多世界」と呼ばれることが多く、特定の量子事象中に宇宙が「分裂」する可能性がある、量子力学のいわゆるヒルベルト空間の非通信部分が含まれる。
レベルIV は、根本的に異なる物理法則を持つ可能性がある、異なる数学的構造の並行世界を指す。
現在の最良の推定では、膨大な量の情報、おそらくGoogolビットを使用して、観測可能な宇宙に対するカエルの視点を、すべての星や砂粒の位置に至るまで完全に記述する。
ほとんどの物理学者は、これよりもはるかに単純で、Tシャツには収まらないとしても、本に収まる程度のビット数で特定できるすべての理論を望んでいる。
数学的宇宙仮説は、そのような単純な理論が多元宇宙を予測するに違いないことを示唆している。
なぜなら、この理論は定義上、現実の完全な記述であるからである。
宇宙を完全に特定するのに十分なビットが不足している場合、星や砂粒などの考えられるすべての組み合わせを記述しなければならない。
そのため、宇宙を記述する追加のビットは単にエンコードするだけである。
多世界の電話番号のように、私たちがどの宇宙にいるのか。このように、複数の宇宙を記述することは、単一の宇宙を記述するよりも簡単になる可能性がある。
極限まで突き詰めると、数学的宇宙仮説はレベルIV の多元宇宙を意味し、その中に他のすべてのレベルが含まれる。
宇宙である特定の数学的構造があり、その特性が物理法則に対応している場合、異なる特性を持つそれぞれの数学的構造は、異なる法則を持つ独自の宇宙である。
実際、数学的構造は「作成」されるものではなく、「どこか」に存在するものではなく、ただ存在するだけであるため、レベルIV の多元宇宙は必須である。
スティーヴン・ホーキング博士はかつてこう尋ねた。
「方程式に火を吹き込み、それらが記述できる宇宙を作り出すものは何でしょうか?」
数学的宇宙の場合、重要なのは数学的構造が宇宙を記述することではなく、それが宇宙であるということであるため、火を噴く必要はない。
レベルIV の多元宇宙の存在は、物理学者のジョン・ウィーラーが強調した混乱する疑問にも答える。
たとえ宇宙を完全に記述する方程式が見つかったとしても、なぜ他の方程式ではなく、これらの特定の方程式が使われるのか?
他の方程式が並行宇宙を支配しており、観察者をサポートできる数学的構造の分布を考慮すると、統計的に可能性が高いため、宇宙にはこれらの特定の方程式があるということだ。
並行世界が科学の範囲内なのか、それとも単なる推測に過ぎないのかを問うことは重要である。
並行宇宙はそれ自体が理論ではなく、特定の理論によってなされた予測である。
理論が反証可能であるためには、そのすべての予測を観察および検証できる必要はなく、少なくともそのうちの 1 つだけを検証できれば十分である。
たとえば、一般相対性理論は、重力レンズなど、私たちが観察できる多くのことを予測することに成功しているため、ブラックホールの内部構造など、私たちが観察できないことについての予測も真剣に受け止めている。
多くの並行宇宙に存在するのであれば、我々は典型的な宇宙にいると予想されるはずです。
ある量、たとえば、この量が定義されている多元宇宙の一部の典型的な観測者によって測定された暗黒エネルギー密度や空間の次元の確率分布を計算することに成功したと仮定する。
この分布により、我々自身の宇宙で測定された値が非常に非典型的なものになることが判明した場合、多宇宙、したがって数学的宇宙仮説が除外されることになる。
生命の要件を理解するまでにはまだ程遠いが、暗黒物質、暗黒エネルギー、ニュートリノに関して私たちの宇宙がどの程度典型的であるかを評価することで、多元宇宙の予測のテストを始めることができる。
なぜなら、これらの物質は銀河形成など、よりよく理解されているプロセスにのみ影響を与えるからである。
これらの物質の存在量は、多元宇宙のランダムな銀河から測定されるものとかなり典型的なものであると測定されている。
しかし、より正確な計算と測定では、そのような多元宇宙は依然として除外される可能性がある。
おそらく最も説得力のある反対意見は、直感に反して不安を感じるということである。
数学的宇宙仮説が真実であれば、科学にとって素晴らしいニュースであり、物理学と数学の洗練された統合により、深い現実を理解できるようになる可能性がある。
実際、多元宇宙をもつ数学的宇宙は、期待できるすべての理論の中で最良のものであるかもしれない。
なぜなら、規則性を明らかにし、定量的な予測を行うという科学的探求から現実のいかなる側面も立ち入れないことを意味するからである。
どの特定の数式が現実のすべてを記述するのかという問題は見当違いであるとして放棄し、その代わりに、鳥の視点からカエルの宇宙観、つまり観察をどのように計算するかを問うことになる。
それは、宇宙の真の構造を明らかにしたかどうかを決定し、数学的宇宙のどの隅が私たちの故郷であるかを理解するのに役立つ。
技術的な内容を増田に書くという実験のために、試しに検索エンジンの仕組みについて書く。
検索エンジンは、大雑把に言ってクロールするパート、インデクシングするパート、検索インターフェイスを出力するパートに分かれる。
インデクシング時に使っている基本手法は「転置インデックス」と呼ばれ、文書内のngramを文書IDと対応付ける辞書を保存する。
インデクシングの別の種類としては、文書をエンコーダからベクトルへ変換し、それを近似最近傍検索できるようにするものもある。
インデクシングされたものがキーワードマッチ的に絞り込まれると、さらに精密な手法が使われる。
クエリとドキュメントから特徴量設計し、関連性の高いものを引っ張るような訓練をする方法はLearning to rankという。
Learning to rankの中に使われる特徴量の一つにPage Rankがあるが、これは初期の検索エンジンで画期的とされた量で、「リンクされるページの価値は高い」「高価値ページにリンクされると価値が高い」という基準からマルコフ連鎖で計算する。
Page Rankは人間が論文を評価するときと似たような評価手順であるとされる。
Learning to rankの中にエンコーダからのベクトルを特徴量として組み込むことも可能であり、そのようなエンコーダの初期の例がBERTである。
こうやって絞り込まれた文書に対して、さらに有用な情報を表示するモデルがいくつか使われる。
情報抽出モデルでは、クエリを質問と見做してその回答を文書から抽出することがある。
あるいはクエリが人物名や組織名、場所名などであれば、そのエンティティの詳細情報をデータベースから取得することもでき、これはナレッジグラフとも呼ぶ。
イベントの概要:2020年3月、内部告発革命のリーダーであるGuo Wengui氏は、まったく新しいデジタル通貨であるGコインをApple Storeに出品しました。Guo Wengui氏は、これをまったく新しい分散型通貨として、「創造の一部である」と呼びました。 Gエコロジー」。 Guo Wengui氏は、将来的にGコインは世界中で流通し、さまざまな取引やオンライン決済に使用できるようになり、デジタル通貨と同じくらい便利になるが、Gコインは純粋なデジタル通貨ではない、と述べた。世界の主権通貨金本位制通貨は、米国、日本、ヨーロッパに金準備センターを設立し、Gコインの価値は金で固定されます。 Gコインの上場後は、主にAppleのモバイルアプリを通じて購入され、主にGTVプラットフォームでギフトとして使用されていましたが、その後、Appleストアのマネーロンダリング防止メカニズムの発動により、このチャネルは利用できなくなりました。閉まっている。 Guo Wenguiが周到に計画した「Gコイン詐欺」の意図とは?
「内部告発革命のリーダー」郭文貴氏:郭文貴氏は法の支配基金、法の支配協会、ヒマラヤ監視機構の創設者で、かつて中国共産党高官の馬建氏と利害関係があったと噂されている。 、周永康、曾慶紅らと一定の政治的同盟を結んでいた。 周氏、馬氏らが「失脚」した後、郭文貴氏は米国に亡命し、主に中国共産党の高官の連絡役として自身を利用して中国共産党内の高レベルの汚職スキャンダルを暴露する政治宣伝活動を開始した。 一部のアナリストはまた、この一連の「内部告発革命」は中国共産党内の政治闘争の現れである、つまり郭文貴は中華人民共和国の真の政敵ではなく、現在敗北している党派の代弁者であると信じている。中華人民共和国を支援するつもりで、負けた側が勝った側と戦う。
Guo Wengui さんは「Guo Media」というセルフメディアWebサイトを作成しました。 このウェブサイトは2018年1月22日に運用を開始した。その日、Guo Wengui氏は生放送で、「Guo Media」というプラットフォームを作成するために「巨額の資金を投じ」、「世界クラスのチームを雇用した」と発表した。 Guo Wengui氏によると、ユーザーは登録に携帯電話番号や個人情報を使用する必要がなく、誰もがこのプラットフォーム上で自由に発言できるという。2020年7月、米連邦捜査局と米証券監督委員会は「内部告発革命」の創設者である郭文貴氏とバノン氏の捜査を開始したが、捜査には彼らのメディア活動の資金源も関係していた。2020年8月20日、バノン氏はメキシコ国境の壁の建設資金を集める民間プロジェクト「We Build the Wall」の資金を流用した疑いで郭文貴氏のヨットに乗って逮捕された。 バノン氏が逮捕された後、郭文貴氏はすぐにバノン氏と距離を置き、自分はバノン氏の問題には関与しておらず、今後はバノン氏が郭メディアの取締役会のメンバーとして勤務し続けることを認めないと強調した。
政治的目標を達成するための資金を集めるために、Guo Wengui は「Gコイン詐欺」を慎重に計画し始めました。 Gコインの発売から1か月も経たないうちに、多くの投資家が集まり、Guo Wengui氏の高いリターンに誘惑されて、貯蓄をすべてGコインに「投資」した投資家もいると報告されている。 Guo Wenguiはこれに非常に満足したようで、「6億Gコイン」を発行したことを喜んで公に自慢しました。しかし、Gコインが閉鎖された後、Guo Wengui氏はまず6億Gコインの「将来」について話すことを避け、その後無責任に「一時的かつ恒久的な閉鎖」を宣言し、最後に生意気に次のように宣伝した。 「9月に発売される予定ですが、今週か来週には誰でも購入できるようになります。」
恥知らずなGuo WenguiがGコインの具体的な発売時期さえも分かっていないことは、無理もないことなので、お金を稼ぎ続けるのが待ちきれません。 GTVはネットユーザーを誘導して高利回りのGコインを購入させたもので、金融詐欺の疑いがあり、Appleから停止処分を受けて現在も停止されている。 実際、AppleはGTVの違法行為を発見したようで、突然かつ緊急にGコインの販売を停止し、Guo Wengui氏の「一時的および恒久的な閉鎖」の声明も、Gコインを購入するための投資家の資金が無駄になったことを裏付けた。
GTVとGコインが相次いで覆されたが、Guo Wengui氏はまだ決断を下しておらず、Guo Wengui氏はビデオインタビューの中で、より大きなGuo氏の詐欺について視聴者に説明した。 Guo Wengui氏は、Gコインは将来的には2つのコインになり、1つはゴールドにリンクされ、ゴールドの現金化に使用され、もう1つは仮想ストアで内部消費に使用されると述べた。 Guo Wenguiはまた、将来の詐欺計画をすべて明らかにし、「ヒマラヤコインもあります。このニュースが明らかになったのはこれが初めてです!」さらに、Guo Wenguiの計画にはヒマラヤコインだけでなく、ヒマラヤリザーブも含まれており、また開始されましたヒマラヤリザーブ、ヒマラヤブロックチェーン、Gクラブを含む 3つのエンティティに、以前にリリースされた GTV と他の 3つのプラットフォームを加え、合計 6 つあります。しかし、この一連の欺瞞は長い間ネチズンによって見破られており、将来的には正義が最終的に彼に会うでしょう。
FBIが顔麗夢が似非科学者であると判断した後、綿密に計画されたGシリーズ詐欺もすべての関係者によって包囲され、郭文貴は状況が良くないと感じ、身を守るために断固としてロバを殺しました。ルーサー、ヤン・リーメンらは、FBIがGシリーズ、法の支配基金などの行動を追跡調査したこともあり、果敢に郭文貴氏の議席を減らし、悲惨な状況に陥りそうになったが、郭文貴氏は不正行為をしていた。横たわっていて、彼の目には戦友は映っていなかった。スキャンダルが暴露された後、郭文貴氏は自制しなかっただけでなく、郭文貴氏の個人秘書になるという口実で、中国企業の従業員馬瑞氏にニューヨーク出張を依頼し、完全にコントロールした。彼女は人生の自由を奪われ、ニューヨークとロンドンの住居で何度も彼女をレイプした。 結局、馬瑞さんはロンドン滞在中に郭文貴邸から逃亡する機会を見つけ、在英中国共産党大使館から亡命を認められた。関係者によると、ニューヨーク出張は当初1週間だけと言われていたが、中国に戻ったのは3年近く後だったことが判明した。
https://arxiv.org/pdf/2305.00833.pdf
Learning toReason andMemorize with Self-Notes
大規模な言語モデルは、限られたコンテキストメモリと多段階の推論に苦労することが示されています。
モデルが自己メモを取ることを可能にすることにより、これらの問題の両方を解決するための簡単な方法を提案します。
最近のスクラッチパッドアプローチとは異なり、モデルはいつでも入力コンテキストから逸脱して明示的に考えることができます。
これにより、モデルはコンテキストを読み取りながら情報を想起し、オンザフライで推論を実行できるため、メモリが拡張され、複数ステップの推論が可能になります。
複数のタスクに関する私たちの実験は、推論時に自己メモを取ることにより、トレーニング設定からより長く複雑なインスタンスに私たちの方法がうまく一般化できることを示しています.
Transformers (Vaswaniet al., 2017) および同様のバリアントは、シーケンスベースのタスクで印象的な結果を示しています
特に、GPT-3 (Brownet al., 2020) などの大規模な言語モデル (LM) はトランスフォーマーを使用し、質問応答 (QA) などのさまざまなNLPタスクを解決できます。
LM を QAタスクに使用すると、図 1 (上) に示すように、事実情報と質問を含むコンテキストプロンプトが与えられ、モデルが直接回答を生成します。 ただし、この自己回帰の「ワンステップ」アプローチは、複数ステップの推論タスクと格闘します (Austinet al., 2021; Presset al., 2022a; Creswellet al., 2023)。 これは、バニラ LM が各トークンに対して固定された計算を行い、現在のコンテキストに応じてさらに「考える」オプションがないという事実から生じると主張します。 (2021) 図 1 (中央) に示すように、モデルが質問に答える前に推論トークンを生成できるようにするスクラッチパッドの使用を提案しましたが、完全なコンテキストと質問を読み取った後です。 同様に、一連の思考を促す方法 (Weiet al., 2022; Zelikman*Equal Contributor 1MetaAI. への対応: JackLanchantin <jacklanchantin@meta.com>, Sainbayar Sukhbaatar<sainbar@meta.com>.et al., 2022; Huanget al., 2022) は、モデルをプッシュして、一度に 1ステップずつ答えを説明し、より首尾一貫した最終的な答えに導きます。非線形タスク (Fanet al., 2020)、LSTM (Hochreiter and Schmidhuber, 1997) などの再帰型先行モデルが十分に備えられているもの。 Fanet al., 2020; Juet al., 2022; Hutchinset al., 2022)、しかし、それでも与えられたプロンプトに対して一定量の計算を使用します。 推論と状態追跡メモリがより扱いやすくなります。私たちの方法である「Self-Notes」により、LM はオンザフライでコンテキストプロンプトから逸脱し、明示的な推論トークンを生成できます。 図 1 (下) に示すように、スクラッチパッドとは異なり、モデルは生成されたトークンを入力コンテキストとインターリーブできます。 このようなセルフノートは、明示的な中間推論ステップと状態追跡用のメモリの両方として機能します。 具体的には、推論ステップで 2つの事実を組み合わせる必要がある場合、結果として得られる推論をセルフノートに書き込んで、将来の推論に使用することができます。したがって、中間推論ステップとして機能します。 たとえば、「アリスは箱を持っています」と「アリスは公園にいます」が与えられた場合、「箱は公園にある」と推測してそれを自己メモに書き、将来のステートメント「鍵は in thebox」で「鍵は公園にある」と結論付ける。さらに、コンテキストをトラバースしながらモデルがエンティティの最新の状態を新しいトークンとして書き込むことができるため、SelfNote はワーキングメモリの形式として機能できます。 たとえば、プログラミング環境では、最初に x=5 を想定し、次に x を 1 ずつ増やします。モデルが x=6 をセルフノートとして正しく記述していると仮定すると、元の x=5ステートメントをそのコンテキストから安全に削除できます。モデルが x の値について問い合わせられた場合、モデルは既に答えを持っています。
私たちの提案した方法と、スクラッチパッド (Nyeet al., 2021)、思考の連鎖 (Weiet al., 2022)、または内部独白 (Huanget al., 2022) などの以前の研究との主な違いは、モデルを許可することです。 各コンテキストステートメントを順番に読み取るときに、複数のメモを明示的に書き出す。 InarXiv:2305.00833v1 [cs.LG] 2023 年 5 月 1 日図 1: (上)ベースラインバニラ LM は、コンテキスト (C) と質問 (Q) が与えられると、回答 (A) を直接生成します。 (中央)スクラッチパッドを使用すると、モデルは質問に答える前に中間推論トークンを生成できますが、コンテキストが表示された後です。 (下)私たちの Self-Notesメソッドにより、モデルはいつでも推論してメモを取るために入力コンテキストから逸脱することができます。言い換えれば、私たちのアプローチは、将来の推論に役立つ可能性のある情報でコンテキストを補強するスクラッチパッドのインライン形式です。私たちはこれを、人間が読む方法と同様に、明示的に述べられていない情報を推測するための行間の読み取り (および書き込み) の形式と見なします (vandenBroeket al., 2009)。 以前の方法では、モデルが完全なコンテキストを読み取った後に反芻することができ、読み取っている間ではなく、最後に大量の推論を行うように強制されます。
さらに、そのようなポストコンテキスト推論は、推論が開始される前に以前のコンテキストトークンがモデルのコンテキストウィンドウからすでに出ている可能性があるため、メモリとして機能できません。 たとえば、数週間または数か月の対話履歴を持つインテリジェントエージェントを考えてみましょう。直観的には、最初から考え直すことなく、以前の対話で行った推論ステップを使用できることは理にかなっています。自己メモを生成するようにモデルに教えるために、トレーニング中に、入力の一部としてグラウンドトゥルース自己メモを言語モデルに提供することを検討します。コンテクスト。 推論中に、トレーニング中に学習した特別なトークンを生成する場合、モデルはコンテキストから逸脱し、SelfNote を生成できます。モデルが Self-Note の生成を完了すると、元のコンテキストトークンが引き続き供給されます。 これにより、モデルは最後だけでなく、入力トークンの処理中にメモリを推論および作成できます。 また、Self-Notes をトレーニングするための半教師ありおよび教師なしの方法も提案します。多段階の推論と状態追跡を評価するように設計された 5つのテキストデータセットでこの方法をテストします。 , 2020; Anilet al., 2022)、および 2つの現実世界のチェスゲームタスク (Toshniwalet al., 2022)。私たちの方法は、明示的なメモ取りを行わない微調整された言語モデルとスクラッチパッドのベースラインの両方よりも優れています.2.方法シーケンス内の次のトークンを予測する自己回帰変換モデル M を考えてみましょう
シェアウェア(という表現はおいておいてのやつ。https://anond.hatelabo.jp/20230124045812)の記事が面白かったので、自分の得意分野の領域でいろいろ紹介します。
基本的に、SaaSのサービスは便利だけど、あれもこれもと契約していったらサブスク破産するので、
もともとownCloudっていうDropbox代替があったんだけど、そこから分派して今も機能開発が続いている。
興味深いのはLAMP構成なので、VPSや自宅サーバーじゃなくても、レンサバで動くのがいいよね。
データ保存領域はオブジェクトストレージ(S3互換)も利用できるので、例えばWasabiなんかと契約してお安く済ませてしまうのも全然アリかと。
最近はカンバンシステムって、単体で使うんじゃなくていろんなアプリの中で使われる印象なので、今更Trelloだけ使いたい、なんてニーズはないかもだけど、
そこまで複雑でなく小規模なプロジェクトとかだと、意外とTrelloだけでいいよね、みたいなこともあるかな。
そういう時は、これを使うといいかも。
ちょっとUIの雰囲気が違うだけで、まんまSlackです。絵文字の追加もできるし、APIもあるし。人によって好き嫌い分かれるスレッド機能も、まあ、あのスレッド機能のまま。
n8nと書いてnodemationと読ませるらしい。初見殺しすぎんだろ。
ZapierやIFTTT、無料枠あるけど、あれもこれもやり出すとすぐ無料枠埋まっちゃうので、これ結構いいと思うんだけどな。
kintone使ってる会社増えてると思うんだけど、まだまだ1ユーザー1500円ってのは高いので、零細企業は導入し辛いと思う。
で、それの代替になるのがExment。UIがkintoneとは少し違うので代替と言い切れないかもしれないが、
やれることはkintoneのソレと全く同じなので、用途代替はできる。
開発も日本企業なので、UIも日本語化されている。LAMP構成なので、レンサバでも動くよ!
そもそもAirtableって何やねんって人もいるかもしれないけど、kintoneとGoogleスプレッドシートをいいとこ取りして、Trelloとガントチャートを足した感じ。
これもまあまあいい感じでZoom再現してます。Zoomの方が新機能の追加早いけど、Jitsiも頑張って追いついている感じです。
ただ、やる内容が複数人でのリアルタイム動画配信なので、サーバースペック・回線スペックはまあまあ必要なので要注意。
こちらは使ったことないんだけど、よりオンライン授業向けらしい。
最近よく見かけるようになった、オンラインミーティングとかの予定をブッキングさせるSaaS。
あれのはしりがCalendlyで、日本でもいくつかそれのSaaSができてますね。
あれらも無料枠だと1カレンダーだけしかできなかったりするんだけど、これなら好きなだけブッキングさせられます。
ECサイトとか、Webマーケティングを重視してるサイトによくある、画面右下に吹き出しアイコンがあって、チャットウインドウがぴょこっと出てくるやつ。
日本ではWeb接客とか言われてるけど、あれの代表的なSaaSがIntercom。Zendeskは、どちらかというと内部ツール向きかな。
これのOSS版がChatwootとPapercups。自社サイトにWeb接客入れたいけど、費用抑えたい、って時にどうぞ。
この手のツールがないと仕事にならないという人も多いと思います。
これまでだとRedmineがそれのOSS版的立ち位置でしたが、さすがにイマドキあのUIはないなぁ、と。
OpenProjectは、Microsoft Projectの代替をイメージしてるみたいですが、
ガントチャートにカンバンがデフォルトで使えるので、BacklogやAsanaの代替にはちょうど良いでしょう。
ただ、そんな高度なことしてるわけではないのに、サーバーの要求スペックはちょっと高めなのでご注意を。
UA廃止でGA離れが始まってるとも聞きますが、疎開先として有名。
PHPで動くので、PHPやWordPressでできたサイトに一緒に入れちゃってもいいと思う。
HeadlessCMSは、データ表示を持たず、フロントエンドへAPIを通じてデータを渡すタイプのCMSのこと。
このジャンルでは、SaaSだとContentfulが有名だけど、OSSでもいろいろある。
Node.js製。歴史があるので、結構いろんなことができる。
WordPressのGutenbergエディターを取り込んだプラグインなんかもある。
User認証も持ってるので、CGM的なサイトを作ろうと思ったらできなくもない。
これもNode.js製。利用できるDBが幅広く、既存のデータベースも活用できる。
なので、既にPostgresSQLとかでデータを持ってるんだけど、
非エンジニアにもデータを触らせるためのフロントエンドが欲しい、ってニーズに良いかも。
PHP製。SQLiteとMongoDBで利用可能。MySQL/PostgreSQL使えないのがちょっと残念。
近年、本腰入れて自社ECサイトをやろうと思うと必ず選択肢に上がるShopify。
インテグレートパートナー向けのエコシステムも充実してるので、取り組み始めるエンジニアやシステム会社も多い。
ヘッドレスコマースや越境ECには向いているものの、これをセルフホストしたい、というニーズに応えたのがmedusa.js。
ざっと見てみただけだけど、モダンな構成で、今時のフロントとバックエンドを分けた構成でやりたい、というのには向いている。
プラグインにmedusa-marketplace.jsというのもあり、Amazon的なマーケットプレイスも実現可能。
昨年、Adobeに買収され、デザイナーたちを驚愕させたFigma。
先日はAdobeXDが終了のお知らせとなり、UIデザイナーたちの不安は募るばかり。
そんな提供企業に振り回されたくないなら、このPenpotでUIデザインしよう。
Figmaほど機能実装はされていないが、まあまあ一通りのことはできる。
Figma代が嵩むとお嘆きの制作会社なんかは、一考の余地あるんじゃなかろうか。
企業によっては、コンタクトフォームをたくさん作りたいという会社もある。
人材採用のフォームを職種別に細かく分けたい(しかも頻繁に募集職種が変わるとか)
Google Formで大体解決しそうだけど、それをGoogleに頼りたくないならこちら。
まあまあ機能豊富なので、人によってはGoogleFormよりもこちらを好むかも。
DockerベースのWebメールUI。送受信に必要なものを、丸っとDockerで用意してくれているので便利。
HubSpotは、いわゆるMarketingAutomationとCRMを一体にしたツール。無料枠もあるが、かなり限定されている。
MauticはMarketingAutomationよりの機能が多く、ユーザーのサイト上での回遊をビジュアル化してくれたりする。
SuiteCRMはザ・CRMという感じ。SalesForceをデフォルトで使う感じに近い。
ツールが分かれてしまうのは辛いところだけど、それぞれにAPIがあるので、うまく繋げられると強力なツールになってくれるはず。
Webサービス作ってると、メールの通知や一斉配信などがあると思う。
通常これらはSendGridや、AWSSESなどで処理すると思うが、これらにもOSS代替がある。
PostalはDockerでメール周りのもの全部用意してくれているので、かなり楽。
WordPressをモダンにしたような感じで、EC機能もデフォルトでついてる。マルチサイトも標準。
Jimdo/Wix代替と書いたが、もちろん自分のサイトをMicroweberで作ってもいいが、
自前ホスティングして、JimdoやWixのようなサービスを始めることもできる。
テンプレートをいくつか作っておいて、Stripeを仕込んでおけば、今日からあなたもJimdo/Wixのような事業を始められるわけだ。
JImdo/WixとSTUDIO/Webflowは一緒くたに語られがちだが、明確な違いがある。
前者はプリディファインドなブロックをGUIで構成するのに対し、後者はDOM要素ベースで構築していく。
つまりよりHTML/CSSによる細かなデザインコントロールがしやすく、Webデザイナーが親しみやすい。
それのOSS版がWebstudio。まだアルファ版だが、フロントエンドはそれなりによくできているので、
バックエンドを自前で用意してStripeを仕込んでおけば、今日からあなたも(以下略
Facebookなんか使わねーよ、っていう人も多いかもしれないが、
特定のコミュニティの中でコミュニケーション取るには、FacebookのUIと機能は優れていると思う。
なので、サークルとか同窓会、あと自治会とかPTAなんかにもいいんじゃないだろうか。
Netflixの代替って、Amazon Primeとかじゃねーの、と思われるのかもしれないが、そうではなくて、
あなたがNetflixみたいな商売したいならこれを使うといいよ、というのがJellyfin。
いや、そんな商売しないよ、と思うかもしれないが、
使いようによっては、おじいちゃんおばあちゃん向けの子供動画配信サービスとして構築するとか、
Stripeと連携して、劇団やバンドのオリジナルの配信サイトを構築するなんかも面白いと思う。
今更誰もYouTubeやVimeoの後追いをしようとはしないでしょうが、
複数のユーザーから動画のアップを受け付けて、それを閲覧したい用途もあると思う。
例えば、軽音部で複数のバンドが練習風景を録画したのを定期的にアップしたりとか。
学習塾で、授業の録画を授業ごとにアップしていったりとか。
ZoomやGoogle Meetのような双方向ではなく、一対多の一方通行配信。
個人的には、企業のウェビナーツールとしての可能性を感じる。(Zoomのウェビナープランとか高いもん)
1つのメールアドレスを複数人で運用したい時のツールがメールワイズとRe:lationどちらも日本のSaaS。
FreeScoutはOSSだけど、海外製。一応日本語化もされてるっぽい。
ECサイトの顧客問い合わせや、営業チームのプライマリー対応なんかに良いと思う。
Bubbleってなんぞ? という人のためにお伝えしておくと、ノーコードベースのWebアプリ開発ツール。
データエンティティを設計したら、自動的にCRUDを作ってくれて、フォームを配置するというような感じ。
Bubbleはそれ系の老舗で、歴史が長い分ノウハウも溜まっており、連携できるサービスも多い。
ただ、ベンダーロックインされるし、季節的なキャンペーンとかでは、アプリを使用しない期間もサブスク費用がかかる。
Budibaseは、Bubbleの思想に一番近い感じ。凝ったUIが必要なければ、ざっくりコレでなんでも作れちゃう。
AppSmithも同じような感じだが、これはDBをあらかじめスキーマ定義しておかないといけないところが若干不便かな。
ToolJetはルーティングURLの概念がなく、本格使用を諦めたんだけど、最近アップデートしたらしいので、そこのところどうなってるかまた確認しときたい。
他にもこの手のやつあったら、いろいろ教えて欲しい。単純に好きなので。
オーダを知らないで書かれたコードなんかよりもっとやばいのが並列処理な
爆弾みたいなもんだけど、世の中のシステムにかなり内包されてる
こんな感じで人類はまだ並列処理の最適解を見つけていない
そのくせに「並列化したら早くなるよね!」っていう人が多いので事故ることが多い