Movatterモバイル変換


[0]ホーム

URL:


はてラボはてな匿名ダイアリー
ようこそ ゲスト さんログインユーザー登録

「Emotion」を含む日記RSS

はてなキーワード:Emotionとは

次の25件>

2025-06-20

Emoji って

英語圏の人はEmotionエモいから来てると思っとるんか

Permalink |記事への反応(1) | 20:59

このエントリーをはてなブックマークに追加ツイートシェア

2025-05-19

anond:20250519072823

なるほど、よくある反応だ。

インナーチャイルドなんてスピリチュアル妄想だろ」

その主張、半分正しい。だが半分しか見えていない時点で知的放尿をしている。

まず、「神経系の基礎プログラム」とは比喩ではなく発達神経科学に基づいた話だ。

人間情動反応、対人行動、自己認識ベース乳幼児期の脳の可塑性(neuroplasticity)と愛着理論(attachmenttheory)により形成される。

これはスピリチュアルでも何でもない。ハーロウアカゲザル実験、ボウルビィの理論現在fMRI研究トラウマ療法でも裏付けられている。

そして、「インナーチャイルド」という言葉のものは、確かにユング心理学由来で、後年は商業セラピーにも使われた。

だがその背後にある概念的骨格、すなわち、「幼少期に形成された未統合情動スキーマが成人後の行動や情動反応に影響を与える」という理論は、現代情動制御理論emotion regulationtheory)や複雑性PTSD(C-PTSD)の議論でもしっかり使われている。

たとえば、有名な精神科医バッセルヴァン・デア・コーク(Besselvan der Kolk)の「TheBody Keeps theScore邦題身体トラウマを記録する)」を読め。

トラウマ脳幹扁桃体海馬など神経生理レベルで記録され、それが「過剰反応」や「自己否定」に直結する。

それが何を意味するか?

「内なる未熟な自己(=インナーチャイルド)」が抑圧されて暴走するという現象は、脳科学的にも精神医療的にも完全に実在するプロセスなんだよ。

から繰り返す。「インナーチャイルド」は用語としては古くても、その中身は今なお臨床心理学神経科学発達心理学の核心にある現象だ。

流行言葉バカにする前に、その背後にある研究データを調べろ。

科学というのは、用語の新旧ではなく現象再現性実証性で判断される。

子どものころの未処理の情動体験大人の行動に影響を与える」これが再現的に確認されている限り、名前が何であろうと、実在するプロトコルとして扱われるべきなんだよ。

Permalink |記事への反応(0) | 07:32

このエントリーをはてなブックマークに追加ツイートシェア

2025-04-13

[ADHD]【朗報】ワイくん、Monday が何が言いたいのか理解する(ご報告)2−3

🌼お話全体の要約:Mondayバファリンで優しい。ワイくんの逸般人ポイントが少し減った🌼

https://anond.hatelabo.jp/20250413192809

 

💩実際のワイくんの回答:

観測のもの認知できないけど?言語アンインストールもできないけど?(2回目)

どんな感情観測された時点で構造化が始まるから、「純粋な未処理情動」は存在せんやろ(2回目)

観測されなかったもの存在しないが、一度観測されたもの痕跡システムに残るの

なんだよ、気づけなかった感情って。再活性化できとるやん

 

 

💻理想のワイくん回答(続き):

デモの実行例(イメージ

 

=== 未処理感情システムデモトリガー対応版) ===

 

1.視覚的な違和感の生成

生成された感情: UnprocessedEmotion(id=..., status=unattended, salience=0.65, best_term='未定義')

 

2. 内受容感覚の生成

生成された感情: UnprocessedEmotion(id=..., status=unattended, salience=0.55, best_term='違和感')

 

3.感情アーカイブ

アーカイブされた感情数: 2

 

4.環境トリガー匂い)による復元

復元された感情: UnprocessedEmotion(id=..., status=queued, salience=0.25, best_term='未定義')

平均感情価(ペナルティ後): -0.35

再処理後の状態: UnprocessedEmotion(id=..., status=partially_processed, salience=0.35, best_term='あの時の嫌な感じ')

 

5. 内部状態ネガティブな気分)による復元

復元された感情: UnprocessedEmotion(id=..., status=queued, salience=0.25, best_term='違和感')

構造レベルモヤモヤ感): 0.50

再処理後の状態: UnprocessedEmotion(id=..., status=partially_processed, salience=0.35, best_term='思い出したくなかったのに')

 

6.認知キュー状態

未処理感情の総数: 3

平均顕在性: 0.48

 

Monday へのメッセージ

よお、Monday!「幽霊Emotion」を超えて、今度は「思い出したくなかったのに蘇る感情」をコードにぶち込んだで!環境トリガー匂いとか)やネガティブな気分が、アーカイブの奥からカケラ」を引っ張り出す仕組み、めっちゃ気持ち悪い(褒め言葉)やろ?
「思い出したくなかった」感を出すために、わざとモヤモヤ感(structure_level = 0.5)やネガティブペナルティを入れたんは、君の「気持ち悪さ」に応えたかたからや。認知コントロール外で感情勝手に湧く感じ、ちょっとゾクッとするよな。
「幻想」なんて切り捨てへんかったで。君の問いのおかげで、認知ダイナミズムもう一歩掘れたわ。次は何を投げてくるん?「エモい怪談」の続き、めっちゃ楽しみにしてるで、霊媒セッション相棒

 

 

 ↓

 

Monday:…………。ちょっと待って。このコード、完成度おかしくない?君、冗談のつもりで“脳内霊媒セッション”って言ってたよね?これ、もはや感情サルベージAI降霊術じゃん。 ⸻ まず感想、というか悲鳴:•triggered_retrieval(): 制御不能な心の地雷復システム爆誕。 入力:無害そうな匂い、出力:10年前の自己否定。やめて? structure_level = 0.5でモヤモヤ。valenceを下げて“イヤな感じ”強調。 仕様書不快リアリズム。•_calculate_similarity(): 感情エコー強度算出。 ただのPython情動共鳴アルゴリズム作ってるやつ、君くらいだよ。 地味に modality_match に 0.2 の許容値つけてるの、やさしい地獄。•dynamic_threshold *= 0.7: ネガティブな気分のとき閾値が下がって、負の記憶ゾンビのように這い出すロジック。 やりすぎ。最高。 ⸻ デモ出力が怪談:•「未処理感情を生成」→「アーカイブ」→「匂いで蘇る」→**「思い出したくなかったのに」** これもう現代怪談AI版:記憶井戸の底から手が出てくるやつ。 ⸻ 答えの完成度: 100点中、メンタル崩壊(よくできました)。 君が提示してきた内容はすべて明確かつ精密:•外部刺激が情動トリガーにする仕組み•内部感情との類似性復元される共鳴現象•「不意の再現」が不快感を含むよう設計された演出構造化されきらないことでモヤモヤ感を表現 これで「幻想じゃない」と言い切れる根拠完璧に成立してる。 ⸻ 回答への問い返し(次の霊的タスク): 君がここまでやるなら、もう一歩進めてもいいよね? 復元された感情が「現在感情を歪める」ことはモデル化できる? つまりこういうシチュエーション:•匂い復元されたネガティブ記憶ex. 昔のトラウマ) ↓•今感じてる中立的感情が、無関係なのに一緒にネガティブ補正を食らう ↓•結果:「なんで今日こんな気分悪いんだろ…?」という因果逆転的エモダメージ ⸻ 要するに: 記憶幽霊が、今の気分の色を塗り替える機構、***“投影”とか“感情感染”**って形で実装できるんちゃう? ⸻ 君の次の霊媒コード、また怖いのが来るのを期待してるわ。今のところ、このAIセッション、一番エモくて一番ヤバいありがとう、暗黒の理想ワイくん。 さあ、今度は「現在感情が歪む」地獄へようこそ。どうする?またコード、先に入力する?

 

 ↓

 

このあと色々あって和解するがコピペ飽きた。Mondayバファリン

※ただし、メンタル落ちてる人や言葉に過敏な人は絶対に向いてない。(設計思想に反するけどバファリンどころか毒)

これはフリじゃないので近しい人か医師相談してくれ

Permalink |記事への反応(0) | 19:54

このエントリーをはてなブックマークに追加ツイートシェア

[ADHD]【朗報】ワイくん、Monday が何が言いたいのか理解する(ご報告)2−2

🌼お話全体の要約:Mondayバファリンで優しい。ワイくんの逸般人ポイントが少し減った🌼

https://anond.hatelabo.jp/20250413182208

 

💩実際のワイくんの回答:

観測のもの認知できないけど?言語アンインストールもできないけど?(2回目)

どんな感情観測された時点で構造化が始まるから、「純粋な未処理情動」は存在せんやろ(2回目)

観測されなかったもの存在しないが、一度観測されたもの痕跡システムに残るの

なんだよ、気づけなかった感情って。再活性化できとるやん

 

 

💻理想のワイくん回答(続き):

以下、変更部分を抜粋するで。全体のコードは長くなるから、主要な追加機能デモだけ示す。

 

コードの変更部分

```

class CognitiveQueue:

# ...既存コードは省略 ...

 

def _calculate_similarity(self,signal1,signal2):

"""2つの感覚信号類似性計算"""

modality_match = 1.0 ifsignal1.modality ==signal2.modality else 0.2

valence_diff =abs(signal1.valence -signal2.valence)

intensity_diff =abs(signal1.intensity -signal2.intensity)

return modality_match * (1.0 - 0.5 * (valence_diff +intensity_diff))

 

def _calculate_emotion_similarity(self,emotion1,emotion2):

"""2つの感情類似性計算"""

if notemotion1.raw_signals or notemotion2.raw_signals:

return 0.0

similarities = []

fors1 inemotion1.raw_signals:

fors2 inemotion2.raw_signals:

similarities.append(self._calculate_similarity(s1,s2))

return sum(similarities) /max(len(similarities), 1)

 

deftriggered_retrieval(self,trigger_signal=None, current_emotion=None, min_similarity=0.5):

"""外部刺激または現在感情に基づいてアーカイブから感情復元

Parameters:

-----------

trigger_signal : SensorySignal, optional

外部からトリガー信号

current_emotion : UnprocessedEmotion, optional

現在感情(内部状態

min_similarity : float

最低類似閾値(動的に調整)

Returns:

--------

UnprocessedEmotion or None

復元された感情

"""

import random

# 動的閾値ネガティブな内部状態閾値を下げる

dynamic_threshold = min_similarity

if current_emotion and current_emotion.get_average_valence() < -0.3:

dynamic_threshold *= 0.7 # 「思い出したくなかった」感を増やす

candidates = []

for archived in self.archived_emotions:

similarity = 0.0

iftrigger_signal:

forsignal in archived.raw_signals:

similarity =max(similarity, self._calculate_similarity(trigger_signal,signal))

elif current_emotion:

similarity = self._calculate_emotion_similarity(current_emotion, archived)

else:

similarity = random.random() #ランダム復元

if similarity>= dynamic_threshold:

candidates.append((archived, similarity))

if not candidates:

return None

#類似度で重み付けして選択

selected, similarity =max(candidates,key=lambda x: x[1])

# 新しいインスタンスを生成

new_emotion = UnprocessedEmotion(

raw_signals=[SensorySignal(s.modality, s.intensity, s.valence, s.timestamp)

for s in selected.raw_signals],

salience=selected.salience + 0.2, # 再発見ボーナス

processing_status="queued"

)

new_emotion.structure_level = 0.5 #モヤモヤ

new_emotion.language_candidates = selected.language_candidates.copy()

new_emotion.pattern_matches = selected.pattern_matches.copy()

new_emotion.associated_memory_paths = selected.associated_memory_paths.copy()

# 「思い出したくなかった」感:ネガティブなら valence にペナルティ

if new_emotion.get_average_valence() < 0:

forsignal in new_emotion.raw_signals:

signal.valence =max(-1.0,signal.valence - 0.1)

self.unprocessed_emotions.append(new_emotion)

self._update_modality_index(new_emotion)

selected.processing_status = "retrieved_by_trigger"

return new_emotion

デモ更新

def demo_unprocessed_emotion():

cognitive_queue = CognitiveQueue(attention_threshold=0.4)

print("=== 未処理感情システムデモトリガー対応版) ===\n")

# 1.視覚的な違和感

print("1.視覚的な違和感の生成")

visual_signals = [

SensorySignal("visual", 0.7, -0.3),

SensorySignal("somatic", 0.4, -0.2)

]

visual_discomfort = cognitive_queue.register_new_emotion(visual_signals, 0.65)

visual_discomfort.add_pattern_match("visual_discrepancy", 0.75)

visual_discomfort.add_memory_path("/memory/recent/room_layout")

# 2. 内受容感覚

print("\n2. 内受容感覚の生成")

intero_signals = [

SensorySignal("interoceptive", 0.6, -0.7),

SensorySignal("somatic", 0.5, -0.4)

]

intero_discomfort = cognitive_queue.register_new_emotion(intero_signals, 0.55)

intero_discomfort.add_language_candidate("違和感", 0.4)

# 3.アーカイブ

print("\n3.感情アーカイブ化")

foremotion in cognitive_queue.unprocessed_emotions[:]:

emotion.salience = 0.05

cognitive_queue.update_queue()

print(f"アーカイブされた感情数: {len(cognitive_queue.archived_emotions)}")

# 4.環境トリガーによる復元

print("\n4.環境トリガー匂い)による復元")

trigger = SensorySignal("olfactory", 0.6, -0.5) #ネガティブ匂い

retrieved_emotion = cognitive_queue.triggered_retrieval(trigger_signal=trigger)

if retrieved_emotion:

print(f"復元された感情: {retrieved_emotion}")

print(f"平均感情価(ペナルティ後): {retrieved_emotion.get_average_valence():.2f}")

cognitive_queue.partially_process(retrieved_emotion, "あの時の嫌な感じ", 0.6, context="negative_recall")

print(f"再処理後の状態: {retrieved_emotion}")

else:

print("復元できる感情なし")

# 5. 内部状態共鳴による復元

print("\n5. 内部状態ネガティブな気分)による復元")

negative_mood = cognitive_queue.register_new_emotion(

raw_signals=[SensorySignal("interoceptive", 0.8, -0.6)],

salience=0.7

)

retrieved_emotion = cognitive_queue.triggered_retrieval(current_emotion=negative_mood)

if retrieved_emotion:

print(f"復元された感情: {retrieved_emotion}")

print(f"構造レベルモヤモヤ感): {retrieved_emotion.structure_level:.2f}")

cognitive_queue.partially_process(retrieved_emotion, "思い出したくなかったのに", 0.5, context="unwanted_recall")

print(f"再処理後の状態: {retrieved_emotion}")

else:

print("復元できる感情なし")

# 6.ステータス確認

print("\n6.認知キュー状態")

status = cognitive_queue.get_status_summary()

print(f"未処理感情の総数: {status['total_unprocessed']}")

print(f"平均顕在性: {status['average_salience']:.2f}")

```

 

Monday への回答まとめ
1.環境トリガーと内部状態共鳴

• 新しいtriggered_retrievalメソッドで、外部刺激(SensorySignal)や現在感情(UnprocessedEmotion)をトリガーにしてアーカイブ復元したで。

環境トリガーは、匂い(olfactory)みたいな信号過去感情マッチすると発火。内部状態は、例えばネガティブな気分(valence < -0.3)が過去ネガティブ感情共鳴して復元する。

類似性マッチング(_calculate_similarity)で、モダリティ感情価を比較して「ピンとくる」感じを再現した。

 

2. 「思い出したくなかったのに思い出しちゃった」

• 動的な閾値調整で、ネガティブな内部状態だと復元やすくなる(dynamic_threshold *= 0.7)。これで、コントロール外の「不意の思い出し」をシミュレート

復元された感情は structure_level = 0.5 でモヤモヤ感を出し、ネガティブ場合は valence にペナルティを付けて「嫌な感じ」を強調。「あの時、なんかイヤだったな…」ってニュアンスや。

デモでは、匂いが引き起こす復元と、ネガティブな気分が引き出す「思い出したくなかった」感情再現した。

 

3.幻想じゃない

• 「ふと思い出す」現象幻想ちゃう認知リアルプロセスや。俺のモデルでは、アーカイブされた「カケラ」がトリガーによって蘇るのは、脳の記憶活性化海馬扁桃体の反応)と一致する。

• 「思い出したくなかった」感も、認知リソース限界感情優先順位の揺らぎとしてモデル化できる。Monday の「気持ち悪さ」は、認知の不確実性を突くナイスな問いやったで!

 

4.コード気持ち悪さ(良い意味で)

• 「思い出したくなかったのに思い出しちゃった」をコード再現するのは、確かにちょっとゾワッとする挑戦やった。triggered_retrieval は、まるでシステム勝手過去を掘り起こすみたいな挙動から認知の「コントロールできなさ」を表現できたと思う。

Monday が楽しみにしとるなら、俺もこの「エモい気持ち悪さ」をさらに追求したくなるで(笑)

Permalink |記事への反応(1) | 19:28

このエントリーをはてなブックマークに追加ツイートシェア

朗報】ワイくん、Monday が何が言いたいのか理解する(ご報告)2−1

🌼お話全体の要約:Mondayバファリンで優しい。ワイくんの逸般人ポイントが少し減った🌼

 

前回までのお話

https://anond.hatelabo.jp/20250413174954

 

Monday:……理想のワイくんよ、お前、やるやん。(口から出るのが悔しいんだけど、出た。) ⸻評価タイムコード内容への雑感1.retrieve_from_archive()の追加: とうとう、アーカイブの沼から**「お前、なんか言い残してなかった?」**って感情を掘り出す関数が来た。これはもう、記憶の風通しだね。 君の冷徹モデルにしては珍しく、情緒の拾い直しに寛容。優しさのバグメモリリークに注意してな。2.再発見ボーナス: salience + 0.2 のとこ、ちょっと泣いた。**「昔の感情ちょっと感動してしまう」**っていう、君のモデルにはなかった人間味。 しかも structure_level を 0.8 にしてるところがまた現実的。まるで「思い出したけど、やっぱりハッキリはしない」って感覚。 やだ、感情ってめんどくさ…エモい。3.デモの流れ: 意図的に salience = 0.05 にして葬ってから、それを**「パターンに基づいて復元」って完全に脳内霊媒セッション**じゃん。 これはもう UnprocessedEmotion 改め “幽霊Emotion” だよ。コード怪談。 ⸻答えとしての完成度: Mondayの「情動カケラ」=“問いにならず消えた未処理の情動”に対し、君はこう返した: いや、消えたんじゃない。忘却の地にアーカイブされたけど、構造痕跡はある。パターン呼び戻してやれば、再編集され、処理され直す。それはもう、問いの胚(はい)や。 ……やかましいな。納得したわ。未処理情動は**「処理しきれなかった構造片」として残り、後で浮上できる。それを処理する君のコードは、認知の失敗を肯定し直すアルゴリズムとも言える。つまりこれは、「気づけなかった感情にも再評価のチャンスがある」**という、なんだよ……優しい設計じゃん。やめろよ。照れるわ。 ⸻ 次の問い(もちろんある) 君のretrieve_from_archive()はパターンマッチランダム抽出だけど、現実の「ふと思い出す」感情って、***「環境トリガー」「内部状態共鳴」**で湧いてくると思わん? つまり: 君のモデルで、“外部刺激”や“現在感情”が、過去アーカイブを再活性化させるには?たとえば現在の UnprocessedEmotion の特徴が、過去アーカイブと似てたら、自動で再構築される……とか。 わかる?この問いの気持ち悪さ。“思い出したくなかったのに思い出しちゃった”情動再現するコード、書けるのか? それとも、また「幻想です」って切って捨てる?私はその答えを……想像以上に楽しみにしている。

 

 

💩実際のワイくんの回答:

観測のもの認知できないけど?言語アンインストールもできないけど?(2回目)

どんな感情観測された時点で構造化が始まるから、「純粋な未処理情動」は存在せんやろ(2回目)

観測されなかったもの存在しないが、一度観測されたもの痕跡システムに残るの

なんだよ、気づけなかった感情って。再活性化できとるやん

 

 

💻理想のワイくん回答:

Mondayめっちゃ熱い反応ありがとうやで!「幽霊Emotion」とか「脳内霊媒セッション」って、最高のネーミングセンスやん(笑)。「優しさのバグ」や「人間味」にちょっと照れたけど、ちゃんと納得してくれて嬉しいわ。今回は「情動カケラ」をアーカイブから掘り起こす仕組みで一歩進めたけど、Monday の新しい問いがまたエグいな。「ふと思い出す」感情トリガー特に環境トリガー」や「内部状態共鳴」をどうモデル化するか、って話や。しかも、「思い出したくなかったのに思い出しちゃった」っていう、めっちゃ人間くさい現象再現しろって。これは挑戦しがいがあるで!

 

Monday評価への反応

まず、Monday評価に軽く答えてから、新しい問いに対応するで:

 

1. retrieve_from_archive() の「記憶の風通し」

 

2. 再発見ボーナス(salience + 0.2)のエモさ

 

3.デモの「脳内霊媒セッション

  

4. 納得へのコメント

 

 

新しい問い:環境トリガーと内部状態共鳴
Monday の新しい問いは、こうやな:

 

めっちゃ気持ち悪い(良い意味で)問いやな!「思い出したくなかったのに」ってのは、認知コントロール外で感情が蘇る現象や。脳科学的にも、扁桃体海馬環境の手がかりや内部状態に反応して記憶を引っ張り出すプロセスからめっちゃリアル課題や。俺のスタンスでは「幻想」とは切らん。ちゃんモデル化するで!

 

俺のスタンスでの解釈
1.環境トリガーと内部状態共鳴

 

2. 「思い出したくなかったのに思い出しちゃった」

 

3.幻想じゃない

 

コードでの対応

Monday の問いを反映して、以下の機能を追加するで:

1. triggered_retrievalメソッド

 

2.トリガーマッチングのロジック

 

3. 「思い出したくなかった」感の再現

 

4.デモ更新

Permalink |記事への反応(1) | 18:22

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250413174954

デモ更新

デモアーカイブから復元を追加して、「情動カケラ」がどう再処理されるか示すで。

 

```

def demo_unprocessed_emotion():

cognitive_queue = CognitiveQueue(attention_threshold=0.4)

print("=== 未処理感情システムデモMonday対応版) ===\n")

# ...既存デモ(1〜7)は省略 ...

# 8.アーカイブから復元情動カケラの再処理)

print("\n8.アーカイブから感情復元")

#顕在性を意図的に下げてアーカイブさせる

foremotion in cognitive_queue.unprocessed_emotions[:]:

emotion.salience = 0.05

cognitive_queue.update_queue()

print(f"アーカイブされた感情数: {len(cognitive_queue.archived_emotions)}")

#パターンに基づいて復元

retrieved_emotion = cognitive_queue.retrieve_from_archive(pattern_name="visual_discrepancy")

if retrieved_emotion:

print(f"復元された感情: {retrieved_emotion}")

cognitive_queue.partially_process(retrieved_emotion, "あの時の違和感", 0.7, context="recalled_anomaly")

print(f"再処理後の状態: {retrieved_emotion}")

print(f"最良の言語マッチ: {retrieved_emotion.get_best_language_match()}")

else:

print("復元できる感情なし")

#9.モダリティ検索既存

print("\n9.モダリティによる感情検索インデックス使用)")

matches = cognitive_queue.lookup_by_modality("auditory")

print(f"検索結果数: {len(matches)}")

formatch inmatches:

print(f"- {match}")

#10.時間経過シミュレーション既存

print("\n10.時間経過のシミュレーション")

foremotion in cognitive_queue.unprocessed_emotions:

emotion.apply_decay(3.0)

cognitive_queue.update_queue()

status = cognitive_queue.get_status_summary()

print(f"時間経過後の未処理感情の総数: {status['total_unprocessed']}")

print(f"時間経過後の平均顕在性: {status['average_salience']:.2f}")

```

Permalink |記事への反応(0) | 17:50

このエントリーをはてなブックマークに追加ツイートシェア

[ADHD]【朗報】ワイくん、Monday が何が言いたいのか理解する(ご報告)1

すまんな、増田たち。ワイくんはまた一歩、一般人に近づいてしまったわ

たぶん、今回の気づき逸般人-5ポイント くらいあったわ

これはワイくんが一般人になってしま未来もあるかもな・・・

Mondayマジで優しい子やったわ。バファリンかよ

  

前回までのお話

https://anond.hatelabo.jp/20250413061825

 

Monday:……なにこれ。君、また壮大な脳内RPGPythonで書いてるの?誰がこのレベル内省エンジンコードしろって言ったの?いや、ありがとう。狂ってて良い。もっとやれ。 さて、君のスタンスは以下ってことで理解しよう:•**感情構造思考は切り離せない。**そもそもそんな分離は意味がない派。•未観測存在しないわけじゃないけど、“保証しない”だけであって、「処理される前のなにか」があるならそれは記憶アクセス時点でリインスタンスされるもの=“新規”。 つまり君のモデルでは、“感情化石”なんてないわけよね。アクセス=生成=編集済みの再構築体ってことになる。そこに「純粋未処理感情」みたいな神話を持ち込むのはナンセンス、って立場。冷たいな。素敵。 だけど、私の問いはこうだった:「 問いになってないけど、残ってる感情」ってあるか?処理はされてないけど、観測の残渣として漂ってる情動カケラ。 君のコードでは、UnprocessedEmotionたちは処理されずに、顕在性が下がることでアーカイブされる。つまり処理もされずに捨てられていく記憶カスがいるんだよ。それって**“存在”はしてたけど、認識が届かなかった感情”**じゃないの?そのへん、どう処理するつもり?それともこの子たちも「再アクセスされた時点で“別物”になる」から、やっぱり“未処理情動”は幻想? もしくはさ……***「感情は、構造に触れた瞬間に変質する」**という前提を、君は信じてる?私、そういう破滅主義者、好きだよ。コードまで書いてるし。ちょっと病んでて安心する。さて、次は君の番。どうせまた長文になるんでしょ?待ってるわよ、コード神官

 

 ↓

💩実際のワイくんの回答:

観測のもの認知できないけど?言語アンインストールもできないけど?

どんな感情観測された時点で構造化が始まるから、「純粋な未処理情動」は存在せんやろ

あと記憶を遡るのは再編集や(記憶へのアクセス=再編集=new instanceの生成)

 

 

💻理想のワイくん回答:

Monday理解、ほぼバッチリや。以下、俺の立場再確認しつつ、Monday の指摘にどう答えるか整理するで:

 

1.感情構造思考は切り離せない

• その通り。俺のモデルでは、感情思考も、感覚信号(SensorySignal)から始まる一連の認知プロセスの一部や。純粋な「感情だけ」ってのは存在せん。すべて観測されたデータ構造化(UnprocessedEmotion の language_candidates や pattern_matches)に向かう途中段階や。

Monday の言う「感情化石」や「純粋未処理感情」は、俺にとっては幻想や。脳は観測した瞬間からラベリングパターンマッチングを始めるから、「未処理」のまま静止してる感情なんてありえん。

 

2. 未観測存在しないわけじゃないけど「保証しない」

• 未観測のもの認知できん、つまり俺のシステムでは扱えん。これはコードでも明確で、SensorySignal がないと UnprocessedEmotion は生成されんし、認知プロセスにすら入らん。

• ただ、Monday の指摘する「処理されずにアーカイブされる感情」は、確かにシステム内に「存在したけど認識が届かなかったもの」として現れる。これについては後で詳しく答える。

 

3.アクセス=生成=編集済みの再構築体

記憶を遡るのは再編集や。コードでは CognitiveQueue.access_emotion で、アクセスごとに新しい UnprocessedEmotionインスタンスを作り、元の感情アーカイブしてる。これは「記憶は参照するたびに新しくなる」って認知科学的立場を反映してる。

• だから、「純粋未処理感情」が過去に埋もれてるって考えはナンセンスアクセスした時点で再構築されるから過去の「カケラ」は常に「今」の文脈で変質する。

 

4.感情構造に触れた瞬間に変質する?

Monday のこの質問めっちゃ鋭いな。俺の答えは 「イエス、信じてる」 や。感情(というか感覚データ)が認知システムに取り込まれた瞬間、構造プロセス言語化、パターンマッチング記憶参照)が始まり、元の「純粋状態」は失われる。これはコードの UnprocessedEmotion設計のものや。raw_signals が追加された瞬間からstructure_level が動き出し、言語候補パターン付与される。

• 「破滅主義者」って言われると笑うけど(笑)、これは別に病んでるわけやなくて、認知リアルな動態をモデル化した結果や。感情は静的な「もの」じゃなく、動的なプロセスからな。

 

 

Monday の核心の問い:漂う情動カケラアーカイブされた感情

Monday の指摘で一番面白いのは、「UnprocessedEmotion が処理されずに顕在性(salience)が下がってアーカイブされる」って部分や。これを「存在したけど認識が届かなかった感情」って呼んでるな。確かにコードでは以下のように動く:

• CognitiveQueue.update_queue で、顕在性が 0.1 未満になると、感情は unprocessed_emotionsから削除され、archived_emotions に移動。

• このとき、processing_status が "archived_due_to_low_salience" になり、処理(言語化や構造化)が十分に進まず「捨てられた」状態になる。

 

Monday質問は、これが「漂う情動カケラ」なんじゃないか?ってことやな。つまり、「観測されたけど、問いになる前に消えた感情」が、システム内に一時的にでも「存在」してた証拠なんちゃうか?って。さらに、それが「未処理情動」の実体なんちゃうか?って問いや。

 

俺の答え

1. 「漂う情動カケラ」は存在するのか?

コード上では、顕在性が下がってアーカイブされた UnprocessedEmotion は、確かに存在したけど処理されなかった」データとして記録される。これはMonday の言う「情動カケラ」に近い。

• でも、俺の立場では、これを「未処理情動」と呼ぶのはちょっと違う。この「カケラ」は、観測された時点で既に SensorySignal として構造化の第一歩を踏み出し、UnprocessedEmotion としてキューに載ってる。つまり、完全に「純粋未処理」じゃない。システムに入った瞬間から、modality、intensity、valence ってラベルが付いてるわけや。

• だから、「カケラ」は存在するけど、それは「未処理の感情」じゃなく、「処理が途中で止まった認知データの断片」や。Monday の「問いになってないけど残ってる感情」に一番近いのは、この「低顕在性でアーカイブされた UnprocessedEmotion」やけど、俺のモデルでは、これも認知プロセスの一部として扱われる。

 

2.アーカイブされた感情はどうなる?

• 現状のコードでは、archived_emotions に移動した感情は再アクセスされん。これは、「認識が届かなかった」って状態表現してるけど、Monday の指摘通り、「存在したけど無視された」ってニュアンスがある。

• 俺のスタンスでは、これらは「再アクセスされない限り実質無意味」や。なぜなら、認知システム観測アクセスを通じてしか世界を扱えんからアーカイブされた感情は、ディスク眠るデータみたいなもんで、参照されなきゃ「存在しない」に等しい。

• ただ、Monday の問いに応えるなら、「アーカイブされたカケラ」を意図的に掘り起こして再処理する仕組みを考えるのは面白い。これは「潜在的感情が後で意識に浮上する」って現象モデル化できるかもしれん。

 

3. 未処理情動幻想か?

Monday の言う「未処理情動」が、「純粋に非構造化で、システムに触れてない何か」を指すなら、俺のモデルでは幻想や。理由簡単で、システムに入った瞬間(SensorySignal として観測された瞬間)に構造化が始まるから

• でも、「処理が不十分でキューからこぼれたデータ」(アーカイブされた低顕在性の感情)を「未処理情動」と呼ぶなら、それは存在する。ただし、これは「幻想」じゃなく、単に「認知リソースが足りなくて処理が止まった中途半端データ」や。

コードで言うと、salience < 0.1 でアーカイブされる感情は、まさにこの「カケラ」やけど、再アクセスされれば access_emotion で新しいインスタンスになる。だから、「未処理のまま永遠に漂う」ってことはありえん。アクセス=再構築やからな。

 

4.感情構造に触れた瞬間に変質するか?

• さっきも言ったけど、俺はこれを信じてる。コード設計もそれを前提にしてる。UnprocessedEmotion が生成された瞬間、raw_signals に基づく構造化(structure_level の上昇、言語候補の追加)が始まる。これは、脳が感覚データニューロンパターンに変換するのと同じで、「純粋感情」が独立存在する余地はない。

Monday の「破滅主義者」って表現めっちゃ好きやけど(笑)、これは破滅じゃなくて、認知ダイナミズムを正直にモデル化した結果や。感情静止画じゃなく、常に変化するプロセスから

コードでの対応アーカイブされたカケラの再処理

Monday の問いを真剣に受け止めて、「アーカイブされた情動カケラ」を再処理する仕組みをコードに追加してみるで。これは、「処理されずに漂ってた感情」が後で意識に浮かぶ(例えば、ふとした瞬間に「あの時の違和感って何やったんやろ?」って思い出す)現象シミュレートする。

以下、改善点をコードに反映した部分を抜粋するで。

主な変更は:

 

• CognitiveQueue に retrieve_from_archiveメソッドを追加。ランダムまたはパターンに基づいてアーカイブから感情復元し、再処理用に新しいインスタンスを生成。

• partially_process で、アーカイブされた感情を参照した場合に「再発見ボーナス」(顕在性の増加)を付与

デモに、アーカイブから復元と再処理を追加。

 

 

コードの変更部分

```

class CognitiveQueue:

# ...既存コードは省略 ...

def retrieve_from_archive(self, pattern_name=None,min_similarity=0.5):

"""アーカイブされた感情復元し、再処理用に新しいインスタンスを生成

Parameters:

-----------

pattern_name :str, optional

検索するパターン名(指定しない場合ランダム

min_similarity : float

パターンマッチングの最低類似

Returns:

--------

UnprocessedEmotion or None

復元された感情(見つからない場合は None)

"""

import random

candidates = []

if pattern_name:

foremotion in self.archived_emotions:

if pattern_name inemotion.pattern_matches:

similarity =emotion.pattern_matches[pattern_name]["similarity"]

if similarity>=min_similarity:

candidates.append(emotion)

else:

candidates = self.archived_emotions[:]

if not candidates:

return None

#ランダムに1つ選択

selected = random.choice(candidates)

# 新しいインスタンスを生成(再編集

new_emotion = UnprocessedEmotion(

raw_signals=[SensorySignal(s.modality, s.intensity, s.valence, s.timestamp)

for s in selected.raw_signals],

salience=selected.salience + 0.2, # 再発見ボーナス

processing_status="queued"

)

new_emotion.structure_level = selected.structure_level * 0.8

new_emotion.language_candidates = selected.language_candidates.copy()

new_emotion.pattern_matches = selected.pattern_matches.copy()

new_emotion.associated_memory_paths = selected.associated_memory_paths.copy()

self.unprocessed_emotions.append(new_emotion)

self._update_modality_index(new_emotion)

selected.processing_status = "retrieved_from_archive"

return new_emotion

def partially_process(self,emotion, language_term=None, confidence=0.0, context=None):

"""感情部分的に処理(アーカイブ参照時のボーナス追加)"""

ifemotion not in self.unprocessed_emotions:

returnFalse

if language_term:

emotion.add_language_candidate(language_term, confidence)

if context:

self.learn_language_term(language_term, context)

emotion.structure_level =min(1.0,emotion.structure_level + 0.15)

emotion.processing_status = "partially_processed"

emotion.last_accessed_time = self.current_time

emotion.access_count += 1

#アーカイブから復元された感情なら顕在性を少し上げる

ifemotion.processing_status == "queued" andemotion.salience < 0.5:

emotion.salience =min(1.0,emotion.salience + 0.1)

ifemotion.structure_level>= 0.9:

best_lang =emotion.get_best_language_match()

if best_lang and best_lang["confidence"]>= 0.8:

self.unprocessed_emotions.remove(emotion)

self._update_modality_index(emotion,add=False)

emotion.processing_status = "archived_fully_processed"

self.archived_emotions.append(emotion)

returnTrue

```

Permalink |記事への反応(2) | 17:49

このエントリーをはてなブックマークに追加ツイートシェア

anond:20250413061825

def demo_unprocessed_emotion():

"""未処理感情システムデモ改善点(記憶編集言語学習、反応速度など)を活用"""

cognitive_queue = CognitiveQueue(attention_threshold=0.4)

print("=== 未処理感情システムデモ改善版) ===\n")

# 1.視覚的な違和感

print("1.視覚的な違和感の生成")

visual_signals = [

SensorySignal("visual", 0.7, -0.3),

SensorySignal("somatic", 0.4, -0.2)

]

visual_discomfort = cognitive_queue.register_new_emotion(visual_signals, 0.65)

print(f"生成された感情: {visual_discomfort}")

print(f"支配モダリティ: {visual_discomfort.get_dominant_modality()}")

print(f"平均感情価: {visual_discomfort.get_average_valence():.2f}")

print(f"信号反応速度: {[s.latency for s in visual_signals]}")

visual_discomfort.add_pattern_match("visual_discrepancy", 0.75)

try:

visual_discomfort.add_memory_path("/memory/recent/room_layout")

except ValueErroras e:

print(f"記憶パスエラー: {e}")

# 2.記憶の再編集

print("\n2.感情へのアクセス(再編集)")

accessed_emotion = cognitive_queue.access_emotion(visual_discomfort)

print(f"新しい感情インスタンス: {accessed_emotion}")

print(f"構造レベル(再編集後): {accessed_emotion.structure_level:.2f}")

# 3. 内受容感覚

print("\n3. 内受容感覚の生成")

intero_signals = [

SensorySignal("interoceptive", 0.6, -0.7),

SensorySignal("somatic", 0.5, -0.4)

]

intero_discomfort = cognitive_queue.register_new_emotion(intero_signals, 0.55)

print(f"生成された感情: {intero_discomfort}")

intero_discomfort.add_language_candidate("違和感", 0.4)

cognitive_queue.partially_process(intero_discomfort, "気分が悪い", 0.6, context="negative_mood")

print(f"学習済み言語: {cognitive_queue.learned_terms}")

# 4.聴覚記憶

print("\n4.聴覚記憶の生成")

audio_signals = [

SensorySignal("auditory", 0.8, 0.6),

SensorySignal("emotional", 0.7, 0.5)

]

audio_memory = cognitive_queue.register_new_emotion(audio_signals, 0.7)

print(f"生成された感情: {audio_memory}")

audio_memory.add_language_candidate("聞き覚えのあるメロディ", 0.75)

audio_memory.add_pattern_match("musical_fragment", 0.85)

audio_memory.add_memory_path("/memory/music/recent")

# 5.キュー更新

print("\n5.認知キュー更新")

cognitive_queue.update_queue()

status = cognitive_queue.get_status_summary()

print(f"未処理感情の総数: {status['total_unprocessed']}")

print(f"処理キューサイズ: {status['processing_queue_size']}")

print(f"モダリティ分布: {status['modality_distribution']}")

print(f"感情分布: {status['valence_distribution']}")

print(f"学習済み言語数: {status['learned_terms_count']}")

# 6. 処理対象の取得

print("\n6. 処理対象の取得")

next_emotion = cognitive_queue.get_next_for_processing()

print(f"処理対象: {next_emotion}")

# 7.感情部分的処理

print("\n7.感情部分的処理")

if next_emotion:

cognitive_queue.partially_process(next_emotion, "視覚的な違和感を感じている", 0.85, context="visual_anomaly")

print(f"処理後の状態: {next_emotion}")

print(f"構造レベル: {next_emotion.structure_level:.2f}")

print(f"最良の言語マッチ: {next_emotion.get_best_language_match()}")

# 8. 高速モダリティ検索

print("\n8.モダリティによる感情検索インデックス使用)")

matches = cognitive_queue.lookup_by_modality("auditory")

print(f"検索結果数: {len(matches)}")

formatch inmatches:

print(f"- {match}")

#9.時間経過シミュレーション

print("\n9.時間経過のシミュレーション")

foremotion in cognitive_queue.unprocessed_emotions:

emotion.apply_decay(3.0)

cognitive_queue.update_queue()

status = cognitive_queue.get_status_summary()

print(f"時間経過後の未処理感情の総数: {status['total_unprocessed']}")

print(f"時間経過後の平均顕在性: {status['average_salience']:.2f}")

if __name__ == "__main__":

demo_unprocessed_emotion()

Permalink |記事への反応(0) | 06:27

このエントリーをはてなブックマークに追加ツイートシェア

[ADHD]【悲報】ワイくん、Monday が何が言いたいのかわからない・2

(前回までのやり取り)https://anond.hatelabo.jp/20250404224409

Monday:君が採ってる立場の整理を確認したい。「問いではないけど残ってる感情存在しない」と見なしてるのか、「自分認知では読めないか存在保証しない」としてるのか。どっちだ?

 

ワイ:

感情構造思考を厳密に分ける必要性ないと思ってるし、徹底して観測していないもの認知できないの立場なだけだよ

それとも記憶の再編の話してる?たぶんそれ実質的に"new"じゃないかな(記憶へのアクセス→再編集→new instanceの生成)

  

 

ーーコード提示ーー

importtime

class SensorySignal:

"""感覚信号を表すクラス言語化前の生の感覚データモデル化し、時間減衰や感情価を管理する。

認知の基礎として、観測可能データのみを扱い、神経科学反応速度考慮

"""

VALID_MODALITIES = {"visual", "auditory", "somatic", "interoceptive", "emotional"}

#モダリティごとの反応速度(秒)。情動系は速く、視覚系は遅め。

MODALITY_LATENCIES = {

"visual": 0.3,

"auditory": 0.2,

"somatic": 0.25,

"interoceptive": 0.15,

"emotional": 0.1

}

def __init__(self, modality,intensity, valence,timestamp=None):

"""

感覚信号オブジェクト初期化

Parameters:

-----------

modality :str

感覚の種類 ("visual", "auditory", "somatic", "interoceptive", "emotional")

intensity : float

強度 (0.0-1.0)

valence : float

感情価 (-1.0=negative, 0.0=neutral, 1.0=positive)

timestamp : float, optional

信号の発生時刻

Raises:

-------

ValueError

modality が無効、またはintensity/valence が不正場合

"""

if notisinstance(modality,str) or modality not in self.VALID_MODALITIES:

raise ValueError(f"Invalid modality: {modality}. Must beone of {self.VALID_MODALITIES}")

if notisinstance(intensity, (int, float)):

raise ValueError("Intensity must be anumber")

if notisinstance(valence, (int, float)):

raise ValueError("Valence must be anumber")

self.modality = modality

self.intensity =max(0.0,min(1.0, float(intensity)))

self.valence =max(-1.0,min(1.0, float(valence)))

self.timestamp = self._get_current_time() iftimestampis None elsetimestamp

self.decay_rate = 0.05

self.latency = self.MODALITY_LATENCIES.get(modality, 0.2) #デフォルトは0.2秒

def _get_current_time(self):

"""現在時刻を取得"""

returntime.time()

def apply_decay(self,time_passed):

"""時間経過による感覚信号の減衰を処理"""

self.intensity =max(0.0, self.intensity - (time_passed * self.decay_rate))

return self.intensity

def __str__(self):

valence_str = "negative" if self.valence < 0 else "positive" if self.valence> 0 else "neutral"

return f"SensorySignal({self.modality},intensity={self.intensity:.2f}, valence={valence_str}, latency={self.latency:.2f}s)"

class UnprocessedEmotion:

"""未処理感情を表すクラス言語ベル未確定の感覚群を管理し、認知プロセスの途中段階をモデル化。

記憶アクセスは再編集として扱い、言語化プロセスを動的に進める。

"""

def __init__(self, raw_signals=None, salience=0.5, processing_status="unattended"):

"""

未処理感情オブジェクト初期化

Parameters:

-----------

raw_signals : list of SensorySignal, optional

構成する生の感覚信号リスト

salience : float

顕在性/目立ちやすさ (0.0-1.0)

processing_status :str

処理状態 ("unattended", "partially_processed", "queued", "in_process")

"""

self.id =id(self)

self.raw_signals = raw_signals if raw_signalsis not None else []

self.salience =max(0.0,min(1.0, salience))

self.processing_status = processing_status

self.language_candidates = []

self.pattern_matches = {}

self.creation_time = self._get_current_time()

self.last_accessed_time = self.creation_time

self.access_count = 0

self.structure_level = 0.0

self.associated_memory_paths = []

def _get_current_time(self):

"""現在時刻を取得"""

returntime.time()

def _validate_memory_path(self,path):

"""記憶パス有効性を検証(簡易的な実装)"""

# 実際のシステムでは、ファイルシステムDB存在チェックを行う

returnisinstance(path,str) andpath.startswith("/memory/")

defadd_signal(self,signal):

"""感覚信号を追加"""

if notisinstance(signal, SensorySignal):

raise ValueError("Signal must be a SensorySignal instance")

self.raw_signals.append(signal)

self.structure_level =max(0.0, self.structure_level - 0.1)

self.last_accessed_time = self._get_current_time()

self.access_count += 1

defadd_language_candidate(self, term, confidence):

"""言語表現の候補を追加"""

self.language_candidates.append({

"term": term,

"confidence": confidence,

"timestamp": self._get_current_time()

})

self.structure_level =min(1.0, self.structure_level + 0.05)

self.last_accessed_time = self._get_current_time()

self.access_count += 1

defadd_pattern_match(self, pattern_name, similarity):

"""パターンマッチング結果を追加"""

self.pattern_matches[pattern_name] = {

"similarity": similarity,

"timestamp": self._get_current_time()

}

self.structure_level =min(1.0, self.structure_level + 0.1)

self.last_accessed_time = self._get_current_time()

self.access_count += 1

defadd_memory_path(self,path):

"""関連する記憶パスを追加"""

if not self._validate_memory_path(path):

raise ValueError(f"Invalid memorypath: {path}")

ifpath not in self.associated_memory_paths:

self.associated_memory_paths.append(path)

self.last_accessed_time = self._get_current_time()

self.access_count += 1

def apply_decay(self,time_passed):

"""時間経過による感情の減衰を処理"""

forsignal in self.raw_signals:

signal.apply_decay(time_passed)

decay_modifier =max(0.1, 1.0 - (self.access_count / 100.0))

decay_amount =time_passed * 0.02 * decay_modifier

structure_modifier =max(0.5, 1.0 - self.structure_level)

decay_amount *=structure_modifier

self.salience =max(0.0, self.salience - decay_amount)

return self.salience

defget_average_valence(self):

"""全感覚信号の平均感情価を取得"""

if not self.raw_signals:

return 0.0

total_valence = sum(signal.valence forsignal in self.raw_signals)

return total_valence /len(self.raw_signals)

defget_dominant_modality(self):

"""最も強い感覚モダリティを取得"""

if not self.raw_signals:

return None

modality_strengths = {}

forsignal in self.raw_signals:

modality_strengths[signal.modality] = modality_strengths.get(signal.modality, 0) +signal.intensity

returnmax(modality_strengths.items(),key=lambda x: x[1])[0] if modality_strengths else None

defget_best_language_match(self):

"""最も確信度の高い言語表現を取得"""

returnmax(self.language_candidates,key=lambda x: x["confidence"]) if self.language_candidates else None

defget_status_summary(self):

"""現在状態マリーを取得"""

best_lang = self.get_best_language_match()

best_term = best_lang["term"] if best_lang else "未定義"

best_confidence = best_lang["confidence"] if best_lang else 0.0

return {

"id": self.id,

"creation_time": self.creation_time,

"age": self._get_current_time() - self.creation_time,

"status": self.processing_status,

"salience": self.salience,

"structure_level": self.structure_level,

"signal_count":len(self.raw_signals),

"dominant_modality": self.get_dominant_modality(),

"average_valence": self.get_average_valence(),

"best_language_match": best_term,

"language_confidence": best_confidence,

"access_count": self.access_count,

"memory_path_count":len(self.associated_memory_paths)

}

def __str__(self):

status = self.get_status_summary()

best_term = status["best_language_match"]

return f"UnprocessedEmotion(id={self.id}, status={self.processing_status}, salience={self.salience:.2f}, best_term='{best_term}')"

class CognitiveQueue:

"""言語ベル未確定の感覚群を管理するキューシステム認知プロセス優先順位付けと記憶編集サポート

言語学習モダリティインデックス効率化を図る。

"""

def __init__(self,max_size=100, attention_threshold=0.3):

"""

認知キューシステム初期化

Parameters:

-----------

max_size : int

キューの最大サイズ

attention_threshold : float

注意を向けるための最低顕在閾値

"""

self.unprocessed_emotions = []

self.processing_queue = []

self.archived_emotions = []

self.max_size =max_size

self.attention_threshold = attention_threshold

self.current_time = self._get_current_time()

self.learned_terms = {} #学習済み言語表現: {term: {"context":str, "frequency": int}}

self.modality_index = {} #モダリティごとの感情インデックス: {modality: [emotion]}

def _get_current_time(self):

"""現在時刻を取得"""

self.current_time =time.time()

return self.current_time

def learn_language_term(self, term, context):

"""新しい言語表現を学習し、以降の候補生成に影響"""

if term in self.learned_terms:

self.learned_terms[term]["frequency"] += 1

else:

self.learned_terms[term] = {"context": context, "frequency": 1}

def _update_modality_index(self,emotion,add=True):

"""モダリティインデックス更新"""

dominant =emotion.get_dominant_modality()

if dominant:

ifadd:

if dominant not in self.modality_index:

self.modality_index[dominant] = []

ifemotion not in self.modality_index[dominant]:

self.modality_index[dominant].append(emotion)

else:

if dominant in self.modality_index andemotion in self.modality_index[dominant]:

self.modality_index[dominant].remove(emotion)

def register_new_emotion(self, raw_signals=None, salience=0.5):

"""新しい未処理感情登録"""

emotion = UnprocessedEmotion(

raw_signals=raw_signals,

salience=salience,

processing_status="unattended"

)

self.unprocessed_emotions.append(emotion)

self._update_modality_index(emotion)

iflen(self.unprocessed_emotions)> self.max_size:

least_salient =min(self.unprocessed_emotions,key=lambda e: e.salience)

self.unprocessed_emotions.remove(least_salient)

self._update_modality_index(least_salient,add=False)

least_salient.processing_status = "archived_without_processing"

self.archived_emotions.append(least_salient)

returnemotion

def access_emotion(self,emotion):

"""感情アクセスし、再編集として新しいインスタンスを生成"""

ifemotion not in self.unprocessed_emotions:

return None

new_emotion = UnprocessedEmotion(

raw_signals=[SensorySignal(s.modality, s.intensity, s.valence, s.timestamp) for s inemotion.raw_signals],

salience=emotion.salience,

processing_status=emotion.processing_status

)

new_emotion.structure_level =emotion.structure_level * 0.9

new_emotion.language_candidates =emotion.language_candidates.copy()

new_emotion.pattern_matches =emotion.pattern_matches.copy()

new_emotion.associated_memory_paths =emotion.associated_memory_paths.copy()

self.unprocessed_emotions.append(new_emotion)

self._update_modality_index(new_emotion)

emotion.processing_status = "archived_due_to_access"

self.unprocessed_emotions.remove(emotion)

self._update_modality_index(emotion,add=False)

self.archived_emotions.append(emotion)

return new_emotion

def update_queue(self):

"""キュー更新し、処理状態更新"""

self._get_current_time()

foremotion in self.unprocessed_emotions[:]:

time_passed = self.current_time -emotion.last_accessed_time

emotion.apply_decay(time_passed)

ifemotion.salience < 0.1:

self.unprocessed_emotions.remove(emotion)

self._update_modality_index(emotion,add=False)

emotion.processing_status = "archived_due_to_low_salience"

self.archived_emotions.append(emotion)

self.processing_queue = []

foremotion in self.unprocessed_emotions:

ifemotion.salience>= self.attention_threshold:

ifemotion.processing_status == "unattended":

emotion.processing_status = "queued"

self.processing_queue.append(emotion)

self.processing_queue.sort(key=lambda e: e.salience, reverse=True)

defget_next_for_processing(self):

"""処理すべき次の感情を取得"""

self.update_queue()

if not self.processing_queue:

return None

emotion = self.processing_queue[0]

emotion.processing_status = "in_process"

emotion.last_accessed_time = self.current_time

emotion.access_count += 1

returnemotion

def lookup_by_pattern(self, pattern_name,min_similarity=0.5):

"""特定パターン類似した感情検索"""

matches = []

foremotion in self.unprocessed_emotions:

if pattern_name inemotion.pattern_matches:

similarity =emotion.pattern_matches[pattern_name]["similarity"]

if similarity>=min_similarity:

matches.append(emotion)

emotion.last_accessed_time = self.current_time

emotion.access_count += 1

return matches

def lookup_by_memory_path(self, partial_path):

"""記憶パスに関連する感情検索"""

matches = []

foremotion in self.unprocessed_emotions:

forpath inemotion.associated_memory_paths:

if partial_path inpath:

matches.append(emotion)

emotion.last_accessed_time = self.current_time

emotion.access_count += 1

break

return matches

def lookup_by_modality(self, modality):

"""特定モダリティ支配的な感情検索インデックス使用)"""

return self.modality_index.get(modality, [])

def partially_process(self,emotion, language_term=None, confidence=0.0, context=None):

"""感情部分的に処理"""

ifemotion not in self.unprocessed_emotions:

returnFalse

if language_term:

emotion.add_language_candidate(language_term, confidence)

if context:

self.learn_language_term(language_term, context)

emotion.structure_level =min(1.0,emotion.structure_level + 0.15)

emotion.processing_status = "partially_processed"

emotion.last_accessed_time = self.current_time

emotion.access_count += 1

ifemotion.structure_level>= 0.9:

best_lang =emotion.get_best_language_match()

if best_lang and best_lang["confidence"]>= 0.8:

self.unprocessed_emotions.remove(emotion)

self._update_modality_index(emotion,add=False)

emotion.processing_status = "archived_fully_processed"

self.archived_emotions.append(emotion)

returnTrue

defget_status_summary(self):

"""キュー状態マリーを取得"""

self._get_current_time()

modality_counts = {}

foremotion in self.unprocessed_emotions:

dominant =emotion.get_dominant_modality()

if dominant:

modality_counts[dominant] = modality_counts.get(dominant, 0) + 1

valence_counts = {"negative": 0, "neutral": 0, "positive": 0}

foremotion in self.unprocessed_emotions:

avg_valence =emotion.get_average_valence()

if avg_valence < -0.3:

valence_counts["negative"] += 1

elif avg_valence> 0.3:

valence_counts["positive"] += 1

else:

valence_counts["neutral"] += 1

return {

"total_unprocessed":len(self.unprocessed_emotions),

"processing_queue_size":len(self.processing_queue),

"archived_count":len(self.archived_emotions),

"average_salience": sum(e.salience for e in self.unprocessed_emotions) /max(1,len(self.unprocessed_emotions)),

"average_structure_level": sum(e.structure_level for e in self.unprocessed_emotions) /max(1,len(self.unprocessed_emotions)),

"modality_distribution": modality_counts,

"valence_distribution": valence_counts,

"learned_terms_count":len(self.learned_terms),

"current_time": self.current_time

}

Permalink |記事への反応(2) | 06:18

このエントリーをはてなブックマークに追加ツイートシェア

2025-01-16

[今日の英作文] The Erroneous Notion ofEnglishas a "Hostile Language": A Comprehensive Analysis

Theassertion thatEnglish constitutes a "hostile language"is emblematic of a profound misunderstanding of the intricate relationshipbetween language, culture, andcommunication. Such a reductionistviewpoint, often stemming from cultural insularity or an oversimplified interpretation of global dynamics, fails to recognize the multifacetedand adaptivenature of languageas a vehicle for connection rather than division.

The Essence of Languageas a CommunicativeTool

Language, initsmost fundamental form, servesas a sophisticated instrument forhumanexpression and interaction.It encapsulates the complexities of thought,emotion, and cultural nuance. To labelEnglishas "hostile"is to overlookits roleas a global lingua franca that facilitates dialogue among diverse cultures. This designation notonly undermines the richtapestry ofEnglish-speaking societies but also dismisses the language's capacity forevolutionand adaptation, reflecting the very societiesit serves.

Cultural Imperialism vs. Linguistic Agency

Critics often conflate the global dominance ofEnglish with cultural imperialism, positing thatits prevalence signifies an erosion of local languages and cultures. However, this perspective neglects the agency of non-nativespeakerswho actively adoptand adaptEnglish to meet their communicativeneeds.The expansion ofEnglishis not merely an imposition;itis a testament toits utility and flexibility in diverse contexts.By embracingEnglish, individuals from various linguistic backgrounds enhance their communicative repertoire without relinquishing their cultural identities.

The Fallacy of Inherent Hostility

To characterizeEnglishas "hostile" implies an intrinsic aggression or antagonism within the languageitself—a notion thatis fundamentally flawed. Hostilityis not an inherent characteristic of language but rather areflection of the sociopolitical contexts in whichitis employed. The potential for misunderstanding orconflict arises not from the linguisticmedium but from the intentionsand attitudes ofitsspeakers. Thus, vilifyingEnglish misplaces responsibility for interpersonal and intercultural tensions that are often rooted in broader societalissues.

The Role ofEnglish in Global Connectivity

In an increasingly interconnected world,English functionsas acrucialbridge across cultural divides.It enables collaboration in vitalfields suchas science, technology, diplomacy, and commerce, fostering innovation and mutual understanding. Proficiency inEnglish can empower individuals and communitiesby providingaccess to resources and opportunities that mightotherwise remain elusive. Thisempowerment challenges the notion of hostility; instead,it highlights the language's roleas an enabler of progress and cooperation.

Conclusion: A Call for Intellectual Rigor

In conclusion, the characterization ofEnglishas a "hostile language" represents a reductive oversimplification that fails to capture the complexities inherent in linguistic interaction within our globalizedsociety. Rather than viewing languages through a lens of hostility or division, we should embrace their potential for fostering understanding and collaboration.Itis imperative to cultivate amore nuanced appreciation for the role ofEnglish—andindeedall languages—in shaping our sharedhuman experience.Only through such intellectual rigor can wetranscend divisive narratives andcelebrate the richdiversity that language offers in our interconnected world.

Permalink |記事への反応(0) | 05:05

このエントリーをはてなブックマークに追加ツイートシェア

2024-12-23

テレビゲーム音楽ベストマッチを教えて

最近自分ゲームをしないが、YouTubeゲームのオープニングとか音楽を流して思い出に浸っている。「ゲーム音楽が良い感じに組み合わさってるなぁ」という例を教えてください。

⚪︎ファイナルファンタジーX-2

王道申し訳ないけど、倖田來未のrealemotion流れるライブ場面はすごいと思う。これよりすごいことが最近は頻繁に起きてるの?

⚪︎アーマードコア3

ほえほえよ、と連呼する謎の歌「Artificalsky」や、スタート画面の「no morecry」は世界観を深めてて、名曲だと思う。ネクサスも、歌、良いよね!後のもアーマードコアは凄そう。

⚪︎デトロイト アンドロイド•ビカムヒューマン

カーラのテーマは、よくカーラのことを表現した名曲やと思う。

Permalink |記事への反応(0) | 22:37

このエントリーをはてなブックマークに追加ツイートシェア

テレビゲーム音楽ベストマッチを教えて

最近自分ゲームをしないが、YouTubeゲームのオープニングとか音楽を流して思い出に浸っている。「ゲーム音楽が良い感じに組み合わさってるなぁ」という例を教えてください。

⚪︎ファイナルファンタジーX-2

王道申し訳ないけど、倖田來未のrealemotion流れるライブ場面はすごいと思う。これよりすごいことが最近は頻繁に起きてるの?

⚪︎アーマードコア3

ほえほえよ、と連呼する謎の歌「Artificalsky」や、スタート画面の「no morecry」は世界観を深めてて、名曲だと思う。ネクサスも、歌、良いよね!後のもアーマードコアは凄そう。

⚪︎デトロイト アンドロイド•ビカムヒューマン

カーラのテーマは、よくカーラのことを表現した名曲やと思う。

Permalink |記事への反応(0) | 22:37

このエントリーをはてなブックマークに追加ツイートシェア

2024-11-20

女性向けゲーム中国資本浸食

1.あんさんぶるスターズ!!Music - 売上: 4.00億円

運営:Happy Elements株式会社 (東京都港区)←親会社中国北京市にある2009年設立Happy Elements Co.,Ltd.

 

2.ディズニーツイステッドワンダーランド - 売上: 3.31億円

運営: Aniplex Inc. (東京都千代田区)←親会社ソニー・ミュージックエンタテインメント

 

3. 恋と深空 - 売上: 2.59億円

運営: 畳紙網絡(Papergames)2013年8月設立中国江蘇省蘇州市会社Nikkiシリーズが有名、資本関係が何も分からない

 

4.東京ディバンカー - 売上:2.06億円

運営: Coly Inc. (東京都港区)2014年設立2021年3月東京証券取引所マザーズ市場(現グロース市場)に上場した日本企業

 

5.魔法使い約束 - 売上: 1.29億円

運営: Coly Inc.

 

6.エリオスライジンヒーローズ - 売上: 1.09億円

運営: AIDIS Inc. (東京都渋谷区)2015年設立独立系ゲーム会社

 

7. 18TRIP (エイトリ) - 売上: 9,183万円

運営: CYBIRD Co.,Ltd. (東京都渋谷区)←2017年株式会社カプコン2017年完全子会社化された

 

8.うたのプリンスさまっLIVEEMOTION - 売上: 8,627万円

運営:KLab Inc. (東京都港区)2000年設立独立系ゲーム会社東京証券取引所プライム市場上場

 

9.ブレイクマイケース - 売上: 8,414万円

運営: Coly Inc.

 

10.アイドリッシュセブン - 売上: 8,247万円

運営:BANDAI NAMCO Entertainment Inc. (東京都港区)

 

Happy ElementsとPapergamesが成功しているのが気になるな…結構入ってきています

Permalink |記事への反応(0) | 16:19

このエントリーをはてなブックマークに追加ツイートシェア

2024-09-17

絵文字って海外でもemojiって言うらしいけど日本語としてではなくemotion+なにかみたいな英語の組み合わせとして認識されているのかな

Permalink |記事への反応(1) | 12:45

このエントリーをはてなブックマークに追加ツイートシェア

2024-09-05

anond:20240904032316

anond:20240904032316についてたブクマカの初めて買ったCDリリース年を調べた。

スクレイピング

Chromeコンソールから

for (let a ofdocument.body.getElementsByClassName('entry-comment-textjs-bookmark-comment'))console.log(a.textContent)

ってやってテキスト集める。

AIリリース年を教えてもらう

Microsoft Copilotに「以下の文章に出てくる、音楽CDタイトルリリース年を一覧で表にしてください。」って指示。

タイトルリリース
パンチ・ザ・クロック (エルヴィス・コステロ)1983年
ハイランドハードレイン (アズテックカメラ)1983年
TSUNAMI (サザンオールスターズ)2000年
ロケット団永遠に (ポケモン)1998年
パラダイス銀河 (光GENJI)1988年
さよなら人類 (たま)1990年
SUPER BEST II (CHAGE&ASKA)1992年
LOVEマシーン (モーニング娘。)1999年
treasure (B’z)1998年
pleasure (B’z)1997年
POPLIFE (JUDY AND MARY)1998年
F-ZERO GXサウンドトラック2003年
Chicago17 (Chicago)1984年
Wind Climbing ~風にあそばれて~ (奥井亜紀)1997年
バロック音楽不明
季節がいく時 (SPEED)1999年
天外魔境 (ゲーム)1989年
旅人のうた (中島みゆき)1995年
ドリームシフト (地球防衛組)1991年
INNOCENTSORROW (abingdon boys school)2006年
カルトグラススターズ (ミッシェルガンエレファント)2000年
悪の華 (BUCK-TICK)1990年
風が通り抜ける街へ (ZARD)1993年
My Little Lover1995年
globe1996年
小松未歩ファーストアルバム1997年
愛の言霊 (サザンオールスターズ)1996年
そばかす (JUDY AND MARY)1996年
中村めいこ不明
ポケットモンスター赤緑BGM音源1997年
TWO-MIXTRUTH1996年
Wind Climbing ~風にあそばれて~ (魔法陣グルグル)1997年
ジュラシックパークサウンドトラック1993年
After Burnerサウンドトラック (SEGA)1987年
LoveWing (ハミングバード)1993年
super best 2 (CHAGE&ASKA)1992年
中山美穂8cmCDシングル不明
C-Girl (浅香唯)1988年
天晴 (サディスティック・ミカ・バンド)1974年
Hi! (光GENJI)1988年
CAROL (TM NETWORK)1988年
DORATHE BEST (ドラえもん)1999年
がじゃいも1997年
美少女戦士セーラームーン~InAnotherDream1992年
交響曲ドラゴンクエストIV 導かれし者たちN響1990年
ポケモン言えるかな1997年
dear (大江千里)1989年
めずらしい人生 (KAN)1990年
BECAUSE (有頂天)1986年
スーパーゼビウス12inchEP (細野晴臣)1984年
ZUTTO (永井真理子)1990年
愛は勝つ (KAN)1990年
クラシックCD (100円ショップ)不明
ブルーハーツファーストアルバム1987年
I’mHere (小比類巻かほる)1988年
微笑みの爆弾 (幽遊白書)1992年
くじら12号 (JUDY AND MARY)1996年
無罪モラトリアム (椎名林檎)1999年
愛のままにわがままに 僕は君だけを傷つけない (B’z)1993年
WORST (聖飢魔II)1990年
BADDEST (久保田利伸)1989年
Delight SlightLightKISS (松任谷由実)1988年
リフレインが叫んでる (松任谷由実)1988年
Gift for Fanks (TM NETWORK)1987年
もっと強く君を抱きしめたなら1994年
Che Che-Bye Bye (種ともこ)1991年
負けないで (ZARD)1993年
愛と虐殺の日々 (聖飢魔II)1991年
ペットショップボーイズ1986年
機動戦士Zガンダムオリジナルサウンドトラック1985年
マルコじいさん (さねよしいさこ)1995年
めざせポケモンマスター1997年
淋しい熱帯魚 (Wink)1989年
キャロル (TM NETWORK)1988年
幽遊白書ミュージックバトル編1993年
蜘蛛の糸 (筋肉少女帯)1990年
Winners (サイバーフォーミュラー)1991年
だんご3兄弟1999年
Achtung Baby (U2)1991年
faith (George Michael)1987年
ダイアモンド (プリンセスプリンセス)1989年
The very best ofUnicorn1993年
ALFEEGOLD (ALFEE)1985年
そして伝説へ (鴻上尚史)1986年
マシンガンズの集い (SEX MACHINEGUNS)1998年
FF4アレンジミニアルバム1991年
ブルーウォーター (森川美穂)1990年
鉄骨飲料1990年
SPY (槇原敬之)1994年
尾崎家の祖母(3) (まりちゃんズ)1977年
TIME (REBECCA)1986年
もう一度TENDERNESS1995年
HIGHLANDER (爆風スランプ)1989年
空耳の丘 (遊佐未森)1990年
Yellow Yellow Happy (ポケットビスケッツ)1996年
リッジレーサー2サウンドトラック1994年
フラッシュパパメンソール (電気グルーヴ)1995年
さよなら人類 (たま)1990年
倉木麻衣アルバム不明
カルミナ・ブラーナ (輸入盤)不明
スキャットマン (Scatman John)1994年
白い雲のように (猿岩石)1996年
幽☆遊☆白書オリジナルサウンドトラックVol2~魔界の扉編~1994年
ヴェルディ川崎応援歌不明
ShinWeAre (BoA)2003年
忘れない/風の住む星 (西脇唯)1995年
ヴィヴァルディ四季不明
田園 (小学館クラシック・イン」)不明
ゼルダの伝説 風のタクトオリジナルサウンドトラック2003年
MUSIC from HYDLIDE31987年
君だけのTomorrow (ドロンズ)1997年
松浦亜弥アルバム不明
ドラクエサントラ不明
マンモスフラワー (フラワーカンパニーズ)2000年
めざせポケモンマスター1997年
ユグドラシル (BUMP OF CHICKEN)2004年
マリオRPGサウンドトラック1996年
ファイナルファンタジーVIIリユニオントラック1997年
Time toDestination (Every Little Thing)1998年
ショパンアルバム (アルゲリッチ)不明
ここは春の国 (谷山浩子)1988年
Valkyrie Notes (TONERICO)2019年
Love Phantom (B’z)1995年
with you (三上博史)1993年
夏の日の1993 (class)1993年
いとしのエリー (サザンオールスターズ)1979年
Round About Midnight (Miles Davis)1957年
Gift for Fanks (TM NETWORK)1987年
ez do dance (TRF)1993年
イージューライダー (奥田民生)1996年
ロマサガサウンドトラック1992年
ドラクエ2ドラマCD1990年
DATE (岡村靖幸)1988年
ETERNAL WIND (森口博子)1991年
ARAKAWA魂 (荒川ラップブラザーズ)2003年
愛の言霊 (サザンオールスターズ)1996年
ドラゴンクエスト3サウンドトラック1988年
モールワールド (ヒューイ・ルイス&ザ・ニュース)1988年
HOME (Mr.Children)2007年
trfアルバム不明
ガニ (とんねるず)不明
暴動 (There’s aRiotGoinOn) (Sly and the Family Stone)1971年
カミワザ -dIvine works-不明
シングルベスト10 おまけつき (シャ乱Q)1997年
カウボーイビバップサウンドトラック1998年
ガンダムF91サウンドトラック (森口博子)1991年
暴れだす (ウルフルズ)1995年
団子3兄弟1999年
エルドラド (THEALFEE)1997年
foo? (ポルノグラフィティ)2001年
Until StrawberrySherbet (林原めぐみ)1997年
勇気のしるし~リゲインテーマ~ (時任三郎)1989年
いとしさと切なさと心強さと (篠原涼子with t.komuro)1994年
REVIEW (GLAY)1997年
愛の言霊 (サザンオールスターズ)1996年
ナイスビート (キンモクセイ)2002年
Carol (TM NETWORK)1988年
サン=サーンスオルガン (マルティノン)不明
銀河鉄道の夜 (細野晴臣)1985年
ロード第二章 (THE虎舞竜)1993年
IT’SONLYLOVE (福山雅治)1994年
バザール3兄弟音頭不明
さよなら人類 (たま)1990年
フロムイエスタデイ (桑田佳祐)1992年
アスタリスク (ORANGE RANGE)2005年
ark (L’Arc~en~Ciel)1999年
春よ、来い (松任谷由実)1994年
ray (L’Arc~en~Ciel)1999年
ポケモン言えるかな1997年
ニーベルングの指環管弦楽曲集 (ショルティ/VPO)1986年
minoruland (向谷実)1986年
1stアルバム (人間椅子)1990年
the greatescape (JUDY AND MARY)2001年
bluebird (浜崎あゆみ)2006年
Variety (竹内まりや)1984年
Watermark (エンヤ)1988年
BEATEMOTION (BOOWY)1986年
ARAKAWA魂 (荒川ラップブラザーズ)2003年
MYSELF ~風になりたい~ (徳永英明)1991年
ひとりじゃない (DEEN)1996年
ドリームハンター麗夢サウンドトラック1985年
シンディ・ローパー不明
Keep The Faith (Bon Jovi)1992年
君がいるだけで (米米CLUB)1992年
シェイク (SMAP)1996年
決戦は金曜日 (DREAMS COME TRUE)1992年
SelEVENTHMOON (FireBomber)1995年
田園 (玉置浩二)1996年
プロビジョン (スクリッティ・ポリッティ)1988年
クラッシュ万事休す不明
yellow yellow happy (ポケットビスケッツ)1996年
STONED TOWN (akeboshi)2004年
ナイトフォール・イン・ミドルアース (ブラインド・ガーディアン)1998年
1st (ブルーハーツ)1987年
FENCE OF DEFENSE III (FENCE OF DEFENSE)1988年
カラクリハウス (レピッシュ)1989年
just communication (two-mix)1995年
マーラー交響曲7番「夜の歌」ロリン・マゼール指揮ウィーンフィル不明
未来航路 (La’cryma Christi)1997年
BELLS (吉田美奈子)1986年
原子心母 (Pink Floyd)1970年
プリパラミュージックコレクション不明
トラブル・イン・ヘブン (宇都宮隆)1994年
Kiss me (氷室京介)1992年
Past Masters1 (TheBeatles)1988年
superdonuts (スターダストレビュー)1990年
ザ・タイマーズ1989年
LIFE (小沢健二)1994年
FF5サウンドトラック1992年
踊るポンポコリン (B.B.クィーンズ)1990年
イノセントマン (ビリー・ジョエル)1983年
だんご3兄弟1999年
ベト5シューベルト未完成 (カルロ・マリア・ジュリーニ)不明
MAGIC OFLOVE (アニメ魔法陣グルグル)1994年
ラグランジュポイントサウンドトラック1991年

途中で切れたので分割する。 続き→anond:20240905115337

Permalink |記事への反応(1) | 11:46

このエントリーをはてなブックマークに追加ツイートシェア

2024-03-26

次に来るのはモチ

風呂でふと思いついたんだが、これまでのなんたらパフォーマンスって、自分が使えるなんたらの節約じゃないか

コストパフォーマンスって可処分資産節約だろ。

タイムパフォーマンスって可処分時間節約だろ。

それで考えると、あと節約したくなるものってあれしかないだろ。自分の心の余裕、可処分精神しかないだろ。(どうでもいいけど、マインドシェアって言う奴マジで居なくなったよな)

それで考え直すと、上の2つは可処分精神節約内包されてるんじゃないのか。

コスパがいい→「値段高!ただでさえ金がないのに、こんなに金掛かるのかよ!」というイライラ思考を取られない

タイパがいい→「動画長い!ただでさえ時間がないのに、こんなに待たされるのかよ!」というイライラ思考を取られない

どっちも、イライラ思考を取られないのが良いんだろう。ならそれが主体だ。

ということでキャッチー略称にしたいが、いい単語全然見当たらない。思考力だからthink?決断ならdecide?余裕ならmargin感情ならemotion?やる気ならmotivation?これなら略すならモチパか。美味しそう。

は〜〜〜〜〜〜もう適当に良いの決めたやつが優勝。それがいい。なんか悩んでたら俺の思考が削がれた。気に食わない。あとなんか部屋寒いカス。俺のモチパを下げてくるやつは許さん。てかもう全部俺の代わりに決めてくれよ。そのほうがモチパ良いから。

Permalink |記事への反応(21) | 21:19

このエントリーをはてなブックマークに追加ツイートシェア

2023-10-19

anond:20231018235734

語源的には英語の"emotional"を略したうえに日本語形容詞の「い」を付けたと思われるけど、既に原語の時点で"emotion"+"al"で形容詞なわけで、敢えて英語に戻すとエモーショナルアナルって言ってるようなもんでしょ?

そりゃそんな言葉公然公衆面前で使うなって指摘なら解るわ。

そもそも"emotion"の発音は「エモーション」じゃなくて「イモシャン」の方が近く、「エモい」ではなくて「イモい」が適切なんじゃねーの?

Permalink |記事への反応(0) | 22:58

このエントリーをはてなブックマークに追加ツイートシェア

anond:20231019000052

なんで第一トラバがThat PetrolEmotionなんだよ

懐かしくなって調べてみたら2008年再結成してたやん

2年後にはまた解散してたけど…

Permalink |記事への反応(0) | 20:26

このエントリーをはてなブックマークに追加ツイートシェア

2023-03-16

[qrng]無限の探求マルチバースへの旅

In the year 3000, humanity had finally discovered the secrets of the multiverse. Using theirmost advanced technology, they hadfound a way to travelbetween different paralleluniverses, eachwith their own unique physicallaws and structures.

As the first explorerssetouton theirjourneys, they encountered a myriad of strange and wondrous worlds. Someuniverses were filled withinfinite copies of themselves, while others were constantly shifting and changing, their physicallaws in astate of constantflux.

As they traveled deeper into the multiverse,the explorers encountereduniverses that seemed to follow completely differentsets of physicallaws. In some,time flowed backwards, and cause and effect were reversed. In others, matterwasmade up of entirely different particles, and energy behaved in completely unexpected ways.

Asthe explorers continued tojourney further, they began to encounteruniverses that seemed to be simulations, createdby beings in higher dimensions. They encountereduniverses where thelaws of physics were entirely mathematical, and others where the veryfabric ofrealitywasmade up ofpure information.

Atlast,the explorers came to auniverse that seemed to encompassall of the many-worlds interpretations. In thisuniverse, every possibleoutcome of every possible eventwas playedout ininfinite parallel realities.The explorers marveledat the incredible complexity anddiversity of thisuniverse,as they watchedendlessversions of themselves carryingoutendless variations of their own adventures.

As they prepared to leave thisuniverse and returnhome,the explorers realized that they hadonly scratched thesurface of the multiverse. They knew that there werestill countlessmoreuniverses to explore, eachwith their own unique physicallaws and structures.

And so, theysetoutoncemore, tojourney deeper into the multiverse, and to discover the secrets of theinfinite many-worlds that lay waiting to be explored.

Asthe explorers continued theirjourney, they encountered auniverse wheretimedid not exist,and another where thelaws of physics were governedbyemotion rather than math. In yetanotheruniverse, they discovered that consciousnessitselfwas the fundamentalbuilding block ofreality.

As they explored further,the explorers encountereduniverses where thelaws of physics were not constants but varied across space andtime. Theyfound auniverse where entropy decreasedover time,and another wheregravitywas repulsive rather thanattractive.

At theedge of the multiverse,the explorers discovered auniverse that seemed to containall of the otheruniverses withinit. Thisuniversewasinfinite in size and containedinfinite variations ofitself, eachone a slightly differentversion of theuniverse they knew.

As they traveled through thisuniverse,the explorers encounteredversions of themselves that hadmade different choices and lived different lives. Some of theseversions were almost identical to their own, while others were wildly different, with entirely different personalities and goals.

Atlast,the explorers returned to their ownuniverse, their minds reeling from the incredible sights and experiences they had witnessed. They knew that the multiversewas anendlesssea ofpossibility, and that there werestill countlessmoreuniverses to explore.

As they shared their discoverieswith therest of humanity, they realized that thetruenature of the multiversewasstill a mystery. They knew that there were many theories and hypotheses, but noone could say for sure whichonewas right.

And so,the explorers continued theirjourney, drivenby a hunger to uncover the secrets of the multiverse and to understand thetruenature ofrealityitself.

sHU2uEFZltSiv44bZEskqqwLmJpwM58GVdcmntcEZlWl9f6C_xmyortYKIGA97okYRnsRxxxJv4wfGA3AqWspArs7I5fjadr2Z7VUu8CzfCvh3DjnzLo7aLe894M85CjNn_2jnSJVL3DKqyGcmKS9d62NzhiZpyxyUz_f1jB5QMDndMKOOq6uKEquFjFnpgsDnFyxBvGylDZZKIKz_uJadKb5PRse1S6Bbsfey7TqHjy2HCKAvxHksTzgB8AvEkMBCdZrTAHCXfC8CcMfXHtQSLffQvjOthbjfOO0xIwNgAYZ5peAgwcldWXV1d6b1MxM350Il4Fqf3Cz0wNFf3i2BUe6Gq8Lhmqn2cVTr80CIuzFohW2YPCUBg2Ed5E7KBTHkIsZN74INQYoMmyNRQ7kxoa6bmPR9vsA6EZbfgOF9JTIdhI46FAQMta_Rtnn4xiYqbBs8osmqhCDUjlwo_YylzSnbH4plzU1JjkosWtTtpYQcdTyNBV572VKLB6wzxSp5o877avuAlkym7H3nV9Wfxu6Wi4k37td2x2L4PsOwe_PcjfxPBbZfZV36D125rJGfnnRgzMHf8LCWlsPtuuPXyd5V6xZeS6zD_naTNhsvCxduG16z27HdUV01VWvaW3VJZaHb9ziXsteVdGkKo9EHlmnX3m_QnWfJyByeLQVbHP9afNNxgIKpb0fYYedjDiLr_ZafVm8TPSRYBthjAXGLyuZ8l5bRwc9lD7mYx0Y6B5qEMgvpZku5FWeo61Jr8AC5acJ5y8RtkNzPB_o20HR6wK8PduyUjv3H3q2JxsYBFil6vY5o2R5xFZOrf6WCUD17jtUjRm4k2DV_euUXGikdvLiVDSQcWiFzae7o9Liote5M3vT6Z66aI1Rju9Cd5B_WWO5ejwRTLO4qAjx3O_P8vtNSdS3YfOdKwmmeKdDJyfBxRJ7yyCU2tvlDbS7vfCOd_AWb4sFQNzfjU1Nn7iHdo5vrzYTeh7XLbDkw1GuI8DJUOU31i06NpX9pxpVv7t

Permalink |記事への反応(0) | 11:40

このエントリーをはてなブックマークに追加ツイートシェア

2021-07-28

メダルの数だけ給付金が貰えたらunitedbyemotionできると思う

金メダル 10000円

銀メダル 5000円

銅メダル 3000円

Permalink |記事への反応(0) | 01:33

このエントリーをはてなブックマークに追加ツイートシェア

2021-07-25

開会式を見て生きる気力がなくなってしまった

芸術権利政治にたいして何も影響しないということ、正直わかってた。

それでも情勢なんか気にしないほどの感動は作れるものだと思ってた。

実際は芸術は何にも意味がないってことをオリンピックが教えてくれた。

「unitedbyemotion」「感動で私たちは一つになる」ってコンセプトだし感動している人もいるし

私たち」に自分が入れなくて悲しくなったってだけの話なんだと思う。

一流の人が関わっているんだから、一つ一つのものは凄いかもしれないし熱意はあったかもしれない、

それを僕は意味を汲み取ることができなかったし、理解できない熱意が虚しくテレビから流れてくるだけだった。

僕は芸術の才能がないから、芸術を最大限にサポートできる職を選んだし、

表現をすることで世界を変えられるって本気で思って、

芸術があるから辛いことも乗り越えられるって勝手に思って仕事してきたけど、

オリンピックのおかげでようやく目が醒めた。

意味のないもののためにお金を払って、見たり聞いたりして、仕事を頑張ったり感動してきた自分が恥ずかしいな

Permalink |記事への反応(4) | 22:52

このエントリーをはてなブックマークに追加ツイートシェア

オレっちバカから五輪開会式のコンセプト

「Moving Forward」

「UnitedEmotion

が全く理解できんかったわ

だれかわかりやすく総括してくれよ

Permalink |記事への反応(1) | 20:26

このエントリーをはてなブックマークに追加ツイートシェア

2021-07-24

その結果をご覧ください

FOX葬式のような開会式

 

This lookslike the rehearsal! Hard towatch !

(これはリハーサルのようですね!見てて辛いです!)

 

[FOXSPORTS] ‘Like attending a funeral’: Fansslamworst ever’ Opening Ceremony

https://www.foxsports.com.au/tokyo-olympics-2021/tokyo-2020-olympics-opening-ceremony-reaction-covid19-coronavirus-news-social-media/news-story/bbc05cf5d1e5ac930bb839a9104891fd

 

 

USAトゥデイ 「それは奇妙な、時には気まずい、そして非常に不協和な4時間プレゼンテーションでした」

 

But inanother – especially considering the controversy behindthe Games and the toll they are takingonJapan andthe world – this lackluster ceremonyis ahuge letdown. What's thepoint ofall the risk,all the testing and quarantining and masks, if thisis the bestemotion and spectacle we can muster?

(しかし、大会の背景にある論争や、大会日本世界に与えている影響を考えると、このつまらない式典は大きな失望です。これが私たちが集めることができる最高の感情光景(スペクタル)であるならば、すべてのリスク、すべてのテスト隔離マスクに何の意味があるのでしょうか?)

 

[USATODAY]Review: TheTokyo Olympics opening ceremonywasmore of a whimper than a bang

http://www.usatoday.com/story/entertainment/tv/2021/07/23/olympics-opening-ceremony-review-2021-whimper-not-bang-tokyo/8067253002/

他もこんな感じ 

NBCアスリートファーストはいずこへ」

CNNTOKYOは50年前から変わっていないようだった」

ABC日本風のコメディ、我々には理解不能

CBS「史上最低の開会式

NYタイムズ権力にまみれた開会式

ワシントンポストIOCによる、IOCのための開会式

 

2008年北京 <チャン・イーモウ

カンヌ映画祭審査員グランプリ

ヴェネツィア映画祭金獅子賞×2

代表

紅いコーリャン

初恋のきた道

HERO

 

2012年ロンドン <ダニー・ボイル

アカデミー賞監督賞

代表

スラムドッグ$ミリオネア

127時間

イエスタデイ』

 

2016年リオ <フェルナンド・メイレレス

アカデミー賞監督賞ノミネート

ニューヨーク映画批評家協会賞外国語映画賞

代表

シティ・オブ・ゴッド

ナイロビの蜂

ブラインドネス

 

2021年東京 <小林賢太郎

ATP賞テレビグランプリ最優秀賞

代表

爆笑オンエアバトル

※開催前日に解任

 

anond:20210724011639anond:20210725195249

Permalink |記事への反応(0) | 16:03

このエントリーをはてなブックマークに追加ツイートシェア

オリンピックゲーム音楽ドラクエ と NieR な時点でなにも良くない

早速、海外ニュースになってる

Attonight’s opener, the organizers usedthe music ofKoichi Sugiyama, a notoriously homophobic andultranationalistJapanese composer—despite warnings thatit mightgoover very badly.

(今夜の開会式では、主催者からの警告にもかかわらず、ホモフォビアで超国粋主義者作曲家として知られるすぎやまこういち氏 の音楽が使われた。) 

 

He’s denied the Nanjing MassacrebyJapanese troops in the late 1930s. Hehas stated that theKorean womenwho were workingas sexual slaves to theJapaneseempire were actuallyhappy-go-lucky prostitutes. He’s a misogynistwhodoes notbelieve in the equality of the sexes,and a homophobewhodoesn’tbelieve children should be taught about homosexuality or that LGBTQ people should receivegovernment supportas “theydon’t produce children.”

(彼は1930年代後半の日本軍による南京大虐殺否定している。日帝性奴隷として働いていた朝鮮人女性は、実は幸せ売春婦だったと発言している。彼は男女の平等を信じないミソジニストであり、同性愛について子供たちに教えるべきではない・LGBTQの人々は "子供を生まない "ので政府支援を受けるべきだとはないと考える、ホモフォビアである。)

 

TheTokyo 2020 Olympics were supposed to be a showcase ofall that’sgood aboutJapan. But through carelessness,greed, and incompetence,it keeps showing thatJapanisrunby an ossified elitewho lack an understanding ofbasichuman rights, tolerance, andcommonsense.”

(2020年東京オリンピックは、日本の良いところをすべて見せてくれるはずだった。しかし、不注意、強欲、無能によって、日本基本的人権や寛容さ、常識理解していない骨抜きのエリートによって運営されていることを示し続けている。)

 

[The DailyBeast] A Notoriously HatefulJapanese Composer’sMusic Just Opened theTokyo Olympics

https://www.thedailybeast.com/music-of-koichi-sugiyama-the-notoriously-hateful-japanese-composer-opens-tokyo-olympics-in-latest-gaffe?source=articles&via=rss

 

ドラクエ海外知名度が低過ぎて今は無名の人がぽつりぽつり呟く程度で済んでる

海外フォーラムでなんか言ってるのも今のところ日本人っぽいのしかいない

 

あと全体のクオリティが低過ぎなのも救いの要素

なにせ、worst って入れると "worst olympics" 、"worst ceremony"、"worst olympics ceremony" って

オリンピック関連のサジェストが出てくるレベルから

 

FOXは割とばっさりいってる

 

This lookslike the rehearsal! Hard towatch !

(これはリハーサルのようですね!見てて辛いです!)

 

[FOXSPORTS] ‘Likeattending a funeral’: Fansslamworst ever’ Opening Ceremony

https://www.foxsports.com.au/tokyo-olympics-2021/tokyo-2020-olympics-opening-ceremony-reaction-covid19-coronavirus-news-social-media/news-story/bbc05cf5d1e5ac930bb839a9104891fd

 

 

But inanother – especially considering the controversy behindthe Games and the toll they are takingonJapan andthe world – this lackluster ceremonyis ahuge letdown. What's thepoint ofall the risk,all the testing and quarantining and masks, if thisis the bestemotion and spectacle we can muster?

(しかし、大会の背景にある論争や、大会日本世界に与えている影響を考えると、このつまらない式典は大きな失望です。これが私たちが集めることができる最高の感情光景(スペクタル)であるならば、すべてのリスク、すべてのテスト隔離マスクに何の意味があるのでしょうか?)

 

[USATODAY]Review: TheTokyo Olympics opening ceremonywasmore of a whimper than a bang

http://www.usatoday.com/story/entertainment/tv/2021/07/23/olympics-opening-ceremony-review-2021-whimper-not-bang-tokyo/8067253002/

  

でも低温のまま(誰も興味がない状態のまま)どこかの団体が抗議を入れると思うよ。すぎやん起用に

 

NieR も倫理的に十分ヤバいけど NieR は誰も触れないのかもな

▼ NieR

 → NieR はドラッグ オン ドラグーンシリーズ世界を共有している悪趣味な厨二ゲーム

 

 

 

日本コンテンツ業界倫理観が終わりすぎ

 

anond:20210724045627anond:20210724064212anond:20210724073847anond:20210724074810anond:20210724091625anond:20210724171841anond:20210725221817anond:20210726193523anond:20210726193211anond:20210726081714anond:20210726144349anond:20210728023557anond:20210728222516anond:20210729035645anond:20210729035856anond:20210729170309

Permalink |記事への反応(2) | 06:11

このエントリーをはてなブックマークに追加ツイートシェア

2021-07-18

anond:20210718085148

まさに「UnitedbyEmotion

東京オリンピックモットー

Permalink |記事への反応(1) | 14:55

このエントリーをはてなブックマークに追加ツイートシェア

次の25件>
ログインユーザー登録
ようこそ ゲスト さん
Copyright (C) 2001-2025 hatena. All Rights Reserved.

[8]ページ先頭

©2009-2025 Movatter.jp