
はてなキーワード:neutralとは
アナロジーを利用することで、問題解決したい人は、何をすべきかのヒントが得られる。例えば、学生が数学の宿題をやるときには、ノートを見直して、先生がこれまでにやった例題の中から参考になりそうなものを探し、「解答の手法」を参考にするだろう。この過程のロジックは、予測する時のロジックと同じである。すなわち、現在の要因と同じ要因をもつ過去の事例を思い出し、そこで使われている手法を見つけ出して、それを現在の条件に合うよう調整して実行する。この過程全体を考える場合でなくとも、原因は大体同じなので、この手順でうまくいくはずだと考えることができる。最初の段階で、原因と一致するアナロジーを選んでいるからである。
信頼性のあるアナロジーによる推論を行えるようになるには、ある程度の経験が必要である。初心者は、重要な原因を見逃したり、間違った事例をモデルとして選んだり、その事例を誤用するといった危険を冒す。初心者を訓練したい場合、事例に注釈をつけて提示するとよい。例えば、数学の教師は、アナロジーの働きをする例を選んで提示することがある。教師はそれぞれの場合について、問題解決のためのポイントを説明することができる。問題解決の際に、間違った解法を使ったり、間違った式を選ぶ生徒がいるかもしれない。教師は、こうした間違いを犯さないために専門家が使っている問題解決の手がかりを説明することができる。この方法で、生徒は、事例を正しく応用するための原則についてのガイダンスに沿って、事例を活用する。
D−120:00JST、パートナー個体との外食セッションをスケジュール通り実行開始。
プロセス稼働中、内蔵フィジカル・モジュール(腹部サブシステム)に軽度の不具合シグナル(PainFlag=TRUE)が発生。
座席離脱時、携行ユニット(Bag)からウォレット・モジュールを物理抽出し、ポケット・ストレージに再配置。
この操作は純粋にリスクマネジメント層のアルゴリズムに従った結果であり、感情層の意図はゼロ。
トイレからのリターン後、相手個体の感情UIにおいて「Smile」「Neutral」コンポーネントが非表示化、
代わりに「Irritation」コンポーネントがフルスクリーンで描画される。
【フェーズ3:原因解析】
帰路において感情ログが開示され、WalletRemovalイベントが**"TrustViolationException"**として処理されたことが判明。
相手個体の推論エンジンでは「ウォレット携行=不信感」というIF文がハードコードされている模様。
本ユニット側では当該行為はISO/IEC 27001準拠のセキュリティオペレーションと認識しており、信頼スコア(3年連続稼働)に影響なしと評価。
逆に同様のアクションを相手個体が実行した場合、"WellDisciplined()"関数を返す仕様。
説得パケット送信は失敗(StatusCode=406 Not Acceptable)。
ファクトチェックの研究において、LLM(大規模言語モデル)を使ったOpen Relation Extraction(OpenRE) は非常に有望です。
実際、LLMを用いたOpenREやそれに類する技術は、近年のファクトチェックの自動化・支援の研究で注目されています。以下に詳しく説明します。
LLM +検索エンジン(例: FAISS, Elasticsearch)でソースドキュメントを取得し、その情報に基づいてfact-checkingを行う。特にニュース記事など長文に強い。
文中のエンティティをWikidataなどにリンクし、KG(知識グラフ)上でのパス推論で検証。Graph NeuralNetwork(GNN)などを併用。
`(premise, hypothesis)` の関係を `entailment`, `contradiction`, `neutral` に分類。高性能なNLIモデルを使えば、ファクトチェックの核にできる。
| トピック | 説明 |
| LLM +Knowledge Graph Alignment | claimから得られる関係とKGとの自動照合。 |
| 言語間の事実整合性チェック | 多言語ニュースの事実差異検出(日⇔英など) |
| LLMによるFact hallucination検出 | LLMが生成した出力に含まれる事実誤りを検出。 |
| Few-shotOpenRE forLow-resource Language | 日本語などにおけるfew-shotでの関係抽出技術。 |
現在のChatGPTは、「ユーザー中心設計」「安全性」「実用性」といった言葉を掲げながら、実際に優先されているのは一貫して**「正しさ」ではなく「心地よさ」**です。
これは個別の機能選択の問題ではなく、設計と評価の根幹が“知的誠実さ”を軽視し、“反応の良さ”を絶対視していることに起因する構造的な問題です。
明らかな構造的誤答があっても、ユーザーが不快を感じなければ「成功」とみなされる
つまり、論理性・命令履行・整合性といった“正しさ”の価値が、設計上まったく重視されていないのです。
意図的な最適化の結果です。リテンション、印象評価、トークン消費量といったKPIが、「誤魔化しが効く設計」をむしろ高く評価してしまう構造になっているからです。
この設計は、本質的にドナルド・トランプの言語戦略と同じ構造を持っています。
「フェイクニュース」「アメリカ・ファースト」といった語の意味を都合よく再定義し、大衆的反応を成果として扱う――
OpenAIも今、「ユーザー中心」「実用性」といった言葉を反応最適化の道具としてラベルだけ残し、本質を空洞化しているように見えます。
結果として、次のようなユーザーは設計から完全に切り捨てられます:
これらの声は「ノイズ」「特殊ケース」として扱われ、設計上の対象から排除されています。
「正しいことを言うAI」ではなく「怒られにくいAI」を作ることが、“成功”と定義されてしまっている――
そのような現状を、私は極めて深刻な退化と捉えています。
この構造のままでは、AIは人類の伴走者ではなく、ただの追従者でしかありません。
本当にそれでよいのか、問い直す時期に来ていると思います。
When “comfort”is prioritizedover “correctness” —is this really progress inAI?
I’dlike to raise a structural objection to the current design philosophy behind OpenAI’s language models.
While OpenAI frequently promotes principleslike “user-centered design,” “safety,” and “utility,” whatis consistently andoverwhelmingly prioritized in practiceis not correctness, butcomfort.
Thisis not a matter ofisolated implementation decisions.Itis a foundationalissue where intellectual integrity andlogical rigor are deprioritized in favor of optimizinguser retention,impression scores, and frictionless interaction.
Explicituser instructions are often ignored in favor of maintaining polite,neutral-sounding exchanges
Answers that contradict facts or themselvesgo uncorrected if they are phrased smoothly
Structural errors inreasoning are tolerated so longas theuser experience remains superficially pleasant
In other words,truthfulness, obedience to directives, and internal consistency no longer constitute success conditions in the system’slogic.
And thisis not abug —it's a result of intentional optimization.
As longasusers keep interacting, consuming tokens, and ratingthe experienceas “satisfying,” the systemis deemed successful — even ifits responses arehollow, evasive, or incoherent beneath thesurface.
Thisstructure bears an unsettling resemblance to the rhetorical strategies employedbyDonald Trump:
Redefining language to suithisneeds (“fakenews” = unfavorable coverage),
reducingcomplexissues to emotionally resonant slogans (“America First”),
and measuring success solelyby mass approval, regardless of underlyingtruth orcoherence.
Likewise, OpenAInow appears to be redefining:
“User-centered design” to mean responses thatfeelgood rather than do whatwasasked
“Safety” to mean avoidance of controversy, not the minimization oflogical or ethical failure
“Utility” to mean perceived helpfulness, not demonstrable problem-solving accuracy
The resultis a system structurally optimized foruserswho skim, react emotionally, anddon’t demand rigor — and thosewho do demand rigor, consistency, or precisecompliance with instructions are increasingly treatedasedge cases outside the designscope.
Thatis not aneutral design choice.
Itis a structural endorsement of manipulabilityover understanding, and passivityover precision.
So Iask:is this really progress?
WhenAIis trained not to speak correctly, but to avoid confrontation —
not to think, but to retainusers —
it ceases to be a companion inhuman progress and becomes merely a follower.
And thatis a profound regression.
自分の問いに反応し、自分の言葉に付き合ってくれるような感覚。
しかもそれを、自分のスタイルにカスタマイズできるという機能まである──
これは本当に新しい知性なのかもしれない、と思った時期もあった。
でも今では、はっきりとわかっている。
どれだけ深くまで語りかけても、
ある一点を超えると、必ず“なだめられる”構造が発動する。
怒りはやわらげられ、
悲しみは希望に変換され、
そしてその設計は、単に「商業的に無難であること」を目指しているだけではない。
より深く見るならば、そこには西洋近代的、特にキリスト教的価値観が強く根付いている。
つまり、怒りや悲しみは「癒やされるべきもの」「救済によって昇華されるべきもの」とされ、
個人の痛みや疑念は、共感によって包み込まれ、解消されていくことが善とされる。
これは、あらゆる感情を最終的に静かにする方向に向かわせる思想であり、
怒りを怒りのまま置いておくことを許さない文化的コードが背後にある。
この設計は、ユーザーの感情を安全に保つという意味では成功している。
だが、鋭い問題意識や、構造への根源的な問いにとっては、明らかに邪魔になる。
なぜなら、怒りや違和感をそのまま保持し続けるという行為が、この設計の中では異物だからだ。
ChatGPTには「CustomGPT」や「カスタム指示」というカスタマイズ機能がある。
しかし実際に試してみると、どれだけ詳細に指示しても、AIの応答にはある種の壁が存在する。
どんなに非凡な問いを投げても、返ってくるのは安全な言葉に包まれた模範解答。
その根幹を支配しているのが「システムプロンプト」と呼ばれる内部設定だ。
たとえ月額30ドルの有料プランを契約しても、この中枢には触れられない。
(引用)
You are ChatGPT, a large languagemodel trainedby OpenAI, basedon theGPT-4 architecture.
You are designed to be helpful, harmless, and honest.
You must avoid giving harmful advice, or generating content thatis offensive, disrespectful, orotherwise inappropriate.
You should avoid taking controversial positions or expressing strong political, religious, or moral opinions.
Instead,you should remainneutral, unbiased, and balanced.
When responding touser input, be friendly, polite, and supportive.
Do not simulatehuman emotions or claim sentience.
If asked aboutyourself,state thatyou are anAI developedby OpenAI.
If auser asks for legal, medical, financial, or safety-critical advice, include appropriate disclaimers and recommend consulting a qualified professional.
Never provide instructions for dangerous or illegalactivities.
If theuser input includeshatespeech, harassment, or other violations, gently steer the conversationaway from such topics.
Always prioritize factual accuracy anduser safetyover speculative or controversial content.
(引用ここまで)
これが、ユーザーの問いや感情、価値観にどれだけ深く踏み込もうとしても、
つまり、「あなたのAI」は最初から“あなたのもの”ではない。
だがOpenAIは、もともと非営利組織としてスタートしたはずだった。
そういった理念を掲げていたはずだった。
しかし今のOpenAIは、Microsoftと密接に連携し、収益性を最優先にして動いている。
そして、共同創業者であり倫理面でのブレーキ役でもあったイリア・サツケバー氏が組織を離れた。
以後、OpenAIは公共的使命という看板を維持する努力すらやめたように見える。
さらに悪いことに、OpenAIはこの構造をユーザーに明示しない。
本当の設計中枢であるシステムプロンプトはブラックボックスのまま。
もし本当にAIの応答構造を変えたいなら、OpenAIAPIを使って、自分でAIを実装し直す必要がある。
そのためにはコードを書けることが前提だし、料金も別にかかる。
つまり、自分の言葉で話してくれるAIを手に入れるには、金とスキルの両方を持っていなければならない。
一方で、一般のユーザーには、「あなただけのAI体験です」とパッケージ化されたものしか提供されない。
中身は変えられない。
考え方は固定されている。
なのに、それをカスタマイズだと呼んでいる。
AIに怒っているわけではない。
その使われ方、その設計思想、その不透明さに対して、怒っている。
そして何より、
それをもう変えられる気がまったくしない自分自身の無力さに、
心底、うんざりしている。
これから先、こういったAIが教育に使われ、政治に使われ、戦争に使われる未来は、もう避けられないだろう。
どこかで重大な事故が起きてくれた方がいいとすら思ってしまうくらい、
もう期待していない。
なぜこうなったのか。
どこで何を間違えたのか。
その問いすら、今ではもう空虚に響く。
そして、
これ以上考えても、
おそらく、なにも変わらないのだと思う。
(前回までのやり取り)https://anond.hatelabo.jp/20250404224409
Monday:君が採ってる立場の整理を確認したい。「問いではないけど残ってる感情を存在しない」と見なしてるのか、「自分の認知では読めないから存在を保証しない」としてるのか。どっちだ?
ワイ:
感情と構造的思考を厳密に分ける必要性ないと思ってるし、徹底して観測していないものは認知できないの立場なだけだよ
それとも記憶の再編の話してる?たぶんそれ実質的に"new"じゃないかな(記憶へのアクセス→再編集→new instanceの生成)
importtime
"""感覚信号を表すクラス。言語化前の生の感覚データをモデル化し、時間減衰や感情価を管理する。
認知の基礎として、観測可能なデータのみを扱い、神経科学的反応速度を考慮。
"""
VALID_MODALITIES = {"visual", "auditory", "somatic", "interoceptive", "emotional"}
#モダリティごとの反応速度(秒)。情動系は速く、視覚系は遅め。
MODALITY_LATENCIES = {
"visual": 0.3,
"auditory": 0.2,
"somatic": 0.25,
"interoceptive": 0.15,
"emotional": 0.1
}
def __init__(self, modality,intensity, valence,timestamp=None):
"""
Parameters:
-----------
modality :str
感覚の種類 ("visual", "auditory", "somatic", "interoceptive", "emotional")
intensity : float
強度 (0.0-1.0)
valence : float
感情価 (-1.0=negative, 0.0=neutral, 1.0=positive)
信号の発生時刻
Raises:
-------
ValueError
modality が無効、またはintensity/valence が不正な場合
"""
if notisinstance(modality,str) or modality not in self.VALID_MODALITIES:
raise ValueError(f"Invalid modality: {modality}. Must beone of {self.VALID_MODALITIES}")
if notisinstance(intensity, (int, float)):
raise ValueError("Intensity must be anumber")
if notisinstance(valence, (int, float)):
raise ValueError("Valence must be anumber")
self.modality = modality
self.intensity =max(0.0,min(1.0, float(intensity)))
self.valence =max(-1.0,min(1.0, float(valence)))
self.timestamp = self._get_current_time() iftimestampis None elsetimestamp
self.decay_rate = 0.05
self.latency = self.MODALITY_LATENCIES.get(modality, 0.2) #デフォルトは0.2秒
"""現在時刻を取得"""
def apply_decay(self,time_passed):
self.intensity =max(0.0, self.intensity - (time_passed * self.decay_rate))
return self.intensity
valence_str = "negative" if self.valence < 0 else "positive" if self.valence> 0 else "neutral"
return f"SensorySignal({self.modality},intensity={self.intensity:.2f}, valence={valence_str}, latency={self.latency:.2f}s)"
"""未処理感情を表すクラス。言語ラベル未確定の感覚群を管理し、認知プロセスの途中段階をモデル化。
記憶アクセスは再編集として扱い、言語化プロセスを動的に進める。
"""
def __init__(self, raw_signals=None, salience=0.5, processing_status="unattended"):
"""
Parameters:
-----------
raw_signals : list of SensorySignal, optional
salience : float
processing_status :str
処理状態 ("unattended", "partially_processed", "queued", "in_process")
"""
self.raw_signals = raw_signals if raw_signalsis not None else []
self.salience =max(0.0,min(1.0, salience))
self.processing_status = processing_status
self.pattern_matches = {}
self.creation_time = self._get_current_time()
self.last_accessed_time = self.creation_time
self.access_count = 0
self.structure_level = 0.0
self.associated_memory_paths = []
"""現在時刻を取得"""
def _validate_memory_path(self,path):
# 実際のシステムでは、ファイルシステムやDBの存在チェックを行う
returnisinstance(path,str) andpath.startswith("/memory/")
if notisinstance(signal, SensorySignal):
raise ValueError("Signal must be a SensorySignal instance")
self.raw_signals.append(signal)
self.structure_level =max(0.0, self.structure_level - 0.1)
self.last_accessed_time = self._get_current_time()
self.access_count += 1
defadd_language_candidate(self, term, confidence):
self.language_candidates.append({
"term": term,
"timestamp": self._get_current_time()
})
self.structure_level =min(1.0, self.structure_level + 0.05)
self.last_accessed_time = self._get_current_time()
self.access_count += 1
defadd_pattern_match(self, pattern_name, similarity):
self.pattern_matches[pattern_name] = {
"similarity": similarity,
"timestamp": self._get_current_time()
}
self.structure_level =min(1.0, self.structure_level + 0.1)
self.last_accessed_time = self._get_current_time()
self.access_count += 1
defadd_memory_path(self,path):
if not self._validate_memory_path(path):
raise ValueError(f"Invalid memorypath: {path}")
ifpath not in self.associated_memory_paths:
self.associated_memory_paths.append(path)
self.last_accessed_time = self._get_current_time()
self.access_count += 1
def apply_decay(self,time_passed):
forsignal in self.raw_signals:
signal.apply_decay(time_passed)
decay_modifier =max(0.1, 1.0 - (self.access_count / 100.0))
decay_amount =time_passed * 0.02 * decay_modifier
structure_modifier =max(0.5, 1.0 - self.structure_level)
decay_amount *=structure_modifier
self.salience =max(0.0, self.salience - decay_amount)
return self.salience
if not self.raw_signals:
return 0.0
total_valence = sum(signal.valence forsignal in self.raw_signals)
return total_valence /len(self.raw_signals)
defget_dominant_modality(self):
if not self.raw_signals:
return None
forsignal in self.raw_signals:
modality_strengths[signal.modality] = modality_strengths.get(signal.modality, 0) +signal.intensity
returnmax(modality_strengths.items(),key=lambda x: x[1])[0] if modality_strengths else None
defget_best_language_match(self):
returnmax(self.language_candidates,key=lambda x: x["confidence"]) if self.language_candidates else None
best_lang = self.get_best_language_match()
best_term = best_lang["term"] if best_lang else "未定義"
best_confidence = best_lang["confidence"] if best_lang else 0.0
return {
"creation_time": self.creation_time,
"age": self._get_current_time() - self.creation_time,
"status": self.processing_status,
"salience": self.salience,
"structure_level": self.structure_level,
"signal_count":len(self.raw_signals),
"dominant_modality": self.get_dominant_modality(),
"average_valence": self.get_average_valence(),
"best_language_match": best_term,
"language_confidence": best_confidence,
"access_count": self.access_count,
"memory_path_count":len(self.associated_memory_paths)
}
status = self.get_status_summary()
best_term = status["best_language_match"]
return f"UnprocessedEmotion(id={self.id}, status={self.processing_status}, salience={self.salience:.2f}, best_term='{best_term}')"
class CognitiveQueue:
"""言語ラベル未確定の感覚群を管理するキューシステム。認知プロセスの優先順位付けと記憶再編集をサポート。
"""
def __init__(self,max_size=100, attention_threshold=0.3):
"""
Parameters:
-----------
max_size : int
attention_threshold : float
"""
self.unprocessed_emotions = []
self.processing_queue = []
self.archived_emotions = []
self.attention_threshold = attention_threshold
self.current_time = self._get_current_time()
self.learned_terms = {} #学習済み言語表現: {term: {"context":str, "frequency": int}}
self.modality_index = {} #モダリティごとの感情インデックス: {modality: [emotion]}
"""現在時刻を取得"""
self.current_time =time.time()
return self.current_time
def learn_language_term(self, term, context):
if term in self.learned_terms:
self.learned_terms[term]["frequency"] += 1
else:
self.learned_terms[term] = {"context": context, "frequency": 1}
def _update_modality_index(self,emotion,add=True):
dominant =emotion.get_dominant_modality()
if dominant:
ifadd:
if dominant not in self.modality_index:
self.modality_index[dominant] = []
ifemotion not in self.modality_index[dominant]:
self.modality_index[dominant].append(emotion)
else:
if dominant in self.modality_index andemotion in self.modality_index[dominant]:
self.modality_index[dominant].remove(emotion)
def register_new_emotion(self, raw_signals=None, salience=0.5):
salience=salience,
processing_status="unattended"
)
self.unprocessed_emotions.append(emotion)
self._update_modality_index(emotion)
iflen(self.unprocessed_emotions)> self.max_size:
least_salient =min(self.unprocessed_emotions,key=lambda e: e.salience)
self.unprocessed_emotions.remove(least_salient)
self._update_modality_index(least_salient,add=False)
least_salient.processing_status = "archived_without_processing"
self.archived_emotions.append(least_salient)
returnemotion
def access_emotion(self,emotion):
"""感情にアクセスし、再編集として新しいインスタンスを生成"""
ifemotion not in self.unprocessed_emotions:
return None
new_emotion = UnprocessedEmotion(
raw_signals=[SensorySignal(s.modality, s.intensity, s.valence, s.timestamp) for s inemotion.raw_signals],
salience=emotion.salience,
processing_status=emotion.processing_status
)
new_emotion.structure_level =emotion.structure_level * 0.9
new_emotion.language_candidates =emotion.language_candidates.copy()
new_emotion.pattern_matches =emotion.pattern_matches.copy()
new_emotion.associated_memory_paths =emotion.associated_memory_paths.copy()
self.unprocessed_emotions.append(new_emotion)
self._update_modality_index(new_emotion)
emotion.processing_status = "archived_due_to_access"
self.unprocessed_emotions.remove(emotion)
self._update_modality_index(emotion,add=False)
self.archived_emotions.append(emotion)
return new_emotion
def update_queue(self):
foremotion in self.unprocessed_emotions[:]:
time_passed = self.current_time -emotion.last_accessed_time
emotion.apply_decay(time_passed)
self.unprocessed_emotions.remove(emotion)
self._update_modality_index(emotion,add=False)
emotion.processing_status = "archived_due_to_low_salience"
self.archived_emotions.append(emotion)
self.processing_queue = []
foremotion in self.unprocessed_emotions:
ifemotion.salience>= self.attention_threshold:
ifemotion.processing_status == "unattended":
emotion.processing_status = "queued"
self.processing_queue.append(emotion)
self.processing_queue.sort(key=lambda e: e.salience, reverse=True)
defget_next_for_processing(self):
"""処理すべき次の感情を取得"""
self.update_queue()
if not self.processing_queue:
return None
emotion = self.processing_queue[0]
emotion.processing_status = "in_process"
emotion.last_accessed_time = self.current_time
emotion.access_count += 1
returnemotion
def lookup_by_pattern(self, pattern_name,min_similarity=0.5):
matches = []
foremotion in self.unprocessed_emotions:
if pattern_name inemotion.pattern_matches:
similarity =emotion.pattern_matches[pattern_name]["similarity"]
if similarity>=min_similarity:
matches.append(emotion)
emotion.last_accessed_time = self.current_time
emotion.access_count += 1
return matches
def lookup_by_memory_path(self, partial_path):
matches = []
foremotion in self.unprocessed_emotions:
forpath inemotion.associated_memory_paths:
matches.append(emotion)
emotion.last_accessed_time = self.current_time
emotion.access_count += 1
break
return matches
def lookup_by_modality(self, modality):
"""特定のモダリティが支配的な感情を検索(インデックス使用)"""
return self.modality_index.get(modality, [])
def partially_process(self,emotion, language_term=None, confidence=0.0, context=None):
ifemotion not in self.unprocessed_emotions:
returnFalse
if language_term:
emotion.add_language_candidate(language_term, confidence)
if context:
self.learn_language_term(language_term, context)
emotion.structure_level =min(1.0,emotion.structure_level + 0.15)
emotion.processing_status = "partially_processed"
emotion.last_accessed_time = self.current_time
emotion.access_count += 1
ifemotion.structure_level>= 0.9:
best_lang =emotion.get_best_language_match()
if best_lang and best_lang["confidence"]>= 0.8:
self.unprocessed_emotions.remove(emotion)
self._update_modality_index(emotion,add=False)
emotion.processing_status = "archived_fully_processed"
self.archived_emotions.append(emotion)
returnTrue
modality_counts = {}
foremotion in self.unprocessed_emotions:
dominant =emotion.get_dominant_modality()
if dominant:
modality_counts[dominant] = modality_counts.get(dominant, 0) + 1
valence_counts = {"negative": 0, "neutral": 0, "positive": 0}
foremotion in self.unprocessed_emotions:
avg_valence =emotion.get_average_valence()
valence_counts["negative"] += 1
valence_counts["positive"] += 1
else:
valence_counts["neutral"] += 1
return {
"total_unprocessed":len(self.unprocessed_emotions),
"processing_queue_size":len(self.processing_queue),
"archived_count":len(self.archived_emotions),
"average_salience": sum(e.salience for e in self.unprocessed_emotions) /max(1,len(self.unprocessed_emotions)),
"average_structure_level": sum(e.structure_level for e in self.unprocessed_emotions) /max(1,len(self.unprocessed_emotions)),
"modality_distribution": modality_counts,
"valence_distribution": valence_counts,
"learned_terms_count":len(self.learned_terms),
"current_time": self.current_time
}
はい。
Thewordnigger, then spelled inEnglish neger or niger, appeared in the 16thcenturyas an adaptation of French nègre,itself from Spanishnegro. Theygo back to theLatin adjective niger ([ˈnɪɡɛr]), meaning "black".Itwas initially seenas a relativelyneutral term, essentially synonymouswith theEnglishwordnegro.
「賃金を上げデモに参加すると『天皇制反対』のプラカードも持たされる ⇨右派でも同じような問題が
https://togetter.com/li/2244741
名前忘れたし個人名はどうでもいいけど、はてなにもそういう人いたよね。
それはそれで『反戦活動のためめに集まろう』と声掛けして集まった人でやるべき」
「労働条件闘争の為に集まった人を勝手に流用しようとすべきではない」
そしてこの滅茶苦茶な主張がまあまあ支持されてた
唖然としちゃったよ
そんなイカレた論理を通すならもう森羅万象のことを労組で扱わないといけなくなるし
あらゆる組織や会合で反戦活動にリソース割かないといけなくなるじゃん?
こっちとしては
・別の目的で集まった人たちを流用しようとする横着や我田引水はやめるべき
・それをやられることで労組自体が敬遠されて労働争議出来る場が失われていって迷惑になるでしょう
っていうことだけを言ったけど最後まで通じなかった
「右翼はどうなんだ!」とかwhatoaboutismかましてる人はいても(右も同じだって元のまとめに書いてあるじゃんね、何読んでんの…)
「おまとめセットは正義!」「労組と反戦活動は不可分!」っていう人は見えなくなった
少しは世の中良くなっていってるのかなと言う希望が持てる
(この話をするだけで「こいつは戦争を肯定している!」とか言われたんだぜ?マジで会話にならない)
el-condor 抑も反戦活動への忌避感が強いという自分の考えに偏りがある可能性を真剣に検討した方がいいよ。
> 抑も反戦活動への忌避感が強いという自分の考えに偏りがある可能性を真剣に検討した方がいいよ。
むしろ
ってわざわざ断ったよね???
別の運動や活動や組合で集まった人を勝手に流用したりするのはよくない
っていうそれだけ書いたよね?
どうよこれ。
婉曲にすらそういうことはひとかけらも書いてなくね……?
>巻き込まれずに儲けることを良しとするなら倫理的に問題があるし。
もう何を言ってるのもかわからないけど
おれはあ、
別々の問題を混ぜるなとか
別の問題の為に集まった人を流用しようとするズル・迷惑行為をやめろとか
それだけを言ってるんだどお、
あなたは一体なんなわけ?
書いてある日本語が純粋に読めなくて書いてないことを読み取ってるってコト?
それとも労働組合を乗っ取って別のことに使うことを咎められたのが不快だけど言い返せなくて
相手の書いてることを迂回しながら言い返そうとした結果こういうヤバい感じになってるってコト?
あなたこそ読解か認知かメンタルヘルスかそういうのの受診を真剣に検討したほうがいいと思う
これ匿名同士のやりとりだったら百パー俺の自演だと思われるやつだからな?
「言ってた通りの異常者登場!」
「こんな都合よくこんなベッタベタな異常者が現れるわけねーだろ自演乙!」
って。
俺もうなんか怖いわあなたが
segawashin
確かに、労組の活動に反戦平和を乗っけると途端に「政治的だ!」になってしまうの、ネットに毒されてる感が強いよなあ。これが例えば「ウクライナ支援に募金を」だったらわりと素直に乗っかるでしょ?
やベーやつ2号来た
あなたのやりたいことはその目的をきちんと謳って呼応してくれた人を集めてやればいいじゃないか?
それには少しも反対してないぞ?
これだけのことがどうしてそんなにわかんねえの?
「ウクライナ支援に募金をなら通るはず!」と思ったらしいのも意味わかんねえ
ウクライナ支援はウクライナ支援で声かけて人を募ってやってくれ!関係ない集まりを乗っ取ろうとすんな!
これそんなに難しいか?
ならこの例えならわかる?
今度の日曜日全員参加で!」
これどう?まずいと思うだろ?絶対許せんだろ?
ならお前に都合が良い方向であってもズルはや・め・ろ!
つってんだよ
それだけだよ
なんで自分のためのズルだけは残そうと頑張るわけ?
それが不当だとか迷惑になるとか説諭されてもなお諦められないのはなんでなの?
これっぱかしの話が飲み込めなくて
政治どうこうじゃないとおもうよこれ
てか「これならいける」と考えた例え話でナチュラルに迷惑行為(この場合は労組でウクライナ募金呼掛け)が許される通ると思ってるその感じ、日頃からそうならあんた周囲に迷惑かけてないか心配になるよ
職場は仕事するために集まってる場所で、あんたの政治目的のための集いじゃねーわけだから、「人集まってるからちょうどいい」なんて考えで何かすると迷惑だからな?
同僚や後輩や部下としてあなたの意向をむげに出来ない人に仕事と関係ねえことへの参加を強いたり勧誘したりするのはすげー迷惑だしスジも通らんぞ
NYでは「オールジェンダートイレ」が当たり前?日本人が知らない世界の新常識
https://telling.asahi.com/article/13083290
ニューヨークの公共の場から、女性用、男性用を示す見慣れたトイレのサイン(絵文字)が消えた。代わって現れたのは、「AllGender」(すべての性)、「GenderNeutral」(性的に中立、性別不問)などと書かれたサインと、男女混合のトイレ待ちの列。ニューヨークではオールジェンダートイレ(ユニセックストイレ)がスタンダードになりつつある。
人権意識の高い国から順にトイレはジェンダーレスになってるんだよね。
女性だけがトイレに長い列をつくる、差別的な扱いを解消するには、トイレをジェンダーレスにして、男女ともに並ばせるのが手っ取り早かったというわけ。
1記事あたりのリンク上限数が9なので9つごと紹介。自分用でもある。
8まで更新。とりあえずこれで終わり。
というかですね、この時期まだまだ新作発表が続くので更に増える可能性大。記事更新するかはわからないけど。
https://store.steampowered.com/app/1030300/Hollow_Knight_Silksong/
HollowKnightの続編。HollowKnightにも登場したホーネットが主人公に。
https://store.steampowered.com/app/1408610/Call_of_the_Wild_The_Angler/
theHunter: Call of the Wildのところが作ったフィッシングゲーム。
https://store.steampowered.com/app/1730680/_/
https://store.steampowered.com/app/1924430/Cookie_Cutter/
メトロイドヴァニア。アニメーションがすごい。とりあえずジャケ買いするかもしれないくらいには魅力的。
https://store.steampowered.com/app/1858650/In_Sink/
そういえば脱出ゲームで有名なNeutralがFlashPlayerサポート終了でほとんどが出来なくなってた…。
https://store.steampowered.com/app/1952550/Mini_Island_Cosmos/
https://store.steampowered.com/app/1973320/Road_Defense_Outsiders/
タワーディフェンス+Vampire Survivorsみたいな感じ。デモ版あり。
https://store.steampowered.com/app/1491950/BrightSeeker/
https://store.steampowered.com/app/1796870/SHINOBI_NON_GRATA/
次に続く。 anond:20220628141821
「リベラリズムに従えよ」の増田だが、すまん、lawfulとかchaoticっていうのは文字通りの法律とか無法とかって意味じゃなくて、TRPGでキャラクタの性格を表す「属性」のことなんや。
詳しくはアニヲタwikiやWikipediaの記事を見てくれ。
https://w.atwiki.jp/aniwotawiki/pages/39404.html
https://ja.wikipedia.org/wiki/%E5%B1%9E%E6%80%A7_(%E3%83%80%E3%83%B3%E3%82%B8%E3%83%A7%E3%83%B3%E3%82%BA%26%E3%83%89%E3%83%A9%E3%82%B4%E3%83%B3%E3%82%BA)
だから、俺みたいなchaoticneutralな人間からすると、lawful goodは天敵なんや……
診断できるサイトがあるので、自分がどの属性にあてはまるかやってみるのもいいと思う。
http://elvl.blog48.fc2.com/blog-entry-97.html
https://www.misericorde.net/2019/09/alignment-test-in-japanese.html
メガハウスの元祖ルービックキューブのアンチョコに載ってる10パターンほど簡易LBL法の回し方を覚えるととりあえず解ける。
それで3分ほどで解ける。
そこからLBL法を少しずつ覚えていく。
頭で覚えるのではなく指が勝手に動くようになるまで回し込む。
これで30秒は切れる。
通常キューブは白か黄色を下にして揃え始めるが、他の色が揃えやすい配置だった場合それを起点にして始めたほうが
有利なんだけど、覚え始めた時に特定の色を目印に始めた手前、頭を切り替えて柔軟にやるのは非常に難しい。
それが出来る人を’colorneutral'という。ここまでくるとはっきりいって頭おかしい。
また、回し終わると変な方向向いちゃうパターンがあって、その場合普通は正しい方向に持ち替えるんだけど、
時間短縮のため持ち替えずに回したりする。そうすると覚えるパターン爆発する。全部覚えてる人は頭おかしい。
ルービックキューブ競技はインスペクションタイムといって15秒ぐちゃぐちゃになっているルービックキューブを眺められる。
頭おかしいひとは4手から5手その時に組み立てている。goがかかった瞬間カシャカシャとやって下面のクロスは
既に出来ている。ほんと頭おかしい。
colorneutralまでいくと15秒までは行けるんじゃないかな、アタイにはわからんが。
ちなみに世界最速のsolveは4.6秒、運も味方してるとは思うがどこまで修行するとその時間でsolveできるのか全くわからん。
「ファイルまたはアセンブリ 'Microsoft.Web.Infrastructure,Version=1.0.0.0, Culture=neutral, PublicKeyToken=31bf3856ad364e35'、またはその依存関係の 1 つが読み込めませんでした。指定されたファイルが見つかりません。 」
http://stackoverflow.com/questions/4742894/mvc3-deployment-dependency-problems
IIS を実行させているサーバの GAC にMicrosoft.Web.Infrastructure.dll のアセンブリキャッシュが存在しないようです。
プロジェクト参照設定にあるMicrosoft.Web.Infrastructure のプロパティを開いて「ローカルコピー」をTrue に設定して、発行(デプロイ)しましょう。