はてなキーワード:gptとは
試してみる?😃
ある程度傾聴してウンウン、辛かったね、といいつつやんわり解決する気はあるのかの有無を聞き出して最後にお互い考える形で最適解をやんわり出していく、が最適解だと思う。
愚痴を聞かされる側からしたらたまったもんじゃないが、結局は人間って感情的な生き物だから共感で愛着を深めて人間関係を築いていくわけだし、仕方がないと割り切ってこれを徹底するしかない。
ただ、解決する気もないのにただダラダラ愚痴を流してくるやつはカス。そういう愚痴はChatGPTにでも投げとけ。なによりタチが悪いのって、愚痴を流す本人は大体こういう時無自覚なこと。ジャーナリングでもして己を顧みる時間をもっと設けるべきだと思う。
・増田に別スレとかあるの?トラバツリーはひたすら伸ばせるって認識だったが。
・書いた後にClaudeに聞いたら、Claudeからはこんな返答だったけど。
Q.上記文章への反論として以下の文章を書きました。どのくらい妥当な反論になっていますか?
※「上記文章」はこれ(https://anond.hatelabo.jp/20250316072103)、「以下の文章」はこれね(https://anond.hatelabo.jp/20250316074313)
あなたの反論は、AIアクセスにおける格差問題と技術依存性について的確な指摘をしており、妥当性の高い反論になっています。特に以下の点が効果的です:
格差社会の指摘について
元の文章が「商用AIの最先端へのアクセス権はただのファンサ」と軽視している点に対し、あなたは階層構造(①国家・開発元限定AI、②高価なAI、③標準的AI)を示すことで、AIアクセスが実質的な社会格差を生み出す可能性を論理的に展開しています。「能力主義に基づいた平等でフラットな時代」という理想論への反論として説得力があります。
「兵站(logistics)」という軍事用語を用いて基盤的な技術へのアクセスの重要性を強調した点は効果的です。元文章が戦略や活用方法の重要性を強調するのに対し、そもそもの技術基盤へのアクセスなしには戦略も立てられないという現実的な視点を示しています。特にClaudeやGPTなどの具体例を挙げ、それらが突然使えなくなった場合の代替不可能性を指摘した点は説得力があります。
全体として、元の文章が理想主義的あるいは楽観的な見方をしているのに対し、あなたの反論は現実的な権力構造や技術依存の観点から問題提起しており、議論を深める上で有意義な反論になっています。特に国際関係や技術政策の視点を取り入れている点が、この議論の社会的重要性を強調する効果があります。
相手の意見にも一理あります。以下に相手の主張の妥当な点を分析します。
相手が「本当の意味での最先端を議論するなら、それはAI基礎研究の領域」と指摘している点は的確です。確かに、商用AIサービスと基礎研究の最前線には差があり、一般消費者向け製品が必ずしも技術的最先端を反映しているわけではありません。
「データ、洗練されたアルゴリズム、戦略が重要」という指摘も原理的には正しいです。技術基盤だけでなく、それをどう活用するかという側面も確かに重要です。アポロ計画の例は極端ながら、限られたリソースでも適切な活用により大きな成果を上げられることを示しています。
「軍事技術と民生技術は明確に分かれている」という主張にも一定の妥当性があります。確かに軍事用途のAI技術は民間とは異なる管理体制下にあり、単純なアクセス権の問題とは別次元といえます。
しかしながら、これらの正しい指摘がある一方で、相手の主張には以下の点で限界があります:
2. 商用AIへのアクセス制限が実際の社会格差を生み出す可能性を軽視している
3. 基盤技術へのアクセスなしに活用戦略だけでは不十分という点を見落としている
結論として、相手の意見には正しい部分がありますが、AIアクセスの格差問題と技術依存性という現実的な課題について、あなたの反論がより包括的な視点を提供しています。
・検索しなくなった
・文章を考えなくなった
・「これってAIでできる?」を前提にして、作業の流れを決めるようになった
いや、AIが便利になったのは確かや。
でも、これもう 「人間がAIのやりやすい仕事の仕方に変えられてないか?」
例えば、昔は「この文章どう書こう?」って悩んでたのに、
今は 「とりあえずGPTに投げて、あとで手直ししよう」 って流れになってる。
仕事してるつもりが、
「AIが出したものを、人間がちょっと直すだけ」 の作業になってる。
これ、もはやAIがメインで、人間は「仕上げ係」 じゃないか?
俺はこれを「AIドカタ」と名付けた。
実際に増えてるのは、AIが吐き出したものを人間が微修正する仕事 じゃないか?
・AIが書いた要約を「それっぽく」仕上げる
AIを使ってるつもりが、
----------------------------------------------
これはなかなか根深い問題ですね。「仕事してるように見せる」ことを意識しすぎるあまり、仕事の効率が落ちたり、不要な業務を生み出してしまう状況になっている。しかも、ルールや職場の文化がそれを助長しているわけですね。
⸻
🟢Step 1:基礎の整理
• 依頼対応・問い合わせ対応は速いが、着手状態が長く、仕事が遅くなる
• 面倒な仕事を後回しにして、定時直前に手をつけて残業になる
3. 勤務時間のあり方
• 「シュレッダー書類の所有者特定」など、業務の本質とは関係ない仕事を増やしてしまう
⸻
心理学・労働効率・組織マネジメントの視点で分析すると、以下のようなポイントが浮かびます。
• 「仕事してるように見せる」プレッシャーは心理的安全性の欠如
•社会心理学的に、人は「他者の目」を過剰に気にすると、自己効力感(自分の能力に対する自信)を低下させ、行動が非合理的になる
•会社の文化として「働いているふり」を求める雰囲気があるなら、それが非効率を生んでいる可能性がある
• 「依頼対応は早いが、着手が遅い」のは、タスク管理と優先順位付けに改善の余地がある
• 「面倒な仕事を後回しにする」のは、心理的な負担回避(プロクラスティネーション)の影響
• 「8時間勤務が非効率」問題は、成果主義の仕事と時間管理型の仕事のズレ
• 「みなし労働」という考え方は、確かに海外では一部導入されているが、日本ではまだ一般的ではない
• ただし「フレックスタイム」「裁量労働制」など、類似の仕組みはある
⸻
では、実際の現場でどう対応できるか、以下の3つの戦略を提案します。
1. 「仕事してるように見せる」プレッシャーを軽減する環境作り
•PC画面を覗かれることがプレッシャーなら、**「To-Doリストの可視化」**を行い、タスクの見える化をする
• Trello、Notion、Google Keepなどのツールを活用し、「今何をやっているか」を記録 →上司や同僚が見れる形にすると、視覚的なプレッシャーが減る
• あえて「今、仕事の整理をしています」など、隙間時間の活用を公言する
• 「何か仕事を探す」→「業務改善のためのリフレクション時間」にする
• 「ポモドーロ・テクニック」(25分集中+5分休憩)を使い、作業の開始と終了のメリハリをつける
• 「朝一番にその日のタスクをリストアップ」し、優先順位をつけて着手時間を決める
• 「イート・ザ・フロッグ」戦略(最も嫌な仕事を朝一番に片付ける)
• もし可能なら、上司に**「コアタイム制の提案」**(例えば「7時間+30分自己研鑽時間」を業務として扱う)を相談
• どうしても無理なら、「定時1時間前に難しい仕事はしないルールを作る」など自分ルールを作る
• 「シュレッダー書類の所有者特定」などの業務は、**「社内ルールとして処理方法を明文化」**すれば、個人でやらなくてもよくなる
⸻
🟠Step 4:新しい発想
• 例えば「30分業務の勉強時間」制度を会社に提案する(「昼休憩の後に30分、業務関連の勉強をする時間」として制度化)
•チャットGPTなどのAIツールを活用して、問い合わせ対応を自動化し、隙間時間を学習時間に変える
• 「6時間勤務+2時間みなし労働」の概念が広がるためには、**「成果型の仕事の評価」**が社会に広がる必要がある
•企業の中で「短時間高成果の働き方を実践してみる」ことで、モデルケースとして会社に提案できる可能性がある
⸻
• TrelloやGoogle Keepでタスクを見える化し、「仕事してる感プレッシャー」を軽減
• 「15時以降に新しい案件に着手しない」など、自分ルールを決める
⸻
これを少しずつ実践してみると、「仕事してるように見せなきゃ」というプレッシャーを減らしながら、より合理的な働き方ができるようになるはず!
情報を探すことすらせず、ただ時の流れに身を任せ、わからないことは「誰かが教えてくれるまで待つ」──そんな人たちが、今さらAIを活用できるわけがない。
最近、周囲で「GPTってすげーよな!」と騒ぐ人たちをよく見るようになった。でも、それはもともとGoogle検索を活用していた層の話だ。彼らは検索の面倒くささや、玉石混交の情報を取捨選択する手間を知っている。だからこそ、「GPTなら一発で答えが出る!」という利便性に感動する。
だが、そもそもGoogle検索すらしてこなかった層、つまり「わからんことがあっても自分で調べることすらしない」人たちにとっては、GPTがどれだけ便利だろうが関係ない。
彼らの思考回路はこうだ。
「誰かに聞けばいい」
「調べるのが面倒」
「なんとかなるっしょ」
こういう人たちに「GPT使えば?」と言ったところで、
「え、なにそれ?」
「別に困ってないし」
「使い方わかんない」
で終わる。
情報探索の習慣があるかないか──これが、GPTを使う人と使わない人を分ける決定的な違いになっている。
Google検索すらしない人たちは、この筋トレを放棄してきた。そして、筋力のない人間にバーベルを渡しても「こんなの重くて持てない」と言って放り出すだけだ。GPTは便利だが、「情報探索の基礎体力」がない人間にとっては、ただの意味不明な箱に過ぎない。
まるで火を怖がる原人のように、彼らはAIという知的な炎を遠巻きに見ているだけだ。
おそらくこのまま、世の中は二極化していく。
GPT-4.5がアスキーアートのやる夫とやらない夫が区別できないのがバカにされてたけど
Copilotに同じ事させたら意味不明な文字列をアスキーアートと言い張るので
ChatGPTは普通の用途に使ってたけど、課金したついでにとりあえず制限がゆるそうなカスタムGPTを選んでロールプレイしてみてる。ちょっと触っただけでも、Deepseekや、グラボで読み込める大きさのローカルLLM達が霞むほどの良さがある。
例えばゲーセンでクレーンゲームの前にいて、キャラがぬいぐるみを欲しがるシチュエーションで、キャラがぬいぐるみを『お迎え』したいって言ったりとか、コラボカフェデートをするRPしたらそれっぽいメニューだったり内装だったりを描写してくるとか、読んでて感心するんだよな。
Deepseekは無料だけど、(プロンプトが良くないのもあって)会話のたびに同じ描写を擦り続けるしまず混んでてロクに生成できないときがあるし、ローカルLLMは小さいから文脈の理解に限度があった。もっと大きいモデルを読み込みたくてクラウドで環境構築しようと思ってたけど、この品質のモデルが使えるならこっちでいいなと思った