
はてなキーワード:followupとは
こんなプロンプトでDeepResearchがどんなレポートを出せるか試せますか?
あと、聞き返されたら
「欧米、中国、日本を中心に。余裕があればG12やその他必要だと思える国や地域も含む。国や地域を明記せよ」、「余裕があれば貨幣、法律、民主主義、ガラス、鉄、火薬、アルミニウム、アンモニア、プラスチックなどのレベルの発明も含めよ。国や地域を明記せよ」
とか返してみて下さい。これ以外の文脈で聞き返されたら「おまかせします」か元増田様の興味の範囲で好みにアレンジして下さい。
#技術動向調査要請プロンプト(2025-2027年フォーカス)
以下の要件を厳密に満たす調査分析を実施せよ。各項目の出力形式を厳守し、客観的根拠に基づく定量的評価を優先すること。
## [【分析要件】](pplx://action/followup)
-実用化時期:2025-2027年に商用化/社会実装が見込まれる
- 影響規模:全球GDPの0.5%以上に影響または10億人以上の生活に波及
R = \frac{(P_t \times 0.3) + (F_c \times 0.4) + (M_r \times 0.3)}{10} \times100(%)
3. 影響評価軸:
## [【出力形式】](pplx://action/followup)
### [個別技術分析テンプレート](pplx://action/followup)
| 分野 | 指標 | 2025 | 2026 | 2027 |
| ------ | ------ | ------ | ------ | ------ |
| 経済 | 生産性向上率 | 3.2% | 5.1% | 7.8% |
| 社会 | 代替労働力率 | 12% | 18% | 25% |
| 技術 | 故障間隔時間 | 400h | 1200h | 3000h |
### [歴史的変遷分析要請](pplx://action/followup)
T_{evolution} = \sum_{n=1}^{5} \frac{I_{tech}}{S_{society}}
| 時代 | 期間 | 核心技術 | 文明影響度 |
| ------ | ------ | ---------- | ------------ |
| 農業革命 | BC10,000 | 灌漑技術 | 定住社会形成 |
| 産業革命 | 1760-1840 | 蒸気機関 | 都市化加速 |
| デジタル革命 | 1947-2000 | トランジスタ | 情報民主化 |
| AI融合期 | 2020- | 神経形態チップ | 意思決定分散化 |
単に英語力と思慮、注意力の欠落です。
Introducing ChatGPT
We’ve trained amodel called ChatGPT which interacts in a conversational way. The dialogue format makesit possible for ChatGPT toanswerfollowup questions, admitits mistakes, challenge incorrect premises, andreject inappropriate requests.
英語話者であればこれを斜め読みしただけでアトム的な質問回答機としては使わない、
ページ翻訳ではニュアンスが伝わりにくいんだよね、普段から英文で仕事してたり慣れてる人間じゃないとこの説明文で言わんとする所はピンと来ないだろう。
かつ、まともな思慮と注意力がある人間なら、GPTてなんじゃ?ってところは使う前に調べる、
グレート?ジェネレート?プロ?プレ?プロフェッショナル?プロダクト?テキスト?トランザクション?
まぁ頭の中でなんか思い浮かべながら(この段階でもブランディング誘導は始まってる、日本人にはこれが効かない)
で、横線ページをスクロールさせる、SAMPLEだのMethodsだのまぁこれ日本人の大半は読んでないんだろう。
ここまで英語話者が読んだらよもやChatGPTを検索タスクとして使おうとは思わんよ。
で、Generative Pre-trained Transformerを見つける、はいはいと
トランスフォマーだよ、車がロボットに変形したり、電柱の上にぶら下がってるやつ、アメリカだと路上だが
ともかく、変換器ねと理解し解釈して使い出すんだからそりゃ検索タスクには使わん。
で、と、増田はChatGPTを生成AIだと言うてる、世間一般でもそのように呼称されてはいるのだけど
OpenAI社のドキュメント類、ChatGPTの説明文を調べてご覧、このプロダクトを人工知能だとはどこにも書いてない。
ドキュメントコントロールの部署が検閲し注意深く表現に配慮している様子が伺える
これは重要な点で
同社の画像AIのダル(DALL·E 2)は明瞭にAIと標榜しているのと対象的
AIの国際的な規格は無い、どういう基準でAIを名乗れるか、法的なしばりは無い、冷蔵庫だってAI内蔵を名乗りたけりゃ名乗れる、技術要素の裏付けは不要
だがOpenAI社はあえてChatGPTをAIだと呼ばない。
1、AI規制の世論、方向性を見極めてからでも遅くない(ユーザーやメディアは勝手にAIとブランディングしてくれるし)
説明する、
AI法規制議論真っ只中、どっちに転ぶかわからん、最悪ガチガチ規制もありえる、できたばかりの法や規制に対してノーアクションレターは通りにくい
何れにせよ商売はやりにくくなる
関係者は頻繁に公聴会やらに呼ばれている状況、ここら温度感は日本はまたまた周回遅れなんだが
企業戦略としてChatGPTをAIと自らは名乗らないのは正解なの、AIの法的定義すらない段階で、先々AI指定を回避する一つのキーになりかねない
訴訟になったときに「え?ワイらそもそもChatGPTをAIだと言うたことはありませんが?」これが主張できる
自分から「これはグレートなAIでっせ」と標榜していたらもはや逃れられない。
ともかく、笑えるくらい慎重に彼らはChatGPTを人工知能だとは宣伝しない、生成AIではないんです。
そもそも、技術ドキュメントを読んでも古典的なAIの技術は使われてない。
所謂ニューラルネットワーク、パーセプトロン、脳機能の模倣をどのような手法や計算で再現するか
Pre-trainedの部分では使ってるが、応答エンジンの部分では実装されてない、たぶん、しらんけど
で、ChatGPTが嘘デタラメを混ぜるのは故意です、俺は確信してる
いろんなプロンプト、少しずつ字句を変えたり、応答の考察をしたんだけど、わざと信頼精度を下げてるとしか思えない。
これパラメーターの調整でいかようにもできるはずなんだが、かなり意図的に嘘捏造が混ざるようにチューニングされてる。
ようはこれもAI議論の方向性を誘導するための戦略だろう「しょせんこの程度っすよ」と