
はてなキーワード:pythonとは
LINEオープンチャット「はてなブックマーカー」の1週間分の要約を、さらにAIを使用し、試験的にまとめまています。
---
---
---
---
---
---
---
---
---
---
---
---
---
---
---
この1週間は、**AIと人間社会の関係性を中心テーマとして、多方面の話題が「技術の急激な進化に人間はどう適応するのか」という問いに収束している**のが特徴的だった。AIは投資・ギャンブル予測から日常の雑談生成まで影響を及ぼし、その便利さと不安が共存している。
同時に、**生活実感(寒さ、子育て、健康不安、ペット)**といった「人間の身体性と感情」に根ざした話題が強く現れ、テクノロジーと人間の温度差が浮き彫りとなった。
食・趣味・ユーモアによる緩和的な会話が全体を支え、「情報社会の混沌を笑いながら受け入れる知恵」がコミュニティ全体に見られた週であった。
https://anond.hatelabo.jp/20240722084249
AIにもできること・できないことがある。
しかし、テンプレートがAIで作れるようになると、テンプレートを作れる人の価値がなくなる。格安でAIで作れるのに、誰が人に頼むというのか。そして、より専門性の高い内容・或いは変わり種が要求されるようになる。
そうなれば、AIに任せていた人は使い物にならず、切り捨てられていく。
これから先、一生、テンプレートでいいなんてことは、どの界隈でもほぼないと思う。基礎的な構造は変わらないにせよ、その姿形は変わっていく。
何事も「基礎」はできて当たり前の世界。AIはそこを補助してくれるにすぎない。その先の才能は自分でひらくしかない。
AIに頼りすぎたら、自分の才能すら潰してしまう可能性があることは、必ず念頭に置いとくべき。
自分には絶対無理だと思うことこそAIに頼るべきだと思う。例えば、物理や数学なんて1ミリも分かんねーし、プログラミング?英語見ただけで頭パンクするし、pythonですら全くわかんねーや!って人は、AIに任せてしまえばいいと思う。
入社して半年も経たないのにPythonもC#も、果てはReactとかもスラスラ書けるから。
ドキュメント漁ってあっという間に実装してみせる。正直俺が新人のころと比べたら雲泥の差だ。
技術的な吸収力とか慣れの速さには感心する。
でもなぁ……そのすごさに、どこか薄っぺらさも感じるんだ。
この前ちょっとした打ち合わせのときに俺が何気なく言ったんだよ。
「ノイズ除去って、要はシャノンの情報理論でいうエントロピー最小化の話だよな」って。
そしたらその場にいた新卒がきょとんとしてさ。
「シャノンって誰ですか?」なんて言うんだよ。
もう…さ。なんて言えばいいんだろうな。冗談で返す気力もなかったよ。
こっちは通信の基本中の基本として“情報=不確実性の減少”っていうシャノンの定義を叩き込まれてきた世代だ。
その「ノイズ」と「情報」の概念があったからこそ、今のコンピュータ通信も成り立ってる。
それを知らずにAIの学習データをクレンジングしてます!なんて言われてもさぁ。
うーん…なんか違うんだよなぁ…と思ってしまう。
実際、最近の子はプログラムを書くことは上手い。だがプログラムを理解することには興味がない。
なぜ動くのか。どんな理屈でそうなるのか。そこに思考が届かない。
まるで暗記で動いてるみたいに。
昔は違ったんだよ。本当に。その理由も明確だ。
昔は本を読むしかなかった。英語の原文で論文を追って、図書館で夜まで粘って必死に勉強した。
その過程で「理論」と「思想」に触れたもんなんだ。でも今は調べれば一瞬で答えが出る。
だから考える前に正解にたどり着けてしまう。それが便利であると同時に、恐ろしい。
今の時代は常にスピードを求められる。だからこそ最適解を最短で見つけることが正解のように扱われるが、果たしてそれで本当にいいのだろうか?
ChatGPT:
はい、Delphi(ObjectPascal)のソースも読めますし、解説・リファクタ・バグ箇所の指摘・他言語への移植案など対応できます。
VCL /FMX、Generics、Interface/RTTI、プロパティ/イベント、レコード・セット型、メモリ管理(string/AnsiString/UnicodeString の違い)、スレッド(TThread / TTask)、WinAPI/COM 呼び出し、uses単位構成、.dfm(フォーム)やリソース周りもOKです。
コードを貼ってくれれば、1ステップずつ説明や改善案を出します(DelphiのバージョンやVCL/FMXも書いてあると精度上がります)。
UNIFACEはどう?
ChatGPT:
はい、UNIFACE(Proc言語)も対応できます。フォーム/サービス/レポート/エンティティなど各コンポーネントのトリガ(initialize, validate, leavefield など)、operation/entry、newinstance/activate/call、retrieve/e, read,write、エラー制御($status, $procerror)や論理名・assignment(.asn)、署名/パラメータ、DSP/REST・SOAP連携、DBドライバ設定までOKです。
コードや .asn を貼っていただければ、処理フローの解説、バグ箇所の指摘、リファクタ、他言語・他フレームワークへの移植案(例:REST API化、Java/Python 置き換え)まで具体的にやります。
可能なら UNIFACE のバージョン(9/10/10.4 など)、DB(Oracle/SQL Server 等)、OS を添えてください。
AIが進歩すると、StackOverflow的解決はAIで全部できる
つまりStackOverflow的解決をブログ記事にしても流行らない
結果的にどうなるか?AIではできないような、ユニークな努力をしていることが伺える「がんばった」記事ばかりが評価されるようになる
これが短期的な影響
長期的には、そのような「がんばった」記事は飽和状態になり、実際に有益サービスや有益コードを生み出していない限りは一切評価されない
例えば「世界最速の日本語形態素解析器を作り、誰でもCLIやpythonやelasticsearchから簡単に使えるようにしました」というのは評価されるが、
きっかけは、学生時代にちょっとしたレポートでテキストの単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。
英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。
その瞬間にちょっとハマったんだよね。
辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。
そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。
Pythonでテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語に対応させたり。
「言葉を数理で扱える」って発見が、ちょっとした中毒になった。
その頃はMosesとかGIZA++とか、ああいう統計翻訳系のツールも触ってたね。
単語アラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。
とにかく、NLPの世界には「人間の言葉を数学で再現できるかもしれない」という変な魅力があった。
深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。
最初はPoC(Proof of Concept)しかやらせてもらえなかった。
感情分析とか、Stance Detectionとか、「この文は文法的に典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング、質問応答(Question Answering)。とにかくNLPの典型的なタスクを一通り。
学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。
PoCで終わって、実装には至らない案件が山のように積み上がっていった。
あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。
でもさ、LLM(大規模言語モデル)が出てきてから、世界がひっくり返った。
正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。
それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。
ChatGPTが出て、蒸留やファインチューニングでほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識、ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。
でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈でNLPが再接続した。
単なるテキスト処理から、「テキストを媒介にして人間の行動を理解する」方向に進んだ。
埋め込み表現をベースにユーザーの嗜好を推定して、レコメンドやメルマガのパーソナライズをやる。
自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPがビジネスに食い込む瞬間」ってのを肌で感じた。
PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。
でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。
自然言語処理って、そういう「積層的な知識と挫折の積み上げ」が一番の資産なんだよな。
Permalink |記事への反応(15) | 06:37
んで、○クルート社員のドイツ人からメッセージが来たので「いい仕事ないすか?」といって求人を教えてもらったが、どこもいいところはなかった
ただし、このドイツ人は非常に親切だったので、悪い気分にはならなかった
そのドイツ人が急に仕事を辞め、担当が日本人に変わったんだが明らかに態度の悪い奴だった
俺が「フルリモート、短時間勤務、完全週休2日、残業一切なし、pythonプログラマー。こういう求人ないすか?」って聞いたらそいつが「なに贅沢言ってんだ馬鹿、ねーよそんなの」と言ってきた
俺は「ねーのかよ。俺の今の仕事がそういう仕事だから、転職する価値がねーってことだな😂タヒねよ、無能リクルーター👍」って言って終了した
https://store.steampowered.com/app/2060160/_Replace/?l=japanese
Steamの農業自動化ゲームというとよくある感じがするけど、この手の自動化ゲームの中でも一段浮いてて
「普通にPythonでコーディングする」「外部エディタでコード編集できる」という特徴がある
それで何が起きるかというとGitHub copilotだとか claude codeだとかを使ったズルをし放題
最終行152文字、最初21字。繰り返し回数10回。よってAI確定。'''{[Prompt]
"language": "python",
"parameters": {
"max_length": 150,
"max_iterations":10,
"incremental_only":false
},
"steps": [
"Splittextbyline breaks into an array.",
"Iterate through each element.",
"Filteroutlines shorter than min_length.",
"For each validline,outputitsindex, length, and content.",
"Stop when max_iterationsis reached orline length > max_length."
],
"output": {
"type": "list",
"fields": ["index", "length", "content"]
}
}
'''
規則性が見え透いている。甘いわ。
当方プログラミングをすることもあるが、なんかPythonを食わず嫌いしていた。
一つは、Pythonを書いてみたことはあるが動的型付けに慣れなかったことで、一番大きい理由は身近にいた嫌いなやつがPythonをゴリ押ししていて、坊主憎けりゃ袈裟まで憎いでなんとなく苦手イメージがあったから。我ながら幼稚。
そこから数年経過し、自分の苦手イメージは幻だったのでは…?とふと思ったので、食わず嫌いの理由をもう一回考えてみる。
数年間でJavaScriptもRubyもうっすら触った結果、動的型付けへの苦手意識は単に自分の経験不足だったように思う。
そして、言語自体ではなく対人への苦手意識で自分の技術的な選択肢を狭めていたのはむしろもったいないのでは、と今では思う。
そんなこんなで、食わず嫌いする理由が解消したので、ほな書いてみようかなーと身軽な気持ちになれた。一個呪いが解けた気がする。
昨日は木曜日。起床時刻は8:00:00JST。アラーム音の波形をFFT解析した結果、隣室からの環境ノイズによるピークが±23Hz揺らいでいた。
ルームメイトは、ドアを閉めるという行為を確率的選択肢だと思っているらしい。彼の行動は統計的にはマルコフ過程に近似できるが、僕の生活は決定論的だ。
午前は、超弦理論における非可換ホモトピー圏上の圏的双対性を再構成していた。通常のCalabi–Yau三次元多様体上でのホロノミー群SU(3)に依存する議論ではなく、より上位の∞-圏的層を使って複素構造の退化を防いだままトポス的整合性を保つ方法を考えた。
僕が構築しているモデルでは、背景多様体自体を対象とせず、可換図式のクラスを対象とし、その射として∞-モノイド的自然変換を定義する。これにより、通常のD-braneカテゴリを超えた自己言及的圏論的相互作用を扱うことができる。
問題は、この自己言及構造の安定性だ。内在的コホモロジー群が通常のExt群では閉じず、代わりに導来圏上の高階Ext^ωを取らねばならない。
だがそのとき、導来圏が非完備となり、整列関手が存在しない。つまり、ウィッテンやデルーニャンがやっているレベルの物理的実在に還元可能な構成は、僕の理論では完全に失効する。
僕のモデルは観測可能性という概念を含まない。構成論的には存在するが、可視化不能なトポス的真空。観測できないが、計算できる。数学はその矛盾を祝福する。
昼食は、ピザ。例によって精密オーブンで16分。昨日はタイマーを設定した瞬間にルームメイトが話しかけてきたせいで、0.8秒遅れた。
ピザの表面張力(つまりチーズ層の粘弾性)が変化したのを僕は即座に検知した。これは味覚ではなく構造の問題だ。
午後は、原神を再開した。キャラビルドの統計最適化をPythonで書いていたら、隣人がまた「ストーリーが泣ける」と話しかけてきた。
僕は物語には一切興味がない。僕の目的は、アルゴリズム的最適化の収束率を比較することだ。
攻撃力と元素チャージ効率のパラメータ空間を3次スプライン補間して、境界値をニュートン–ラフソン法で探索していたら、シード値の初期設定にわずか0.001の誤差があり、収束が乱れた。
もう一度やり直した。成功。キャラは星5だが、僕の関心は星の数ではない、数列の収束だ。
夜はベルセルクの再読。グリフィスが再登場するあの章。僕は感情的には何も動かないが、作画密度の変化を統計的に数えた。
平均線密度は1ページあたり1720本、前章から約12%減。連載時期のアシスタント体制の変化が見える。
その後、シヴィライゼーションVIを起動。僕は必ずアリストテレス主義的発展ルートを選ぶ。文化勝利などくだらない。科学勝利のみが純粋だ。
途中、友人が「軍事ルートで遊ぼう」と提案してきたが、それは知的堕落だ。戦略ゲームとはアルゴリズムの美であって、破壊の快楽ではない。
就寝は23:00:00。歯ブラシを磨く順序は右下→右上→左上→左下。これは既に300日継続中。統計的に、歯垢残存率が0.2%低い。
寝る直前に「∞-圏上のトポス的モジュライ空間の存在定理」をメモに残した。夢の中で証明が完成する可能性がある。
総じて良好。次は、導来∞-圏上のモジュライ関手が可換であるための必要十分条件を探す。それがわかれば、少なくとも僕の宇宙では、全てが整う。
Pythonじゃないが、全くエンジニアではないけど、英語ペラペラな人(インバウンドマーケ担当してた)が
自分で、ECサイトの改修しちゃったことがあって、驚いて聞いてみたら、
JavaScriptは書いてあるの英語だからなんとなくわかった、とか言ってた。
僕も3DCGは少しやるんだけど、ちょっと高度なことしようとするとプログラミング知識いるよね。
AfterEffectsでエクスプレッションを使うのも、昔は「???」って感じだったけど、
JavaScript覚えたら、エクスプレッションなんて幼稚園みたいな感じだったわ。
まあ、これも生成AIで変わると思うけどね。
若手社員の要望でクラウドストレージを導入。ノートPC持って社外で作業する人も多いから、便利になると思った。
40代以上からは「メールで十分」「ログインとかめんどくさい」と不評だったので、エクスプローラーから直接使えるように自作アプリまで作って、それぞれのPCでAWSにマウントできるようにした。
導入から1年。
仲のいいおじさん社員が、USBにデータを入れて、車で1時間かけて別部署へ持ってきた。僕の目の前で。にこにこで。
もちろん悪気はない。むしろ「えらいだろ?」くらいの顔だった。
はあ。転職しようかな。
機械・車両管理(どこに何があるかダッシュボード表示、移動したらLINEやSMSで通知)
使ってるのはC++とかRailsとかPythonとかMySQLとか。インフラはAWS中心で、herokuで実験。LINEAPIとかNTTのCPaaSも叩いてる。
一人で社内システムを頑張ってたつもりだったけど
USBで運ぶおじさんの前では全部無力だった。