来るぞ来るぞと言われているが一向に来ない。
自分はChatGPT Pro(月3万のやつ)とClaude Proを契約している。
ChatGPTは普段はo3-mini-highを常用していて簡単な処理はo3-mini-highに投げる。
たとえば拾ってきた汚いコードを「format following code」で整形させるとか。「この画像のサイズを400x400にして」とか。シェルスクリプトも書かせる。結構壊れてるが。
検索ツールとしてはかなり精度が良い。これ検索しても出てこないだろうなと思っていたことが分解されて出てくるようになったのでありがたくなった。
またコードの解説にも使えるし、アーキテクチャの説明もしてくれて便利。「こういう感じのって何のデザパタだっけ」とか「〜〜〜で〜〜〜みたいなやつに名前があったと思いますが何でしたっけ」とかそれがいけるのが良い。
「次のコードはSOLID原則に違反しているので違反しないようなコードに変えてください」とか、命名提案とか。提案系はけっこう良い。変換するやつはかなりミスる。「これをRustに変えてください」とか。
また業務とは全然無関係ない興味あることをDeep Researchなどに入れて探ったりしている。最近では「トランプ政権は何を破壊しているのかまとめてください」とか。結構おもしろい。
AIは、こんな感じでコンパクトで常識的な処理は大抵合っていてめっちゃ便利なのだが、少し常識をひねると途端にガタガタになるという印象。
奇想天外な発想をいれると本当にめちゃくちゃなことを言ってくる。たとえば難しい概念AとBとCがあってそれを組み合わせさせると、内容をぐちゃぐちゃにしてくる。ちゃんと読んでいると意味不明なことを言う。
またClaude Sonnet3.7でもo1でもそうなんだが、コードが文脈を組んでくれないというか、「これ結局自分で書かないといけないじゃん」と思うことがしばしばある。設定がおかしいんかとも思うが、魅力を感じない。「うわコンテキストウィンドウ消費した。これで100円かよ。時間と金を無駄にしただけだな」と感じる。API使うものはまず金がかかる。別に金はあるんだが「これならポテチ買うわ」となる。
大抵1回目で変なこと言ってくると、それ以降はどれだけAIにパワハラしてももう全然ダメで信用ならない。軌道修正しつつ、参考程度につまみ読みするぐらい。そういうときは自分でコツコツと調べるしかない。
あとAIはパワハラしまくれば論理も捻じ曲げてくる。パワハラの仕方にもコツがあるけど。わりとめちゃくちゃでも曲がる。おかしな奴だ。
職場ではドキュメントはAIで検索できるがこっちは人工無脳っぽい感じ。頭がいいと思うことはなくただドキュメントに書いてあることを出してくるだけ。
まあ無いと死ぬほど困るんだが、AIって言われると「別にAIではなくないか?」と思う。「ドキュメントまとめツールくん」だろって思ってる。
正直ジュニアレベルエンジニアも代替できないんじゃないかと思う。相手が人間なら「この前のミーティングで決まった◯◯でお願いします」で色々やってくれる。ジュニアだってAI使うわけだし。AI使ってる人間をAIが単体で代替するってよくわからん話だ。
それにいくらAIがマルチモーダルと言ってもさまざまなツールと意味不明な量のコンテキストと暗黙知を理解してコード書けるんかいなと思うわけ。
分かるわ こっちがきちんとタスクを小さな形に分解して投げてあげないといけない そんで「設計とかタスク分割とか面倒な部分全部人間の仕事じゃん」ってなる