断り書き:俺はN5レベルで日本語を勉強中です。間違いがあるかもしれないけど、頑張っています!
ChatGPTが出た時、みんなと同じように興味本位で触ってみた。面白い小技だと思った。でも、俺がよく知ってることについて自信満々に間違えてた。俺はチャットボットだと判断した — とても流暢なやつだけど、結局はハルシネーションマシンだ。本番のコードベースには近づけたくなかった。
あの判断は正しかったと思う。でも、ここ数ヶ月で変わったことがある — 特に最新の推論モデルといくつかの強いオープンウェイトのリリースで。品質、正確さ、推論の一貫性が別のカテゴリに移った。今はもう実験として使っていない。これが俺の働き方だ。
ツールは本質じゃない #
どのツールが一番いいかという議論が終わらない。CursorかCopilotかOpenCode、どのモデルがいいか。一年間それを繰り返すのを見てきた。ほとんど意味ない議論だと思う。
モデルが天井だ。どんなスキャフォールディングも、弱いモデルをより良く推論させたり、アーキテクチャのミスを発見させたりすることはできない。それはモデルが決める。
でも、ツールがその天井にどれだけ近づけるかを決める。優れたモデルでも、ファイルアクセスもシェルもなく、少し前に何を変えたかも覚えていないチャットウィンドウに閉じ込められたら、本当に力を発揮できない。ちゃんとしたエージェンティックループがあれば、同じモデルでも全く違う体験になる。モデルが賢くなったからじゃない。コンテキストを失わなくなって、同じことを何度も聞かなくなったからだ。
だから:自分が使いやすいツールを選んで、本当に良いものが出た時だけ乗り換えて、サッカーのライバル関係みたいに扱うのをやめる。実際に借りているのはモデルだ。
「インサイダー優位」は間違った質問だ #
モデル会社自身のツールには何か秘密のエッジがあると思う人が多い — プライベートAPI、非公開の機能。でも実際はそうじゃない。モデルが見るのはシステムプロンプト、コンテキスト、ツール定義だ。同じAPI、同じトークン、誰でも使える。
主要なAIラボがプロンプトのベストプラクティスを公開しているのは、寛大さからじゃない — すべてのツールで広く採用されることが開発元の利益になるからだ。プロトコルは意図的に公開されている。トレーニングプロセスは違う。本当の堀はそこにある:何年ものデータキュレーション、RLHFの選択、モデルの世代ごとに積み重なるアライメント研究。ドキュメントは読める。でも、ウェイトに入っているものは再現できない。
モデルの品質差はアプローチが発表されたり、リバースエンジニアリングされたりして、時間とともに縮まっていく。でも今は差は本物で、モデルの中にある。その外側のラッパーじゃない。
WindowsやiOSみたいにはならない #
過去のプラットフォームの変化にパターンマッチしたくなる。一つの会社がOSを抑えて、別の会社がデバイスを抑えて、市場が二十年間そのチョークポイントの周りに集中する。
AIにはそのチョークポイントがない。ハードウェアはコモディティ化している。App Storeみたいな配布のロックインはない。フロンティアラボ間の差は誰もが予測したより速く縮まった — Google、Metaのオープンリリース、中国のラボ — 十八ヶ月前とは全然違う信頼性がある。一社がすべてを支配するより、ブロードバンドみたいになる可能性が高い:品質の差はあるけど、競争があって、独占はない。
バブルは弾ける。テクノロジーは残る。 #
今のAIの状況が悪く終わるバージョンがある — バリュエーションが崩れて、会社が潰れる。たぶん何らかの形で起きる。前にも起きたことだ。
でも、ドットコムクラッシュで実際に何が生き残ったか見てみよう。NASDAQは2000年から2002年で78%の価値を失った。Pets.comは死んだ。Webvanは死んだ。インターネット企業への金融投機は本当に狂っていた。そして — インターネットは世界を飲み込んだ。Amazon、Google、やがてSNS、eコマース、ストリーミング、リモートワーク。バブルは株のことだった。テクノロジーはバブルじゃなかった。ただ早すぎただけだ。
同じ話がここでも当てはまる。今のAI投資の熱狂にはたぶん修正が来る。今の評価額の何分の一かの価値しかない会社もある。でも、根本的な能力 — 推論して、コードを書いて、情報を統合して、ツールを自律的に操作できるモデル — それはなくならない。問題はAIが残るかどうかじゃない。どの賭けが生き残るかだ。
今日、オンラインなしで仕事することは想像しにくい。十年後、「AIなしでこれをやった」は「コンピューターなしでこれを書いた」みたいに聞こえるだろう。
コンテキストがすべてだ。なければ、ただハルシネーションマシンに餌をやっているだけだ。 #
AIが悪いコード書いたって言う人に、俺はいつもこう聞く:何を渡したの?
コンテキストのないモデルは推測している。ドメインの制約、既存のアーキテクチャの決定、チームの慣習、先週試してうまくいかなかったこと — これらを知らない。そのギャップを、実際の問題とは関係ない、もっともらしく聞こえるアウトプットで埋める。それはモデルの失敗じゃない — ゴミを入れたら、ゴミが出てくる。
コンテキストなしで汎用チャットボットに本番コードを書かせるのは、一文の仕様書だけ渡して請負業者を雇うようなものだ。アウトプットの品質は、何を入れるかにすべてかかっている。
変わったのはモデルの能力だけじゃない。モデルに本物のコンテキストを与えるインフラだ:実際のコードベース、ファイル、最近の変更、エラー出力を読むエージェンティックツール。モデルが何を扱っているか分かると、アウトプットが根本的に変わる。ハルシネーションは消えない — でも、推論が現実に根ざしているから、ずっと減って、見つけやすくなる。
だからコンテキストエンジニアリングが今一番過小評価されているスキルだ。表面的なプロンプトエンジニアリングじゃない — より良いアウトプットを出す魔法の言葉を探すことじゃない。モデルに問題の全体像を正確に伝えること。正しいファイル、正しい背景、正しい制約。モデルの仕事は推論すること。自分の仕事は、正しいことについて推論させることだ。
本当にリセットされること #
主任アーキテクトとして十五年以上やってきて、ボトルネックがいつも同じだった時代を覚えている:明確なアイデアをきちんと動いてスケールするソフトウェアに変換できる人が足りなかった。その希少性が2020年代初頭の報酬の爆発を生んだ。実装力が高く評価されすぎて、何を作るべきかという弱い思考が隠れやすい文化も生まれた。
その希少性はなくなっていく。
エンジニアの価値がなくなるからじゃない。普通のエンジニアが一日に出荷できるものの床が劇的に上がったからだ。良いAIツールを持つ平凡なエンジニアが、持たない優れたエンジニアより多く出荷する。それはヘッドカウント、給料、五人のチームが何を達成できるかの計算を全部変える。
CADの例えは使い古されてるけど正確だ:CADはアーキテクトを排除しなかった、製図工を排除した。圧縮されたスキルは設計じゃなかった — 成果物を作ることだった。何を作るべきか、なぜかを理解していた人はより強くなった。図面を引くことだけが価値だった人には厳しい十年が来た。
同じことが今起きている。「コードの書き方」の層は安くなっている。残るのは:
- どの問題を解くべきかを知ること。そのためには、ドメインを十分に理解して自分の意見を持てることが必要だ
- 問題が起きる前に障害モードを考えられるレベルのシステム思考
- センス — 作る前に悪いソリューションを素早く見抜くこと
- 答えを調べられない本物の不確実性の中での判断
これらはいつも希少なスキルだった。実装とセットになってただけで、出荷するには両方必要だったから。AIがその縛りをなくす。実装は安くなる。判断は安くならない。
誰も言いたくないこと #
多くの人が実装の層にキャリア全体を捧げた。ブートキャンプ、何年もLeetCodeを解いて、FANGのオファーを目指した。当時は合理的な賭けだった。今は悪い賭けで、三年後はもっと悪くなる。
この移行は本物で、痛みなしにはならない。俺にはきれいな答えがない。でも、変化がただの良い話だと思わせるより、正直に言う方がいい。
もう一方の側:実行が安くなると、悪いアイデアも早く実行される。だから、追うべきアイデアを見極める能力はもっと価値が高くなる。悪いものを追うコストが下がるほど、何を追うべきかの判断が重要になる。これまで明確な思考は、実行力についてくるボーナスみたいなものだった。今はそれ自体が本質になる。
落ち着いた後どうなるか #
一つの支配的なプラットフォームじゃない。次のMicrosoftでもない。おそらく:以前は十人のチームと一年のランウェイが必要だったものを出荷できる、小さくて速いビルダーの世代が来る。給料の差は「コードが書けるか」から「ビジョンと判断力があるか」に移る。平均的なアウトプットは上がる。平均的なノイズも上がる。
その環境でうまくいく人は、難しい問題について明確に考えて、不完全な情報でも決断できて、ツールをいつ信頼していつ疑うかを知っている人だ。
AIは乗数だ。思考が曖昧なら、曖昧なアウトプットをより速く生成する。思考が鋭ければ、鋭いアウトプットをより速く生成する。ツールは、お前が持ち込むものを変えない。
それだけが最適化する価値のあることだ。