Take Your Time

仕事や研究、コンピューターとの付き合い方

生成AIとの向き合い方

ちょっと雑に書いたので改めてまとめたい。

delma.hatenablog.com

前提として、Claude CodeやCodex、CopilotのようなAgenticにも動くコーディングAIや執筆、分析支援ツールとしてのAIについて、2025年末での所感と対応方針を考える。

まず、現時点での人間の脳と生成AIの特性から、AI側に最終的な意思決定やレビュアーとしての機能を求めることは現実的ではない。 いくつかあるが、基本的には学習能力の欠如から網羅的・統合的に一定規模以上のプロジェクトを統括することができないと言うのがポイントである。人間の脳も大規模プロジェクトのすべてを理解することは不可能だが、一定程度の時間をかけると脳内の構成が変わってかなり複雑な情報についても全体を把握でき整合的な推論ができるようになる。 人間はミスはするし、億劫がってロジックが破綻することもよくあり、混乱に陥ることもあるが、自己修復的な動きができるため、最終的な崩壊は免られる。 人間は時間はかかるが、ゴールまでは辿り着く、AI単体ではゴールに辿り着くことはできない。

もう一つは、統括能力の欠如だ。あるプロジェクトを人間とAIの協働で実施する場合、人間はAI行動の予測をした上で統括ができるが、逆はない。AIが人間行動を予測してアドバイスしたりタスク管理をすることができない。 したがって、人間側はすべてを把握している必要がある。

したがって、バイブコーディングはやはり悪手としか見えず、複雑化するコードベースをすべて理解する工数を考えると、人間が主導してミニマルに処理した方が良いと考えられる。

現時点でのベストプラクティスはただ一つ、以下の条件でのみAIにタスクを任せる。それ以外はNG。

  1. 人間はそのタスクの解決方法を理解しており出力結果について正解ないし正解をチェックす方法を知っている。
  2. 人間はAIがそのタスクを実施した時にどのような手順でどのように回答するか理解している。
  3. 人間はAIの出力した結果を踏まえてプロジェクト全体への理解を正確にアップデートできる。

つまり、手綱を離さないと言うこと。 これは、つまり人間側の認知負荷は全く減じないどころか、AIという手が早いやつのために認知負荷が増えると言うこと。さらに言えば、AIが用いる新しい手法や概念、考え方についてもついていく必要があると言うこと。

とってもしんどい。