うまくいくかはわからないけれど、AIにコード書かせて人間レビューコストを下げようと思うと、レビューAIが確認するまでの間の作業AIが拠り所になるものは必要だと感じている。特にシステム境界についてモックしがちな性質だから境界の契約違反がかなり厳しくなる。
私はブラウザ含めたE2Eテストモリモリはあまりやりたがらないため、いわゆるインテグレーションテストを増やして対応する方針。例えばフロントエンドからサーバーのAPIをコールするところについて、フロントエンドの呼び出し口からサーバーの処理を呼ぶ箇所までの範囲でモックを使わずに呼び切らせるイメージ。
昨年までのAIと違って、コード自体が呼び出し不能だったりするようなことはほとんどなくなったから、今度はこの境界をうまくやる方向がいいと思っている。また、人間のプロジェクトでやるとコスト過多になりがちな「やれるなら書いたらいい」というものは書かせて良いと判断していて、StoryBookやスナップショットテストも導入してみている。