最近、AIにプログラミングをお願いすることが増えてきたんですよね。便利だし、速いし、だいたいそれっぽいコードをパッと出してくれるから、「あ〜これは革命だな」なんて思ってたんだけど……やっぱり落とし穴はあるもんで。
たとえば、ちょっと複雑なコードを書いてもらったとき。最初はね、「この関数をこうして〜、こんな感じの処理にして〜」って軽く頼むと、AIは「はいよ!」って感じでめちゃくちゃ自信満々にコードを返してくれるんですよ。「これで完璧に動作するはずです!」とか言って、動作の説明まで丁寧にしてくれるんだけど、いざ実行してみると…動かないんだよ、これが。
で、こっちも「おかしいな」って思って、ちょっと修正してってプロンプトを変えてみたり、もうちょい詳細を入れてみたりするんだけど、やっぱりうまくいかない。AIは「修正しました!」ってまた元気よく返してくるんだけど、内容を見ると「え?これどこ直したの?」って感じだし、動かしても結局エラー。ほんと、そういうの何回も繰り返すと、こっちが心折れる。
でね、最終的には「もう自分で直すか…」ってなるわけだけど、問題はここからなんですよ。プログラムがAIによって“賢く”書かれてるせいで、構造がめちゃくちゃ複雑になってる。しかも、ちょっとしたミスが中に紛れ込んでて、それが何重にも絡まってて、もはや自分でもどこをどう直せばいいのか分からないっていう地獄。
しかもね、自分のプロンプトが悪いんじゃないかって疑いもあるんですよ。「もっとちゃんと説明してればよかったのかな」とか、「いや、そもそもこんな指示じゃAIも混乱するか…」とか。ちょっとした罪悪感も生まれるわけ。でも、何回やってもAIは自信たっぷりに間違ったコード出してくるから、なんかもう笑うしかないというか。
そういうわけで、AIプログラミングにはすごく助けられてる部分もあるけど、完璧ではないってことを痛感してます。特にバグ修正はAIにとって苦手な分野かもしれない。そもそもバグって、人間が書いたコードでも見つけるの大変なのに、それをさらにAIが書いたコードで…って考えると、そりゃ難しいよなぁ。
結論としては、「AIに全部任せるのはまだ早い」ってこと。頼れるけど、過信しちゃいけない。結局、自分の手でデバッグできる力は必要なんだなっていう、なんとも現実的なお話でした。