今回は、ChatGPT、Claude、Grokという3つのAIに同じプロンプトを与え、プログラミング能力を比較してみた結果を共有します。
課題として選んだのは「ブロック崩し」のゲーム制作。比較的シンプルなゲームでありながら、基本的なロジックや描画処理を伴うため、AIの実力を見極めるにはちょうどいい題材だと考えました。なお、今回はAIが生成したコードをそのまま使用し、自分では一切手を加えないというルールで比較しました。つまり、AIのアウトプットの質がそのまま結果に反映される形式です。
結果は以下の通りでした:
1位:Claude(有料版)
2位:Grok(無料版)
3位:ChatGPT(無料版)
ゲームとしての完成度を見ると、この順番が自然だと感じました。特にClaudeは細かい部分まで丁寧に作り込まれており、分割出力にはなったものの、コードの完成度は高かったです。一方、ChatGPTはシンプルにまとめようとしたためか、機能や演出が物足りず、結果として完成度が低くなってしまいました。使用したのが無料版だったことも影響しているかもしれません。
ただし、今回の比較が「一般的なプログラミング能力」の優劣をそのまま示しているわけではありません。というのも、コードにおける「良さ」は一概に決められない部分が多いからです。たとえば、短く書けることが良いのか、完璧な実装が求められるのか、あるいはエラーが少ないことが重要なのか。そうした評価基準は非常に曖昧です。
今回はあくまでも「ゲームの完成度」という一点に絞って判断しました。あくまで一つの目安としてご覧いただければと思います。
ちなみに、Claudeは出力できる文字数制限の関係でコードを分割して出力し、それをこちらで結合する手間がありました。それでも、全体としての完成度は非常に高かったです。Grokはというと、無料でありながらも一発でコードを生成してくれた点が印象的で、「意外と優秀だな」と感じました。