生成系AIを使ったプログラミングというのが流行りというか、ホットなトピックスなんだけど、今後新しいパラダイムのプログラミング言語や環境が出てきたときに、生成系AIというのはどのくらい対応できるのだろうか。そして、それは普及するのだろうかというのが気になるよねという話。
当たり前なんだけど、生成系AIは莫大な量の情報を学習することで、問いに対する結果(出力)を推定している。つまり、生成系AIが学習する際に存在しなかった情報は、基本的には回答に含まれない。というのが大前提。
ということは、たとえば今後新しいパラダイムやプログラミング言語、環境が出てきたとき、生成系AIはどの程度、それに対応できるのだろうか。
近しい過去で言えば、C言語からJava、GOとかは生成系AIでも全然ジャンプできるような差な気がする。でも、C言語からPrologやLispへはジャンプできないような気もする。いま、HTTPを使っているけど、それ以外のプロトコルが出てきたときに対応できるんだろうか。
また、今の生成系AIは大量のドキュメントやライブラリが存在することを前提としているが、それらがない場合に、一から処理を書くことができるのだろうか。
もちろん、生成系AIにはRAGとかの仕組みがあるので、ある程度知識をため込んだ生成系AIなら、新しいパラダイムやプログラミング言語、環境のドキュメントを与えることで十分に力を発揮できそうな気がする。でも、それって一体どこまでついてこれるんだろう。
いや、そんな壁を突破してまで、人は新しいものを利用しようとするのだろうか。
こういう事を考えていると、システム化して普及すると発展が阻害されるという、ある種のジレンマを考えてしまう。
たとえば、麻雀。デジタルの麻雀ゲームが普及した結果、おそらく麻雀は今後、新しいルールや役の追加、点数計算の見直しなどが起こることはないのだろうなと思う。同じように、システム化、デジタル化したことで発展の道が閉ざされてしまっていく、可能性が狭まっていく。
発展の先にある、自発的な停滞みたいなものが少し怖い。