En fait, générer du code à partir de descriptions de haut niveau, c'est une chose que j'ai faite pendant des années il y a déjà longtemps au moyen d'outils rudimentaires comme flex et bison (ainsi que d'autres moins connus). La différence est que j'utilisais un "mini-langage" conçu par moi ou un collègue et pas le langage naturel, mais en pratique cela n'a pas tellement d'importance. Quand au final on est payé par des actionnaires qui sont avides de leurs dividendes, ce qui était mon cas pendant 40 ans, il est préférable en pratique de bien concevoir son mini-langage et ainsi produire beaucoup de code sans effort. ChatGPT est très performant pour comprendre le langage naturel, je dois le reconnaître, ainsi que les nuances qu'on peut exprimer (quoique, je suis arrivé à le piéger, mais ce n'est pas le sujet). C'est surtout pour cela que je trouve cet outil intéressant. Pour le reste, l'IA, son utilité dans le domaine de la connaissance, je ne suis toujours pas convaincu. Mais comme je l'ai déjà dit, je peux me tromper et je reste ouvert à tous les arguments. Ce n'est pas un sujet si simple.Ca, c'est l'autre biais connu : dès qu'un IA arrive à faire quelque chose qui était réservé aux humains quelques années avant et considéré comme quasi-impossible il y a 10 ans, on entend le discours "oui mais ce n'est pas si dur en fait".
-----