Cet énorme système semble répondre à tout:
https://machinelearningknowledge.ai/...real-or-is-it/
Pourtant:
moi qui ne suis aucunement spécialiste en AI, je me pose des questions:Behind the curtains, GPT-3 functions by trying to predict text based on the input provided by the users. The idea is to provide the model with some initial text that will be used by the model to predict further text. This process is repeated by the model for generating new text each time it runs.
During the training process, OpenAI GPT-3 was fed with almost all the content existing over the internet. So whenever it provides us with output, it is actually making a kind of guess based on some statistical calculations and the human-generated online text that it has been trained with.
d' abord, est-ce réellement un système connexionniste construit à partir de réseaux de neurones formels (ANN, RNN, LSTM ....)
ou bien autre chose....ou un mix de X et deY.... parce que l' article parle de MACHINE LEARNING et non de DEEP learning.....
et ensuite....
étant surpris que GPT-3 aborde des problèmes comme:
* la conversion d' un texte en un code ou une expression régulière syntaxiquement correcte (c' est ce que suppose la présentation) ...
* une conversion de textes didactiques écrits ('il' faisait ceci, 'il' avait réalisé ça...) en texte écrit à la première personne (' faisais ceci.... 'moi', j' avais fait ça...)
* l' exécution de permutations logiques...
je me demande si il n' y aurait pas un noyau (le 'devineur') ... capable, entre autres, de reconnaître des balises, puis qui appellerait bien classiquement des modules spécialisés traitant ensuite d' autres blocs de textes sélectionnés [les modules ad hoc ayant été préalablement programmés par des bêtes dotés de 2 pattes et d' un encéphale de 1500 grammes environ...]
-----