La presse qui fait du sensationnalisme alors que comme le disait Yann Le Cun cité plus haut, OpenAI n'est pas le seul à avoir cette techno.
Ceci dit et on se répète, Google considère que c'est la prochaine étape des moteurs de recherche, c'est à dire de ne pas être seulement capables de donner une liste de lien mais aussi de faire une synthèse.
Historiquement, on est passé de "chacun garde ses signets" à "on a un site avec plein de signets", la 1ère version de Yahoo suivi de "on cherche dedans vaguement" à "on cherche très efficacement" de Google et son page ranking suivi d'évolutions incrémentales.
Et on parle de besoins très différents : celui qui consiste à récupérer de l'information en masse détaillée et d'aller chercher dedans soi-même celle qui est pertinente. Ca, on a aujourd'hui.
Un autre qui consiste à répondre à plein de questions où la réponse tient en une ligne : on a aussi ça dans Google aujourd'hui même si c'est imparfait. Cela doit être la majorité de leurs requêtes "grand public".
Le but est d'aller plus loin en étant capable de fournir un résumé/synthèse de l'information dispersée.
J'avais déjà donné l'exemple de "que visiter à Helsinki ?" ou ChatGTP fournit immédiatement une liste pertinente et argumentée alors que par défaut, on lit plusieurs sites pour se faire une idée et une "moyenne" de leurs recommandations.
Il y a de très nombreux cas où cette approche s'avèrerait efficace.
Un autre cas et de "lire" la réponse. J'utilise pas mal les assistants vocaux chez moi et pouvoir poser des questions à haute voix et avoir la réponse est pratique. Mais dès qu'on pose une question où la réponse est le résultat d'une recherche, on est coincé : il faut repasser par un ordinateur ou téléphone.
Il serait pratique là aussi d'écouter la synthèse.
Et même si les dits assistants vocaux ne sont pas forcément répandus en Europe, aux US, ils sont déjà utilisés par plus de 40% de la population.
-----