Mais c'est exactement ce que certains soupçonnent par le terme de "distillation", c'est texto ce que dit David Sacks (conseiller de Trump en IA et en cryptos) ici:
https://x.com/i/status/1884344113488879732
Je résume ce qu'il dit : un modèle "élève" (ici DeepSeek lors de son apprentissage) pose à un modèle "professeur" (des modèles d'OpenAI...) des questions comme le ferait un élève à son prof, mais là c'est par millions, et parvient ainsi à imiter les capacités de raisonnement et les connaissances du modèle professeur.
-----



