Ce que tu dis est trop théorique et ne marche simplement pas en pratique. Je dis bien *pratique*, c'est a dire que ce que l'on fait au jour le jour (nous et les autres!), c'est que l'on compile des programmes en C++, puis on les lance sur la console. Les choses que tu évoques comme "tu identifies le réseau B au temps t avec un petit sous-ensemble de A (...)", ces choses ne vont pas se produire spontanement apres que j'ai lance mon programme... la seule maniere que je connaisse *en pratique* que mon programme une fois lance passe de A a B, c'est de laisser a mon programme la possibilite de generer des nouveaux programmes.
La preuve est simple: si tu ne change pas une seule ligne a l'approche A, il ne pourra jamais produire le même comportement que le programme B, et ceci quelque soient les poids.
Mais pour faire ce rebouclage, il faut changer le source code...
C'est vrai dans l'exemple que j'ai donné entre les deux réseaux récurrent a 8 et 4 voisins.
Mais c'est vraiment beaucoup plus difficile, juste avec des paramètres, de passer d'un MLP a un réseau recurrent spiking. Et même si tu arrive a écrire un tel code, il ne sera toujours pas générique, il faudra le re-ecrire pour pouvoir passer a un réseau de type C juste avec des paramètres.
La seule manière de faire quelque chose de générique c'est de faire en sorte que les paramètres modifie le source code lui-même, ce qui est de la programmation génétique.
Meme remarque que ci-dessus, cette approche n'est pas générique, je ne vois comment *en pratique* écrire un code qui comprendra tous les paramètres qui généreront encore une 3, 4eme, etc approche différente.
He, he, bah voila, il te manque encore les boucles et le conditions, mais continue ton raisonnement et tu aboutira... au genetic programming.
A condition de changer leur ordre et leur nombre... ce qui est du LGP (Linear Genetic Programming).
Bah oui, le programme d'apprentissage, on le fait également écrire par l'ordinateur en genetic programming! C'est pourquoi, cette approche est générique et puissante.
Je suis tout a fait d'accord avec tout ca! De la meme maniere les MLP se comportent comme des interpolateurs universels car ils sont déjà codes comme cela.
J'ignore ce que c'est cet effet Moby Dick, et je n'ai pas trouve sur wiki.
Je crois que l'on ne peut pas vraiment en general, mais les LSTM sont un (rare) exemple ou on a cette explication. En gros, en fonction des paramètres le comportement est chaotique ou trivial (et sans interet), il faut naviguer a la limite des 2...
L’idée de cette discussion était de discuter des différentes approches techniques pour progresser en IA, pas des applications éventuelles qui est une autre (et intéressante) discussion.
-----