Bonjour.
Des chercheurs alarment et appellent à prendre des mesures avant la crash.
https://www.lebigdata.fr/ia-commence-mord-la-queueIl est fascinant de constater combien l’avancée technologique influence le paysage numérique. L’IA se tient à la proue de cette révolution contemporaine. Mais, à mesure que l’IA progresse, elle semble devenir le reflet de l’ouroboros, ce serpent antique qui se mord la queue.
Le monde virtuel subit une transformation. Partout sur Internet, le contenu généré par l’IA gagne du terrain.
Cette évolution peut sembler une menace pour les futurs modèles d’IA. Pourquoi ? Parce que des modèles comme ChatGPT se basent sur des informations glanées en ligne pour se former. Si cette source est polluée par du contenu « synthétique », cela peut entraîner ce que l’on appelle un « effondrement du modèle ».
Le danger est tel que le filtrage de ces données synthétiques est devenu un champ de recherche crucial. Les experts s’y penchent, car l’ampleur du contenu de l’IA ne cesse de grandir.
A New Study Says AI Is Eating Its Own Tail https://t.co/hSHKT47uq4
— Popular Mechanics (@PopMech) October 20, 2023
Par ailleurs, une autre recherche montre que les images générées par l’IA, lorsqu’elles sont uniquement basées sur des données d’IA, finissent par être floues et non identifiables. Ces erreurs, bien qu’apparemment bénignes, pourraient amplifier des biais discriminatoires, rendant la tâche encore plus ardue.
Pour contrer cela, nous devons miser sur des données non corrompues par du contenu synthétique. Comme l’évoque Alex Dimakis de l’Institut national de l’IA, la qualité intrinsèque des modèles est tributaire de la qualité des données. Même une modeste quantité de données de haute qualité pourrait surpasser un vaste ensemble synthétique.
Ainsi, les ingénieurs restent sur le front, veillant à ce que l’IA ne s’entraîne pas sur des données qu’elle a elle-même produites. Car, malgré les prouesses de l’IA, la touche humaine demeure irremplaçable.
https://www.popularmechanics.com/tec...c=socialflowTWOne recent study, published on the pre-print arXiv server, used a language model called OPT-125m to generate text about English architecture. After training the AI on that synthetic test over and over again, the 10th model’s response was completely nonsensical and full of a strange obsession with jackrabbits.
-----