Bonjour, une journée spéciale consacrée au thème sur France inter avait lieu aujourd'hui :
https://www.radiofrance.fr/societe/t...&p=2#know-more
-----
Bonjour, une journée spéciale consacrée au thème sur France inter avait lieu aujourd'hui :
https://www.radiofrance.fr/societe/t...&p=2#know-more
Sans questions il n'y a que des problèmes sans réponses.
Les 3 intervenants de la matinale étaient effectivement très intéressants. Surtout Asma Mhalla, d'ailleurs, même si les points qu'elle a abordés sont hors charte pour ce forum. Je n'ai pas trouvé de livre écrit par elle, je le regrette.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Je ne la connais pas mais beau CV en tout cas.
J'ai vu qu'elle travaillait aussi sur les questions éthiques et il y a quelques années j'ai aidé une étudiante en médecine à mette en forme son mémoire sur ces questions autour de la fin de vie.
C'était intéressant et assez vaste et complexe comme sujet.
L'IA va vivre la même chose et ça a même déjà commencé.
Bonne explication du long-termisme. Par contre pas trop d'accord quand elle dit que Sam Altman (le CEO d'OpenAI) est en train de réaliser l'AGI (cf. à la 18ième minute). Entre le but (réellement affiché) et l'obtention de la coupe "AGI", il y a loin, sans doute plusieurs décennies... Et sans doute pas par ces acteurs là, tenus au succès commercial court termiste pour le coup.
Pas d'accord non plus quand elle dit que c'est de l'AGI dont il faudra se méfier plus que de l'IA "étroite" de 2023, alors qu'on voit déjà bien les dégâts que provoque ChatGPT sur la réputation d'individus (élus, profs...) dont la bio se trouve entachée d'un casier judiciaire qu'ils n'ont pas.
Dernière modification par GBo ; 13/04/2023 à 17h17.
Par contre +1 à tout ce que dit Jean-Gabriel Ganascia, sans doute plus connaisseur de l'AI et de ses limites actuelles.
C'est relatif, les gens qui se plaignent des textes générés par chatGPT (c'est naturel car ce n'est pas plaisant), ont une interprétation biaisée dans le sens où:Pas d'accord non plus quand elle dit que c'est de l'AGI dont il faudra se méfier plus que de l'IA "étroite" de 2023, alors qu'on voit déjà bien les dégâts que provoque ChatGPT sur la réputation d'individus (élus, profs...) dont la bio se trouve entachée d'un casier judiciaire qu'ils n'ont pas.
- ils présupposent que les utilisateurs ne sont pas aptes à comprendre le disclaimer,
- ils présupposent que les utilisateurs vont citer chatGPT comme source fiable d'information.
A ce sujet il est plus intéressant de se pencher plutôt sur l'IA conversationnelle de Bing qui est très cadré et qui elle est utilisée dans un cadre différent de chatGPT.
Encore et toujours sur ce point il y a confusion entre une IA conversationnelle ouverte au public pour des raisons expérimentales et celles ouvertes en tant qu'outil d'aide à la recherche d'infos.
Sans questions il n'y a que des problèmes sans réponses.
les textes qu'on a eus en provenances de GPT-4 ou de Bing n'étaient pas particulièrement extraordinaires en matière de recherche d'infos...toujours pas vu la supériorité par rapport à une recherche personnelle qui te permet de croiser et de vérifier tes sources.
@Liet Kynes : pour moi quand ils font payer 24 dollars / mois pour l'accès sans restriction au chatbot à base du dernier GPT-x, OpenAI est passé dans l'exploitation commerciale d'un produit. Les vices du produit ne sont pas cachés, certes, mais sont néanmoins des vices de conception.
Dernière modification par GBo ; 13/04/2023 à 18h59.
Les 24 dollars c'est aussi quelque part la possibilité de se former à l'outil et de préparer, au choix (multiple possiblement), soi-même en tant que particulier ou soi-même en tant que travailleur à tirer parti de l'outil. La société de l'information se complexifie et cela nous demande un effort non négligeable.
Sans questions il n'y a que des problèmes sans réponses.
Affirmation gratuite, accusation non étayée, le tout relevant du domaine du droit de la part de quelqu'un qui n'est pas spécialiste du domaine et bien sur sans aucune référence à l'appui, etc, etc.
Et bien sur, ça ne tient pas la route 2 secondes dès qu'on regarde la définition de "vice de conception".
Rien de nouveau : on est dans "qui veut tuer son chien l'accuse d'avoir la rage" et ici on a visiblement beaucoup peur des chiens.
24 dollars (pourquoi pas 1000 ) et par mois en plus !Les 24 dollars c'est aussi quelque part la possibilité de se former à l'outil et de préparer, au choix (multiple possiblement), soi-même en tant que particulier ou soi-même en tant que travailleur à tirer parti de l'outil. La société de l'information se complexifie et cela nous demande un effort non négligeable.
Tout ça pour devenir bêta testeur d'un produit dont personne ne sait vraiment à quoi il pourrait servir.
En fait c'est le gars qui paye qui va éventuellement devoir inventer par lui même un débouché.
Et tous les autres c'est finalement des gogos qui vont dire que c'est super au lieu d'admettre qu'ils se sont fait rouler et payent un truc qui ne sert à rien.
Ça va pas durer tout ça.
Dernière modification par ArchoZaure ; 14/04/2023 à 00h35.
on va quand même attendre l'issue des procès en cours pour savoir ce qu'en pensent les tribunaux ?Affirmation gratuite, accusation non étayée, le tout relevant du domaine du droit de la part de quelqu'un qui n'est pas spécialiste du domaine et bien sur sans aucune référence à l'appui, etc, etc.
Et bien sur, ça ne tient pas la route 2 secondes dès qu'on regarde la définition de "vice de conception".
Rien de nouveau : on est dans "qui veut tuer son chien l'accuse d'avoir la rage" et ici on a visiblement beaucoup peur des chiens.
Je ne crois pas qu'il y ait de "procès" véritablement en cours contre le bot et OpenAI à ce jour, disons plutôt des actions judiciares.
La presse a rapporté que le maire australien Brian Hood envisageait de porter plainte après que des administrés lui ont signalé que ChatGPT le désignait à tort comme faisant parti des coupables dans une grosse affaire de corruption. Donc pas de plainte déposée de sa part pour le moment.
Quant au professeur de droit américain Jonathan Turley qui a fait partie par erreur ("hallucination du bot") d'une liste de harceleurs sexuels dressée par ChatGPT (en donnant de faux détails sur les circonstances), la presse ne dit pas s'il va porter plainte.
En France le député Éric Bothorel a par contre bien porté plainte auprès de la CNIL car ChatGPT avait "revu" son CV en le truffant d'erreurs.
OpenAI est également sous le coup d'une class action sur un autre produit d'aide au codage appelé "Copilot" qui, comme ChatGPT, digère les codes source déposés en open sur GitHub mais en le "blanchissant" de toute propriété intellectuelle initiale, puisque ces outils ne savent pas citer les véritables auteurs qui ont inspiré le code produit (vice de conception de l'AI).
Dernière modification par GBo ; 14/04/2023 à 09h56.
oui j'aurais du dire des "plaintes" au lieu de procès. Statistiquement, si on a plusieurs affaires en quelques mois, il devrait y avoir un rythme assez soutenu.