Sans questions il n'y a que des problèmes sans réponses.
tu me sembles encore oublier un fait fondamental : on n'apprend pas en consultant des milliards d'item dans des bases de données, mais en les associant à des sensations corporelles, un vécu du monde réel que n'a pas l'IA. Tu peux faire défiler des milliards de caractères chinois devant tes yeux, ça ne t'apprendras rien du chinois. Mais si tu les vois dans un contexte , par exemple le signe des raviolis chinois devant une photo de plats de raviolis, tu l'associeras bien plus facilement.En fait, l'IA apprend comme nous quand on fait un apprentissage "profond" du genre "mémoire musculaire" ou comme un enfant qui apprend une langue en l'écoutant : elle n'apprend pas en raisonnant mais en voyant des exemples, faisant des essais, se trompant et s'améliorant.
Réduire les données, ce n'est pas forcément demander de raisonner : un gosse qui voit un chat quelques fois et à qui on a dit "c'est un chat" va savoir les reconnaitre sans faire de raisonnement non plus.
Alors qu'une IA aura besoin de milliers d'exemples au moins (et sans doute encore plus).
Ceci dit, on compare avec le cerveau humain qui est le résultat de centaines de millions d'années de sélection naturelle et qui a la naissance a des circuits précablés pour faire de l'apprentissage rapide de certaines choses.
Et pour une IA, c'est un peu la même chose : si on en a entrainé une à reconnaitre des chats, lui faire reconnaitre des canards nécessite moins de travail parce qu'on réutilise une partie de l'apprentissage, cela s'appelle le transfer learning.
Bon, je simplifie pas mal mais tout ça pour dire que comme tous les sujets techniques ou scientifiques, il est difficile de se faire une idée précise tant qu'on n'a pas mis les mains dans le cambouis.
Le langage humain a été créé en lien avec les sensations humaines, il est adapté à l'humain et à rien d'autre. Les mots comme "douleur", " envie", "faim", ne peuvent rien vouloir dire pour une IA. Une IA pourra repérer que les humains l'emploie en association statistique avec d'autres mots, "douleur" avec "blessure" par exemple, mais ça ne lui dit rien de sa signification. Et ce n'est pas parce qu'elle pourra après répondre "douleur" quand on lui parle blessure" que ça veut dire qu'elle comprend ce que c'est . C'est la (grossière) erreur de l'ingénieur de google de croire que parce que l'IA lui sortait des mots affectifs, ça veut dire qu'elle éprouvait ces émotions. Elle n'a sorti les mots affectifs que parce qu'ils figuraient dans son corpus, et sans aucune autre raison.
Et c'est irrémédiable.
4000ème variante sur le thème de "je suis intelligent, je sais tout, je suis compétent en tout et je vais tout vous expliquer y compris sur votre métier parce que vous êtes tous des idiots. Les références, c'est pour les autres parce que je suis tellement intelligent que ma parole et mes arguments fussent ils stupides et contredits 1000 fois doivent faire foi".
N'importe quel chatbot fait mieux de nos jours parce que là, on est dans la répétition à peine variée d'une seule phrase.
Ceci dit, c'est assez rigolo : quand on parle à un conspirationniste, il est conforté dans ses croyances délirantes par la contradiction et les faits.
Ici c'est pareil : peu importe le nombre d'erreurs factuelles, méthodologique et de raisonnement, le fait qu'on ne soit pas d'accord avec lui le conforte dans son idée qu'il est tellement supérieur.
C'est totalement inintéressant pour le fil mais psychologiquement instructif.
C'est un sacré problème vu les attentes sociétales: l'IA fait peur mais l'IA a t-elle de quoi faire peur?
Si aujourd'hui on fais entrer un humain dans une pièce en lui affirmant qu'une IA va détecter au travers de son comportement dans la pièce son adhésion à telle ou telle idéologie, il y a moyen d'instruire une IA sur des typologies d comportements par exemple. Le jeu corollaire ferra le reste ?
Les dangers me semblent plus liés à des IA "naïves", une conception qui me semble plus aboutie est celle du film Ex Machina;
Dernière modification par Liet Kynes ; 24/06/2022 à 19h10.
Sans questions il n'y a que des problèmes sans réponses.
Est-ce que ceci :est faux?Le langage humain a été créé en lien avec les sensations humaines, il est adapté à l'humain et à rien d'autre. Les mots comme "douleur", " envie", "faim", ne peuvent rien vouloir dire pour une IA. Une IA pourra repérer que les humains l'emploie en association statistique avec d'autres mots, "douleur" avec "blessure" par exemple, mais ça ne lui dit rien de sa signification.
Tout changement fait peur. Socrate expliquait que l'écriture allait rendre les humains idiots parce qu'ils n'auraient plus à faire travailler leur mémoire.
Depuis, on a dit la même chose de l'imprimerie, les journaux, la radio, les tables de logarithme, les règles à calculer, les calculatrices et j'en oublie.
Quand Internet a commencé à se diffuser dans le grand public, presque tous les articles étaient anxiogènes aussi.
Et plus haut, on parlait des luddites qui cassaient les métiers à tisser.
L'IA, c'est juste un outil génial pour le moment. Rien de plus.
Je ne suis pas sur de comprendre ta question.Si aujourd'hui on fais entrer un humain dans une pièce en lui affirmant qu'une IA va détecter au travers de son comportement dans la pièce son adhésion à telle ou telle idéologie, il y a moyen d'instruire une IA sur des typologies d comportements par exemple. Le jeu corollaire ferra le reste ?
Le danger est comme toujours social : on a un outil, si on s'en sert n'importe comment pour faire n'importe quoi, ça aura des conséquences néfastes.
@MH34 : J'ai l'impression que la signification d'une chose peut être transposée en termes de feed-back.. À une chose ressentie par l'humain, il existe une réaction ou un ensemble de réactions*qui peuvent être parfaitement imitées*: la corporalité serait relative.
Sans questions il n'y a que des problèmes sans réponses.
Je pense aux expériences de détections comportementalistes pour la recherche de terroristes (analyses vidéos dans les gares et aéroports)et l'étends à une expérience de pensée dans le contect d'un régime totalitaire: l'idée étant de montrer ce côté néfaste possible. Mais tu réponds à travers le fait que l'on a un outil pour l'instant, je cite ensuite le concept Ex-machina pour réfléchir sur notre capacité à maitriser l'outil (maitriser= diriger).
Dernière modification par Liet Kynes ; 24/06/2022 à 20h02.
Sans questions il n'y a que des problèmes sans réponses.
Ok. La raison pour laquelle je me m'inquiète pas, c'est qu'on a eu récemment un régime, l'Allemagne de l'Est qui surveillait toute sa population à un niveau incroyable et avec uniquement du papier, des crayons et une bureaucratie.Je pense aux expériences de détections comportementalistes pour la recherche de terroristes (analyses vidéos dans les gares et aéroports)et l'étends à une expérience de pensée dans le contect d'un régime totalitaire: l'idée étant de montrer ce côté néfaste possible. Mais tu réponds à travers le fait que l'on a un outil pour l'instant, je cite ensuite le concept Ex-machina pour réfléchir sur notre capacité à maitriser l'outil (maitriser= diriger).
Quand aux aspects comportementaux, si demain on fait des IAs qui détectent certaines choses, on apprendra à les leurrer vu que ce n'est pas la magie.
Dans la limite de ceux qui la dirigeront. Certaines folies collectives ont des leadeurs terrorisés par celles-ci paradoxalement. On entre peut-être dans un univers de défiance arbitré par l'IA : le paroxysme de l'impasse de l'humain à statuer sur sa question existentielle. Mais cela dévie le sujet vers de la philo.
Sans questions il n'y a que des problèmes sans réponses.
qu'est ce que tu veux dire par "un signal localisé récurrent et négatif" ? c'est quoi un signal négatif ?
tu es neurophysiologiste ? si oui, explique moi ce qui est faux quand je dis que nous employons le langage humain en lien avec nos sensations. Tu crois qu'il y a un vocabulaire humain pour décrire la façon dont les chauve-souris se représentent l'espace sonore ?
4000ème variante sur le thème de "je suis intelligent, je sais tout, je suis compétent en tout et je vais tout vous expliquer y compris sur votre métier parce que vous êtes tous des idiots. Les références, c'est pour les autres parce que je suis tellement intelligent que ma parole et mes arguments fussent ils stupides et contredits 1000 fois doivent faire foi".
N'importe quel chatbot fait mieux de nos jours parce que là, on est dans la répétition à peine variée d'une seule phrase.
Ceci dit, c'est assez rigolo : quand on parle à un conspirationniste, il est conforté dans ses croyances délirantes par la contradiction et les faits.
Ici c'est pareil : peu importe le nombre d'erreurs factuelles, méthodologique et de raisonnement, le fait qu'on ne soit pas d'accord avec lui le conforte dans son idée qu'il est tellement supérieur.
C'est totalement inintéressant pour le fil mais psychologiquement instructif.
c'est effectivement psychologiquement instructif, mais contrairement à ce que tu dis, aussi très intéressant pour le fil : ton post est un magnifique exemple d'une production typiquement humaine qui ne peut être que le fruit d'un esprit frustré et agressif, mais qui n'a aucune raison d'être produit par une IA qui est dépourvue de ce genre de complexe humain - a moins qu'elle s'alimente à un corpus contenant ce genre de post qu'elle répéterait, elle n'a aucune raison de "ressentir" la colère que tu exprimes.
Bon exemple donc pour illustrer la différence entre les deux, merci pm42 .
Dernière modification par Archi3 ; 25/06/2022 à 01h25.
Vous arrêtez tous les deux ou le vert va frapper ! Ce n’est pas digne de vous.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
c'est vrai (et ça aurait pu sans doute etre dit dès 19h03), mais ce que je disais était sérieux : c'est aussi "typiquement humain" de dire des choses "pas dignes de soi". Ce n'est pas le genre de chose qu'on dirait à une IA, parce qu'on ne la dote pas d'une vraie "personnalité" justement ...(enfin si on veut pas se faire virer de google )
Un signal négatif serait un signal (juste un event / un objet en mémoire qui est ajouté dans une liste qui est vérifiée périodiquement) qui, au fur et à mesure que sa magnitude (un entier positif) augmente, chamboulerait l'ordre du système de motivation de la machine (ses priorités). Si tu as faim, tu veux réduire cette sensation de faim. Si tu as mal, tu veux réduire cette sensation de douleur. Version hyper simplifiée certes, mais tu peux ajouter des features petit à petit jusqu'à avoir une belle approximation des effets des émotions sur notre comportement. Avec un peu de métacognition, l'IA serait quasiment capable de modéliser ce qu'il se passe dans la conscience de l'individu (l'équivalent de ce signal négatif qui veut être évité/réduit à tout prix).
Mais même sans connaissances préalables insérées dans l'IA, il me semble qu'une certaine conception de la douleur peut-être acquise
Le pattern de l'état douloureux serait rapidement saisi (expressions faciales/exclamations récurrentes à la suite de certaines interactions spécifiques).
Les spécificités temporales aussi serait rapidement saisies (la douleur persiste tant que l'interaction continue, se réduit au fur et à mesure que la cause s'éloigne dans l'espace/le temps).
L'IA, même vierge de tout à priori, comprendrait ainsi que les humains fuient ce pattern comportemental "d'état douloureux".
C'est déjà pas mal je trouve pour un robot. Ensuite, le comportement moral/éthique est lui plus compliqué mais pas forcément hors de portéé, il y a certainement une partie empathie émotionnelle qui est préexistante dans notre cerveau et génère un état négatif quand on inflige de la douleur/voit une personne dans un état douloureux, et une large part sociétale + prédispositions à rechercher un certain status dans la société, ça se détaille.
Et alors? Cela n'enlève rien au coté néfaste, au contraire, avec l'Ia il est accru, en tout cas c'est ce que l'on peut constater dans le ressenti des "réfractaires" à l'IA, par ex il est estimé que la NSA est en capacité de localiser 5 milliards de portables/jour, et 42 milliards de données internet/jour (mails, historique de navigation ect).
C'est ça qui inquiète pas mal de monde, pas que à cause de ce "nouvel outil" qu'est l'IA on soit espionné, ça a toujours existé (même si pour la Stasi, les fondations de l'espionnage n'a rien à voir, comparaison n'est pas raison), mais que avec ce "nouvel outil" l'espionnage passe à un niveau supérieur négatif et qui peut potentiellement concerner tout le monde avec un niveau qui ne soit pas nécessaire. Pas besoin de faire de la recherche de renseignements et collecter des données sur Robert qui navigue sur le net, là avec l'IA ça peut se faire et avec un niveau intrusif qui ne correspond pas à la navigation de Robert, même si il a été sur un site de stream ou porno, idem quand Robert se ballade dans la rue avec toute ces caméras, d'ailleurs l'IA pourra bientôt servir pour envoyer des notifs à Robert lui disant qu'un magasin entrant dans ces centres d'intérêt se situe à 2 rues d'où il se trouve, on peut donc légitimement penser qu'un tel outil mis entre de mauvaises mains ça soit préoccupant, et là vu la puissance de l'outil...c'est il me semble très compréhensible.
L'argument est étonnant. On peut dire que le "ressenti des réfractaires au vaccin" est un argument contre ?
Le ressenti des réfractaire à la Terre ronde prouve t'il qu'elle est plate ?
Cela n'a rien à voir avec l'IA : elle faisait déjà cela bien avant les avancées actuelles.
"Pas mal de monde" ? C'est chiffré, une référence ?
Parce que là, on a eu du "ressenti" et un truc qui n'a rien à voir avec le sujet donc pour le moment, cela ressemble à "je crois que ... sans connaitre le sujet et donc c'est vrai"
Pas besoin d'IA non plus pour faire ça, on a juste besoin de bases de données et d'un peu de stats.
Comme souvent, les peurs et les "préoccupations" viennent de l'ignorance.
Ce qui est étonnant c'est que vous fassiez semblant de ne pas comprendre l'argument et le détourné. Il ne s'agit d'un argument contre mais d'un argument qui permet de se poser des questions sur l'encadrement de l'outil IA, arrêtez vos sophismes si vous voulez discuter de façon raisonnable.
Ha non j'ai pas d'études passées en comité par les pairs, c'est un sujet qui revient souvent (et pas que sur FS), dans divers médias (et pas que les réseaux socio) cette peur de l'IA...mais il doit bien y avoir des études sociologiques là-dessus. Vous êtes ignorant de cette peur?(films, livres, débats ect...)
"Pas mal de monde" ? C'est chiffré, une référence ?
Donc ce n'est que du big data? la gestion des données pour une réponse intelligente (réactivité/pertinence ect) n'implique pas une fusion des capacités de bigdata et IA?Pas besoin d'IA non plus pour faire ça, on a juste besoin de bases de données et d'un peu de stats.
Bah je répondais sur votre post parlant de l'espionnage et de l'ex-RDA...Parce que là, on a eu du "ressenti" et un truc qui n'a rien à voir avec le sujet
Vous êtes désagréable et assez agressif, ne vous plaignez pas que je réponde de la même façon..donc pour le moment, cela ressemble à "je crois que ... sans connaitre le sujet et donc c'est vrai"
Sinon, allez donc expliquer aux experts du domaine qui font des colloques sur les potentiels problèmes de l'utilisation de cet outil (formidable outil, et sans aucune ironie) qu'est l'IA(j'avais vu ça sur le net, j'ai pas la réf, mais ça doit pouvoir se retrouver), ou pourquoi, que ce soit la CNIL ou même au niveau européen c'est un sujet qui est sur la table car il y a un besoin de cadrer les dérives éventuelles, dérivent à cause de l'homme qui utilise cet outil, et c'est ça qui résume la préoccupation, vu la puissance de l'outil, et au vu de l'expérience que l'on a des comportements humain, pour se préserver d'éventuels problèmes, réfléchir pour cadrer et se prémunir de ces problèmes n'est pas idiot, ce n'est pas l'IA qui est remise en cause, mais son utilisation, et c'est pas un petit outil, il est très puissant et ce n'est pas fini.Comme souvent, les peurs et les "préoccupations" viennent de l'ignorance.
Donc puisque tout ces gens sont ignorants, que vous, pm42, vous vous rapprochiez d'eux pour leur expliquer qu'ils se trompe et qu'il n'y a aucune raison d'essayer de réfléchir sur ça, puisque on a connu ça avec l'ex-RDA et l'IA n'y est pour rien....ça devrait les faire marrer (oui, là aussi c'est du ressenti...).
Dernière modification par Avatar10 ; 25/06/2022 à 11h18.
Comme à chaque fois, les gens qui ne connaissent pas un domaine et qui expliquent à ceux dont c'est le métier réagissent aux objections par le mépris et la réaffirmation de l'infériorité intellectuelle de leurs contradicteurs.
Et attaques perso, argument d'autorité, aucune référence, explication que contredire est "agressif". La totale.
Je vais arrêter là mais si l'IA intéresse quelqu'un, qu'il sache que certains posteurs ici racontent n'importe quoi d'une ampleur à peine croyable, tout simplement parce qu'ils n'ont absolument aucune idée de ce que c'est, ce qui existe, à quoi ça sert...
Et c'est simple à détecter :
- aucun lien
- aucune référence
- aucun terme technique du domaine
- beaucoup de bla-bla sur le thème de "moi je sais et pas vous" mais sans jamais étayer
Dernière modification par pm42 ; 25/06/2022 à 11h25.
On arrive au problème que toute technologie peut se trouver être au service de gens malintentionnés. Mais ce n'est pas le sujet du fil.
Le sujet porte sur l'IA forte.
Pour cette dernière et la digression sur la peur, il y a un ouvrage qui est publié:
"https://www.seuil.com/ouvrage/le-mythe-de-la-singularite-jean-gabriel-ganascia/9782021309997"
Quelqu'un l'a lu ?
Sans questions il n'y a que des problèmes sans réponses.
Une fois de plus on constate deux choses avec les discussions sur l’IA :
- Elles dérivent loin de la question initiale (il n’y a qu’à relire le titre).
- Elles pourrissent toutes dans des polémiques sur un ton de plus en plus désagréable.
Fermeture.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac