ben chez moi aussi c'était de l'humour, est ce que tu veux te donner comme exemple pour illustrer ton propre propos ?
PS : c'est toujours de l'humour.
Salut,
Tournons ça autrement (faudra déplacer ça dans le forum ludique). Pensez-vous que si les I.A. deviennent suffisamment fortes (au sens conventionnel), on risque de voir se développer involontairement des IA présentant des maladies mentales et si ou, lesquelles ? (par exemple autisme ? Schizophrénie ? Débilité ? Paranoïa ? Cyclothymie ? Dépression ? Etc....)
Question intéressante du reste, mais vu que ce genre d'IA forte reste assez spéculative (au vu de ce que nous avons maintenant. Ca peut changer très vite, je n'ai pas de boule de cristal), la question reste assez ludique.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
le problème est que ces notions ont aussi une connotation sociale. Des populations entières peuvent verser dans des comportements "aberrants" pour d'autres mais se considérer elles-mêmes comme parfaitement normales. Il n'y a pas de norme objectives pour définir ce qu'est un comportement humain "normal". Si on considérait les IA actuelles par rapport aux standards humains, elles sont toutes profondément pathologiques !
On peut se concentrer sur la définition médicale (que je dois t'avouer, je ne connais pas ). Dans ce cas il est possible de l'adapter à l'IA et ensuite de réfléchir sur "est-ce imaginable ?"le problème est que ces notions ont aussi une connotation sociale. Des populations entières peuvent verser dans des comportements "aberrants" pour d'autres mais se considérer elles-mêmes comme parfaitement normales. Il n'y a pas de norme objectives pour définir ce qu'est un comportement humain "normal". Si on considérait les IA actuelles par rapport aux standards humains, elles sont toutes profondément pathologiques !
Enfin, bon, je trouve ça intéressant en tout cas.
Mais oui, il ne faut pas tenir compte du tout de la connotation sociale. C'est bien l'aspect purement médical que j'évoque ici.
Les normes médicales sont parfaitement objectives contrairement à ce que tu dis (parfois arbitraires, perfectibles, mais objectives). C'est même une nécessité médicale (EDIT ah oui, d'ailleurs une chose que je sais, c'est que l'atlas médical officiel des maladies mentales a parfois été révisé pour ce genre de raisons : rendre les tests plus objectifs).
Exemple, la débilité qui est caractérisée par un Q.I. extrêmement faible (comparé à une norme établie, c'est une des rares définitions que je connais) peut certainement se produire pour une IA qui ne fonctionnerait pas correctement (je connais déjà pas mal de programmes débiles ).
Mais pour les autres maladies mentales, franchement, j'en sais rien.
Dernière modification par Deedee81 ; 24/01/2018 à 10h33.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
La question initiale ayant été répondue et la forme de la question ayant évolué en quelque chose de plus ludique, je déplace ici.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
la question de savoir si les pathologies mentales peuvent etre traitées sous un aspect "purement médical" est en soi un vaste débat, et c'est contesté par certains ... l'existence même du DSM (https://fr.wikipedia.org/wiki/Manuel...oubles_mentaux ) provoque des débats assez virulents... bon, cette discussion devrait etre placée encore dans un autre topic probablement !
mais c'est interessant de voir comment les débats sur l'IA sont souvent finalement un réceptacle des débats sur l'homme , sur ce qu'est l'intelligence, la normalité, la pathologie... choses dont on aimerait penser qu'elles pourraient etre définies "scientifiquement" et "objectivement", alors que ce n'est vraisemblablement pas le cas : on ne peut pas les traiter sans une certaine idéologie sous-jacente (avec des conséquences importantes sur la vie des individus, par exemple il n'est pas innocent de considérer que l'homosexualité est un trouble mental ou pas !!)
Dernière modification par Archi3 ; 24/01/2018 à 11h27.
Quelle importance ? Ce n'est pas le sujet ici. La médecine ça existe. Les définitions existent (qu'on les approuve ou pas, que ce soit discuté ou pas). On peut les adapter. Et réfléchir au cas des IA. Le reste n'est que du Hors Sujet (mais ça pourrait faire l'objet d'un autre débat, ce n'est pas Hors Thématique Futura).
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Je me suis peut-être avancé, d'autant que j'ai dit que je ne les connaissais pas, désolé. A vérifier disons.
Mais on n'a peut-être pas besoin d'un truc tip top. On peut prendre les définitions, disons, de Wikipedia. Et discuter dans quelle mesure cela pourrait se produire avec des I.A.
Enfin, bon, c'est une suggestion. Ca n'a pas l'air de beaucoup intéresser les participants.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Moi ça m'intéresse en tout cas.
Je ne sais plus quel chatbot il y a quelques années, m'avait donné exactement la même sensation que quand on parle avec un schizophrène en décompensation...
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
vu qu'il n'en existe pas c'est difficile de savoir si elles peuvent être atteintes de quelque maladie.
autre possibilité: la perte de motivation. Peut-être qu'un jour une IA qu'on aura incitée à apprendre le jeu de Go refusera d'y jouer: pourquoi perdre son temps avec ce jeu puéril?
Oui, mais là n'était-ce pas fait volontairement ? (je sais pas, je pose la question. Comme le chatbot créé récemment et qui t'engueule à longueur de message et qui donne vraiment l'impression de discuter avec un salle gamin )
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Non, manifestement pas. On en avait parlé quelque part sur le forum, il faudrait retrouver le fil. Quand on posait une question qui sortait de son "champ " ( je ne sais pas comment appeler ça), les réponses étaient tellement à côté de la plaque qu'elles évoquaient ( enfin à moi...) un problème psy grave.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Bonjour MH
Je trouve votre analogie particulièrement intéressante.Non, manifestement pas. On en avait parlé quelque part sur le forum, il faudrait retrouver le fil. Quand on posait une question qui sortait de son "champ " ( je ne sais pas comment appeler ça), les réponses étaient tellement à côté de la plaque qu'elles évoquaient ( enfin à moi...) un problème psy grave.
Certaines phases par lesquelles peuvent passer certains psychotiques sont parfois interprétées comme liées à l'éviction du sujet du signifiant (la subjectivité induite par l'inscription dans un langage/discours). C'est précisément cette subjectivité dont je doute fermement qu'elle puisse jamais être créée (en raison des circonstances fortement teintée d'émotivité, de désirs et de sentiments qui entourent l'acquisition du langage qui va constituer le discours intérieur de l'individu)
ce ne serait pas un évènement anodin , ce serait absolument fondamental - bien plus révolutionnaire que le fait qu'elle soit arrivé à battre des humains. C'est justement le fait qu'il soit impensable actuellement qu'elle dise quoi que ce soit sur ce qu'elle veut qui fait que son "intelligence" est totalement différente de celle d'un humain - qui ne sera bon au jeu de go que si il a envie d'y jouer.vu qu'il n'en existe pas c'est difficile de savoir si elles peuvent être atteintes de quelque maladie.
autre possibilité: la perte de motivation. Peut-être qu'un jour une IA qu'on aura incitée à apprendre le jeu de Go refusera d'y jouer: pourquoi perdre son temps avec ce jeu puéril?
Ramener les différences à de simples critères quantitatifs comme le nombre de parties à jouer avant d'arriver à "bien" jouer occulte totalement cette différence pourtant fondamentale.
Et vu que les IA ne sont absolument programmées pour avoir envie de quoi que ce soit, mais juste pour arriver au résultat voulu par les humains, il n'y a aucune chance que ça change dans un avenir proche ou même lointain.
J'ai retrouvé le fil ; http://forums.futura-sciences.com/co...de-turing.html
Bonsoir karlp.
Vous dites la même chose qu'Archi ici : Mais il suffirait qu'elles donnent l'impression ; pas besoin qu'elles le ressentent pour de bon, le but est que l'humain le croie. Et ça marchera à tous les coups.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Salut,
C'est marrant, on dirait une combinaison du syndrome de Dunning et Kruger plus une bonne louche de désordre narcissique de la personnalitéNon, manifestement pas. On en avait parlé quelque part sur le forum, il faudrait retrouver le fil. Quand on posait une question qui sortait de son "champ " ( je ne sais pas comment appeler ça), les réponses étaient tellement à côté de la plaque qu'elles évoquaient ( enfin à moi...) un problème psy grave.
(étant en forum ludique je me permet de dire peut-être une énorme co...ie. Mais ne pas hésiter à me rectifier)
J'ai déjà rencontré des humains comme ça sur des forums.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
mais comme les "succès" de l'IA, ses "pathologies" ne sont que superficiellement comparables à celles de l'humain, puisque le mécanisme de production est profondément différent. C'est l'équivalent virtuel des paréidolies , ou du culte du cargo , qui fait croire aussi que les IA sont "intelligentes" car leurs productions superficielles ressemblent à celles des animaux intelligents que nous sommes. Il est probable que beaucoup de gens croient sincèrement qu'il n'y a pas de gros problème à apprendre à jouer à la crapette à un robot.
Dernière modification par Archi3 ; 25/01/2018 à 07h47.
100% d'accord avec ça. D'ailleurs j'envisageais la comparaison comme étant superficielle (par les symptomes, comportements, ...) et non sur les causes profondes qui ne peuvent être que totalement différentes.mais comme les "succès" de l'IA, ses "pathologies" ne sont que superficiellement comparables à celles de l'humain, puisque le mécanisme de production est profondément différent. C'est l'équivalent virtuel des paréidolies , ou du culte du cargo , qui fait croire aussi que les IA sont "intelligentes" car leurs productions superficielles ressemblent à celles des animaux intelligents que nous sommes.
La comparaison ou la recherche des causes peut malgré tout être intéressante aussi (mais amha c'est un sujet encore plus difficile).
Hélas, là je crois bien que tu as raison.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)