quel type de transhumanisme ? et il est fort peu probable qu'il soit accessible de la même manière pour tous !
utopisme? et sans précision de surcroit .
Salut,
D'une manière générale, il me semble assez évident qu'avec l'avènement du Big Data, les I.A. vont de plus en plus "s'inviter" dans bon nombre d'usage. Tout ce qui concerne l'analyse de gros volumes de données à l'échelle d'une entreprise ou d'un pays. On a parlé de la reconnaissance faciale, citons aussi l'analyse de l'évolution micro et macro économique en fonction de décisions divers (quelles soient dans le cadre professionnel ou dans le cadre politique), l'analyse des flux financiers, le transport des marchandises (avec les contrôles douaniers, la sécurité et le contrôle de divers trafics), les transports en général, la consommation, etc... etc....
Les I.A. vont certainement assez vite se retrouver partout où il y a de gros volumes données (et c'est devenue très courant, des analyses complexes. Sous forme d'aide à la décision.
Trois risques se dessinent :
1) Une définition peu transparente des objectifs lors de la création de ces IA. Que ce soit volontaire (et là ça se reflète tant dans la conception de l'IA que dans son usage) ou non (biais dans les données utilisées, rabotage des coûts conduisant à "aller trop vite",...)
2) Un fonctionnement non transparent des IA dont on comprendrait mal la raison des résultats fournis par l'IA (et donc le risque de laisser passer une faille/bug).
3) Sauter le pas entre aide à la décision et "décision tout court"
Pour le 1, il existe déjà deux choses :
- La réglementation. On ne peut pas faire n'importe quoi, heureusement, il y a des lois. Le tout est qu'elles évoluent avec les technologies (on l'a vu avec la présentation de Google de son assistant. Faut-il que le public soit systématiquement informé qu'il communique avec une IA ? La question ne s'était pas posée jusqu'ici. On n'y répondra pas ici, c'est un sujet pour les comités d'éthiques et nos chers législateurs adorés ).
- Des problème s'étant déjà posé avec des données biaisées, des études scientifiques sont en cours pour améliorer l'apprentissage du deep learning.
Pour le 2, idem, il y a pas mal d'études en cours, notamment pour marier deep learning et systèmes experts qui sont fort complémentaires. Ce mariage est difficile mais conduira à deux conséquences : une augmentation de la puissance des I.A. (faut pas s'étonner ), amélioration de la transparence des décisions de l'IA ou en tout cas amélioration des outils permettant d'avoir cette transparence tant recherchée en médecine par exemple (si la machine dit "coupez lui la tête", on voudrait bien savoir si c'est normal ou si un crétin lui a fait lire "la reine rouge" )
Le 3 est plus problématique. Je pense qu'il y a peu de chance que des politiques ou des chefs d'entreprise en arrivent un jour à dire "je démissionne, obéissez maintenant à mon assistant 4.0"), ni même qu'on légifère afin de le rendre possible. Le risque est plutôt une IA qui n'a aucun pouvoir d'imposer ses décisions mais qui en pratique le fait bel et bien : parce que personne ne comprend plus pourquoi elle décide ça et ça, parce qu'on a bien vu qu'on ne pouvait pas s'en passer, parce qu'on a bien vu que faire le contraire est catastrophique, parce qu'on a l'habitude et puis voilà.
Si ces I.A. font le job "correctement" (ce qui reste à définir !), pas de soucis. Mais le risque est les point 1 et 2 qui subsisteront toujours peu ou prou et qui pourraient être exacerbé si on suit aveuglément la machine, tout simplement "parce qu'on a toujours fait comme ça".
Quand je vois l'évolution de nos sociétés, la façon dont on se comporte, comment les choses progressent, c'est (amha !) le plus gros risque. Qu'on devienne les assistés volontaires d'IA biaisées et buguées. Va falloir sérieusement serrer les boulons autour des points 1 et 2 si on veut éviter la catastrophe. C'est du moins, il me semble, la seule voie car le 3..... ce n'est pas quelques esprits forts ou quelques bonnes volontés disant "faut pas faire ça" qui va empêcher cinq milliards de gens de suivre aveuglément "l'autorité" (les boss/politiques/patrons assistés d'IA qu'ils suivent eux aussi parce que c'est leur intérêt professionnel/politique).
Visions un peu pessimiste. Mais moins manichéenne et moins futuriste qu'une IA "forte" qui nous transformerait en esclaves.
Dernière modification par Deedee81 ; 05/07/2018 à 08h21.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Pour la Science, "Intelligences artificielles : un apprentissage pas si profond !", Jean-Paul Delahaye
Je ne sais malheureusement pas accéder à l'article d'ici, mais il me semble (à vérifier) que la référence qu'il a utilisé pour ce mariage est :
A. Ng, What artificial intelligence can and can’t do right now, Harvard Business Review, vol. 9, 2016.
A confirmer.
L'exemple que Delahaye donne est la reconnaissance d'image par deep learning, par exemple pour reconnaitre des chevaux, où il est difficile d'intégrer des règles (typiques des S.E.) générales du type "Si cela a quatre pattes et une selle, alors c'est sûrement un cheval".
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
L'article de Ng est là:
https://hbr.org/2016/11/what-artific...t-do-right-now.
C'est un article de popularisation qui ne fait aucune mention des systèmes experts. Perso mon impression est que c'est une idée marginale. Pour une liste des sujets chauds, ceci sera probablement utile:
https://github.com/terryum/awesome-deep-learning-papers
A propos d'IA en imagerie...je me souviens avoir essayé il y a deux ou trois ans un système qui permettait de faire automatiquement les mesures de biométrie foetale. Si le plan de coupe était bon, ( plan de coupe sélectionné par l'opérateur )la précision des mesures était tout à fait remarquable. Mais si les conditions techniques de l'examen étaient mauvaises...il ne reconnaissait plus rien. Alors que c'est justement dans ces conditions qu'on aurait besoin d'aide. Autrement dit le système fonctionnait très bien... quand on n'en avait pas besoin.
J'ignore si des progrès ont été accomplis depuis à ce niveau, je n'en ai pas vu mention sur les sites des constructeurs.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
D'accord, merci. Faut donc voir si Delahaye précise une référence (possible que non).
Marginale, je ne sais pas. Par contre, j'ai été un peu vite avec mon "beaucoup d'études".
De ce qu'en dit Delahaye (et il est plutôt convainquant) c'est qu'il faudra peu ou prou approfondir ce sujet à un moment où à un autre.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
bonjour Deedde,
j'ai bien lu ton post 242:
je ne me fais aucune illusion sur le point 3) car aucun décideur n'avouera avoir été influencé ( ou pire ) par une analyse IA !
quand au point 2) , il me semble amusant de noter que les partisans de l'IA Forte en font un argument en faveur de celle ci, sous le thème :
" on n'a même pas compris le pourquoi du comment de sa conclusion, ce qui prouve qu'elle a sa propre forme de conscience"
Et comme ses capacités sont "énormes" ( les quelles exactement ? ) , cette "conscience" est sensée être à terme plus objective/constructive..
rhétorique déjà entendue sur le forum.
Sachant qu'au départ , elle est construite sur le point 1)
Une sorte de pas vers une nouvelle forme de croyance ?
Ah tiens, je ne savais pas. Amusant en effet
Une forme de scientisme. Ce n'est sans doute pas très nouveau.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
C'était juste une hypothèse très générale, rien de plus.
Si ce n'est pas fait volontairement, le pragmatisme devrait nous éviter ce genre d'inconvénients. Je veux dire par là qu'on devrait être capable de juger si les performances sont moins bonnes ou meilleures.
Ca fait un peu sophisme :
- si on comprend pas, c'est que c'est trop intelligent pour qu'on comprenne
- si c'est très intelligent alors c'est forcément juste
Ca me rappelle le :
- ce qui est rare est chers
- ce qui est bon marché est rare
- donc ce qui est bon marché est chers
Mais ceci dit, hors amusement, ce genre d'attitude de m'inquiète pas car :
- les concepteurs d'IA cherchent à concevoir des I.A. qui répondent à des cahiers des charges précis
- ceux qui utilisent ces IA peuvent chercher à comprendre les résultats s'ils en ont besoin (comme en médecine, pour des raisons éthiques ou légales)
Et donc ce côté scientiste "c'est mieux si on comprend que dale" ne joue pas, du moins sur cet aspect (il peut jouer autrement, par exemple à travers des groupes de pression, les loby, pour favoriser le développement des IA).
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
j'y ajoute que dans des sociétés comme la France ou on forme aussi des soit-disantes "élites" ( l'ENA et les Grandes Ecoles de commerce d'un coté, les Grandes écoles d'ingé de l'autre ).
je les vois mal ( les connaissant ) abandonner ou faire fi de leur propres capacités de raisonnement ( qu'ils soient justes ou non ) pour les laisser se dicter par des "machines".
Sauf que ça ne fonctionne pas comme ça... ou alors, c'est choisir de laisser sciemment un avantage compétitif à ses voisins. Mais je ne m'inquiète pas pour ces dites élites, elles sauront probablement s'adapter.j'y ajoute que dans des sociétés comme la France ou on forme aussi des soit-disantes "élites" ( l'ENA et les Grandes Ecoles de commerce d'un coté, les Grandes écoles d'ingé de l'autre ).
je les vois mal ( les connaissant ) abandonner ou faire fi de leur propres capacités de raisonnement ( qu'ils soient justes ou non ) pour les laisser se dicter par des "machines".
Je partage plutôt l'analyse de Laurent Alexandre : ceux qui vont le plus souffrir, ce sont les classes les moins favorisées.
Mais bon, je ne dis rien d'extraordinaire. C'est juste l'histoire qui se répète...
N'a de convictions que celui qui n'a rien approfondi (Cioran)
C'est un bon point. Par exemple on s'inquiète beaucoup pour les chauffeurs routier, pas beaucoup pour les radiologistes. Pourtant, d'un point de vue purement technique, remplacer les seconds est pas mal plus simple que remplacer les premiers!
Mais personne ne doute que les radiologistes sauront bénéficier de la technique à leur avantage. En fait on a déjà l'exemple au Québec, où certains examens ophtalmos qui prenaient 90 minutes en prennent maintenant 5. Est-ce que la conséquence est qu'on vire des ophtalmos? Non, la conséquence c'est qu'ils sont maintenant parmi les médecins les plus riches...
(croisement)
Pour bosser en ce moment sur le sujet, remplacer les radiologistes n'est pas si simple. Pour de la bête radio de contrôle comme nous en passons tous, peut-être et encore...
Mais pour le vrai travail, il faut réellement comprendre la médecine, prendre connaissance de l'historique du patient, parfois dialoguer avec lui, etc.
@Jiav et pm42
S'il vous plait...on dit "radiologue" en français. Ne vous laissez pas contaminer par l'anglais!
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
D'ici quelques années on n'aura qu'à appuyer sur un bouton pour obtenir un résultat pertinent, supérieur à ce qu'on aurait pu produire en infiniment plus de temps que celui de l'IA. Ceci est déjà le cas dans quelques domaines de niche qui génèrent de l'argent, mais progressivement cela s'étendra à tous les secteurs. C'est inéluctable.
L'impact sur la considération que l'homme aura de lui-même sera alors très grand. On pourra avoir tendance à se dévaloriser; et en plus, on pourra atteindre un point où l'IA pourra s'auto améliorer, avec l'aide de pousse-boutons humains. Ce qui déchargera de plus en plus l'homme de la nécessité de réfléchir.
On peut imaginer une sorte de décadence "dorée" dans laquelle l'humain se vautrerait 90% du temps dans des plaisirs hédonistes alors que les IAs plancheraient sur le travail à accomplir pour que cela continue.
Peut-être que jusqu'à un certain point on sera obligé de s'hybrider avec la machine pour sauver le genre humain et éviter de régresser.
Oui, tu as raison de preciser. Par "remplacer" je voulais dire "remplacer une partie significative du travail" et non "remplacer 100% des taches". Les radiologistes (si si) sont plus faciles a remplacer dans le premier sens, pas dans le second.
Tututut, maudite francaise.
http://bdl.oqlf.gouv.qc.ca/bdl/gabarit_bdl.asp?id=5259
( topolectal? bon donc c'est un topolectalisme... c'est vrai que ca sonne contagieux...)
Salut,
Je suis d'accord avec les dernières réflexions. Le tout est de savoir si c'est bien ou mal, si ça présente des risques ou des problèmes ou pas.
Par exemple je suis d'accord avec ça. Mais :D'ici quelques années on n'aura qu'à appuyer sur un bouton pour obtenir un résultat pertinent, supérieur à ce qu'on aurait pu produire en infiniment plus de temps que celui de l'IA. Ceci est déjà le cas dans quelques domaines de niche qui génèrent de l'argent, mais progressivement cela s'étendra à tous les secteurs. C'est inéluctable.
L'impact sur la considération que l'homme aura de lui-même sera alors très grand. On pourra avoir tendance à se dévaloriser; et en plus, on pourra atteindre un point où l'IA pourra s'auto améliorer, avec l'aide de pousse-boutons humains.
Ca, c'est pour moi trop S.F. Je serais bien incapable si c'est plausible ou pas, d'autant que le futur ce n'est pas que l'IA et c'est plein d'incertitude.Ce qui déchargera de plus en plus l'homme de la nécessité de réfléchir.
On peut imaginer une sorte de décadence "dorée" dans laquelle l'humain se vautrerait 90% du temps dans des plaisirs hédonistes alors que les IAs plancheraient sur le travail à accomplir pour que cela continue.
Peut-être que jusqu'à un certain point on sera obligé de s'hybrider avec la machine pour sauver le genre humain et éviter de régresser.
Même sur le passage "Ce qui déchargera de plus en plus l'homme de la nécessité de réfléchir" j'ai des doutes.
Un exemple récent (désolé, je l'ai lu dans un article de psycho de PLS ou la Recherche et je n'ai pas la référence en tête). Une étude a été menée sur les capacités mémorielles des jeunes (ados et jeunes adultes). On a constaté que les gens (en moyenne) mémorisaient de moins en moins de fait ! Perte de mémoire ? Hé non. En fait on mémorise aussi la manière de retrouver l'information (à travers internet, le GPS, etc...). Donc, il ne s'agit pas d'une diminution de nos capacités du fait que l'information est omniprésente et accessible mais d'une modification de nos capacités, celles-ci s'adaptant à la situation. Plasticité du cerveau oblige.
Je ne qualifierai pas ce type d'évolution (en bien ou en mal), elle est juste constatée.
Je présume qu'avec l'évolution plausible suggérée ici des IA il y aura une évolution et une adaptation de la manière dont nous réfléchissons. Pas une diminution de nos capacités de réflexion. Enfin, faut l'espérer On ne traitera plus les mêmes informations de la même manière. Mais je suis infoutu de dire quelle forme cela prendra !!!! Larves ou dieux deviendrons-nous, that'is de question.... qu'il faudra poser à THE I.A.
Dernière modification par Deedee81 ; 06/07/2018 à 07h46.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Salut ;
assez en phase avec l'ensemble, sauf avec le dernier mot.Je présume qu'avec l'évolution plausible suggérée ici des IA il y aura une évolution et une adaptation de la manière dont nous réfléchissons. Pas une diminution de nos capacités de réflexion. Enfin, faut l'espérer On ne traitera plus les mêmes informations de la même manière. Mais je suis infoutu de dire quelle forme cela prendra !!!! Larves ou dieux deviendrons-nous, that'is de question.... qu'il faudra poser à THE I.A.
que je remplacerai par "qu'il faudra se poser"
mais je suppose que tu l'as fait exprès !
Cdt
On va comme même pas se laisser "baiser" par des machines !
C'était mon dicton favori quand je jouais au flipper !
Non, cette dernière partie (en gras) était juste une blague à double sens :
"je veux savoir si je sais encore réfléchir ou pas, je ne sais pas, je vais poser la question à l'IA"
Et
"Nous sommes devenus des dieux, d'ailleurs notre dieu l'IA le confirme"
Oui, je sais, c'était du Nième degré
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
OKI, je vais changer de pseudo alors, un truc plus "divin" ou "pharaonique", comme cela existe ici
ou bien style "advengers" , c'est à la mode en ce moment !
En plus , je "renais" virtuellement avec 0 mess à mon compteur !
je vais y réfléchir
Bah si on utilise aussi l'IA pour faire de l'eugénismeJe présume qu'avec l'évolution plausible suggérée ici des IA il y aura une évolution et une adaptation de la manière dont nous réfléchissons. Pas une diminution de nos capacités de réflexion. Enfin, faut l'espérer On ne traitera plus les mêmes informations de la même manière. Mais je suis infoutu de dire quelle forme cela prendra !!!! Larves ou dieux deviendrons-nous, that'is de question.... qu'il faudra poser à THE I.A.
Parce que effectivement, on parle souvent du transhumanisme, mais l'IA pourrait également servir à sélectionner les "meilleurs" profils génétiques ou à en modifier d'autres pour favoriser les performances intellectuelles.
ha bon !
est ce encore une projection sur un truc inconnu ( l'identification de gènes corrélés directement au QI ? )
+ celle sur des mesures/autorisations eugénistes qui fleurtent avec des lignes rouges ( d'un point de vue éthique ) ?
Et comme pour beaucoup de choses dites ici, pas besoin d'IA pour ça et il n'est même pas évident qu'elle apporte quelque chose.
On confond apparemment Big Data et IA et on accorde à cette dernière des pouvoirs étonnants. Comme d'hab, elle sert à projeter des peurs (la même chose s'est produite au début d'Internet).