Pour rigoler, les dangers de la lecture au lit : http://www.slate.fr/story/145908/lir...use-subversive
Et un peu d'histoire sur le même thème : http://www.slate.fr/story/17675/fuye...fuyez-facebook
-----
Pour rigoler, les dangers de la lecture au lit : http://www.slate.fr/story/145908/lir...use-subversive
Et un peu d'histoire sur le même thème : http://www.slate.fr/story/17675/fuye...fuyez-facebook
Et c'est reparti avec la génétique sur un fil IA alors que la modération a déjà fait le ménage 2 fois.
Même un réseau avec 2 neurones aurait fini par comprendre.
P.S : si tu veux parler des flagelles des spermatozoïdes, il y a un forum sur FS plus adapté. Mais merci d'illustrer mon message plus haut qui disait que la plupart des posts ne traduisent que les obsessions de leurs auteurs.
tu as raison, je regrette d'avoir répondu.
mais c'est aussi parce que certains projections à long terme ne s'appuient sur pas grand chose ( à part effectivement les opinions de chacun )
opinions qui trop souvent dans le fil se résument à des positions très dichotomiques entre l'enfer ou le paradis.
ce qui est un peu lassant.
Oui parce que c'est un test de Rorschach à une échelle sociale : on y projette sa vision du monde. Carl Sagan disait déjà cela de sa plaque/message pour les extra-terrestres sur Pioneer.
Absolument pas, en tout cas pas en ce qui me concerne. Vous aimez dire que les gens tiennent des propos qui ne sont pas étayés, pourtant nous n'avez aucun mal à vous essayer à la psychologie de comptoir...
Vous aurez remarqué que les gens disent tous à peu près la même chose sur les éventuelles conséquences de l'IA, simplement parce que c'est celles qui paraissent le plus probable.
C'est pourtant se qui se passe tous les jours avec les OGM...
Merci, c'est le premier truc qui me donne envie de lire son bouquin depuis le début du fil.Une conférence de Tegmark sur l'intelligence artificielle et la vie 3.0 avec une traduction assez bonne
https://www.youtube.com/watch?v=oYmKOgeoOz4
Une des choses intéressantes est qu'il questionne la responsabilité de l'IA dans l'élection de Trump... ce qui fait beaucoup de sens. Le point mériterait d'être traité, d'autant que c'est à ma connaissance la première occurrence d'une conséquence complètement inattendue des IA. Ce sera intéressant de voir ce que Facebook décidera de faire...
Dans quel sens dit-il cela ? Parce qu'il ne faut pas se leurrer... les méthodes utilisées par les uns le sont également par les autres. Le seul facteur limitant est celui des moyens financiers.
Carl Sagan explique que par ex, quand il propose sa plaque, tu as des réactions variées :
- certaines chaînes de télé floutent les parties sexuelles de l'homme et les seins de la femme "parce qu'on est une chaine familiale".
- certaines personnes se plaignent au contraire que la femme soit représenté avec les canons classiques c'est à dire sans un trait pour la vulve
- des religieux regrettent qu'on mettre un couple nu et disent qu'il aurait mieux valu mettre 2 mains dans la position de la prière, Dieu étant universel
- certains expliquent qu'il est très dangereux d'avoir mis des informations permettant de localiser la Terre parce qu'on donne les moyens à des extra-terrestres hostiles de nous localiser
Etc. Dans tous les cas, ces réactions n'ont rien à voir avec le message et les intentions des auteurs. Ils permettent juste d'avoir de l'info sur celui qui fait le commentaire.
C'est la même chose sur l'IA : on en parle en fait très peu sur ce fil mais certains parlent de génétique, d'autres affirment leur supériorité intellectuelle supposée, d'autres ont peur d'être surpassés...
Tu peux donc voir ce sujet comme une image : chacun y projette sa vision du monde. Là où l'un verra un joli papillon, un autre verra un crane de chien fendu en 2 (allusion à Watchmen).
Je suis heureux d'apprendre que les craintes que l'on a pu avoir à propos de la maîtrise de l'énergie nucléaire n'était que le reflet d'un conflit intérieur entre le moi et le surmoi...
C'est tout le problème des discussions de salon : on cherche le bon mot au lieu de bêtement analyser les choses froidement.
Oui, mais ça c'est du concret ( que j'ai déjà souligné dans ce fil ou un autre ) , bien éloigné des considérations sur "l IA présidente", "l'immortalité ou les trucs génétiques", "la "méga-intelligence" et j'en passe.Une des choses intéressantes est qu'il questionne la responsabilité de l'IA dans l'élection de Trump... ce qui fait beaucoup de sens. Le point mériterait d'être traité, d'autant que c'est à ma connaissance la première occurrence d'une conséquence complètement inattendue des IA. Ce sera intéressant de voir ce que Facebook décidera de faire...
je ne sais pas s'il en parle et comment, mais il y a bien eu une forme de manipulation indirecte des électeurs indécis dans 3 états clés via facebook.
tout cela piloté par une boite anglaise.
est ce de l'IA ou pas, c'est peu ou moins important
Attention, les warnings clignotent.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Accuser un parti ou l'autre est totalement ridicule puisque que les 2 ont recours à ce genre de procédé (je fais référence à Tegmark, pas à vous).
De même, si on avance que l'IA peut changer le résultat d'une élection et que c'est en quelque sorte de la manipulation, on pourrait arguer de même pour les moyens financiers. Plus vous avez d'argent, plus vous êtes en mesure d'influencer l'opinion des gens à travers votre présence médiatique, divers meetings, etc.
Bref, je trouve que ce n'est pas pertinent.
Le fait est que cela a fonctionné. ( en terme d'ingénierie , je considère cela comme "pertinent" )
Et je n'accuse aucun parti, mais le système utilisé.
Et effectivement, il existe d'autres formes de manipulation, mais celle ci était très insidieuse ( avis personnel )
Moi pense qu'il n'y a rien à craindre d'une IA: elle tombera forcément sur ce fil à un moment donné et se suicidera avant la fin...
Exemple totalement hors sujet car rien à voir avec l’IA, et politique en plus. Si ça continue (ainsi que le dénigrement méprisant des interlocuteurs) les modérateurs vont se fier à leur IN (intelligence naturelle) pour siffler la fin de la partie.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Pour cette discussion on a accepté (cherchez le message en vert) quelques écarts à la charte mais cela ne concerne ni les hors sujets ni le manque de courtoisie.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Tegmark pense que c'est droit dans le sujet, ce que tu saurais si tu avais visionne le lien fournit par mtheory. Quelle est la regle pour les sujets qui sont en lien avec la discussion selon Tegmark mais pas selon JPL?
J’avoue que revenant juste de voyage je n’ai pas regardé les liens fournis mais je trouve que l’exemple de la manipulation des électeurs n’est pas un bon exemple car trop loin de l’IA. De plus il ouvre la porte à des dérives.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Que veut dire intelligence artificielle ?
Il est facile de bloquer tout comportement anomal/méchant d'une intelligence artificielle...
Elles n'ont pas de conscience/d'égo propre.
On en est qu'au début...
Le scénario Terminator est improbable à moins qu'un con utilise cette intelligence artificielle pour détruire l'humanité.
Passons sur le "méchant" qui n'a pas de sens. Mais si tu sais comment on bloque les comportements anormaux des IA, tu vas intéresser plein de monde...
"Con" est comme "méchant" et "facile" : des mots simples qui ne disent rien à part le refus de comprendre le sujet dont on parle.
Salut,
Pour voir la difficulté, il suffit de se tourner vers la S.F. : les trois lois de Assimov. Elles semblent former un garde fou en béton armé contre les "IA méchantes". Et pourtant, Assimov dans plusieurs de ses nouvelles, mais aussi dans le film qui l'a inspiré, a passé son temps à montrer que selon l'interprétation des trois lois cela peut conduire à des dérives graves. La SF n'est pas de la science, mais ça peut être une bonne source de réflexion.
Déterminer le bien et le mal est loin d'être simple et cela concerne d'ailleurs plus les comités d'éthiques et la loi que les scientifiques.
D'un point de vue scientifique ce qu'on peut faire dans la conception d'une IA c'est :
- veiller à ce que son fonctionnement soi conforme à ce qu'on attend d'elle
- veiller à ce que l'apprentissage n'induise pas des biais inattendus
- veiller à ce qu'on puisse décortiquer les raisons de certaines réponses/attitudes de l'IA en cas de doute
Tout ça semble d'ailleurs aller de soi. Quand un constructeur imagine une nouvelle voiture, son travail consiste avant tout à s'assurer qu'elle roule !!!!
Le seul point discutable dans ce que je viens de dire est :
- c'est quoi "ce qu'on attend d'elle" ?
- quel usage en fait-on
On sait parfaitement que militaires travaillent sur des drones IA pour zones de guerre, donc des IA tueuses. On peut fabriquer des IA (et cela se profile) pour faire du prosélytisme électoral, pour faire du télémarketting,.... sans informer les gens de ce qui se passe (on a vu le tollé qu'a soulevé le nouvel assistant google capable de téléphoner tout seul à un commerçant pour une commande ou un rendez-vous, sans que le commerçant se rende compte qu'il parle à une IA).
Mais ces questions ne sont en fait pas du tout scientifique. Le seul aspect scientifique est "peut-on le faire", et la réponse est "maintenant, oui", donc danger. Ces questions sont éthiques (doit-on accepter des IA tueuses en zones de guerre ?) ou légales (le citoyen doit-il être informé de la nature de son interlocuteur ?). La SF à nouveau ne s'est pas gênée pour explorer ces questions (voir le problème à la fin de l'homme bicentenaire pour qu'il soit déclaré humain : c'est d'abord refusé car il est immortel).
Bref le problème des IA, même dans un avenir plus ou moins proche de super méga IA fortes, est un problème humain et pas du tout un problème d'IA ou de science. Là où la science peut apporter quelque chose c'est, dès que des règles éthiques, morales, légales, politiques,.... sont posées : comment veiller à les respecter. Question qui peut être épineuse mais qui fait alors partie des études scientifiques de conception qui dépassent le cadre des IA (pour reprendre le même exemple : le concepteur de voiture doit aussi veilleur à ce qu'elle respecte les règles de sécurité, les règles anti-pollution, ...)
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Dans le dernier magazine de l'INSERM ( n°40), Cedric Villani sur l'IA : "certaines craintes relèvent ce jour de la SF, comme la prise de pouvoir des machines sur l'homme"
Pour lui les craintes fondées sont celles qui concernent "l'importance qu'on donne à certains algorithmes comme ceux qui participent à l'attribution des bourses scolaires, des crédits bancaires ou encore d'emplois aux USA".
Par contre toujours pour lui, l'IA est une des clefs de compréhension de notre monde.
Autre interviewé, Peter Ford Dominey, chercheur en neurosciences computationnelles et robotique (http://www.auvergne-rhone-alpes.inse...n/annexes/u846) : avancées majeures en apprentissage profond, possibilité grâce aux modèles robotiques de tester des hypothèses neurologiques et mieux comprendre le développement cognitif chez l'enfant.
Il parle aussi de l'intelligence narrative, capacité à comprendre le comportement humain en termes d'histoires, et précise que cette forme d'intelligence est absente des systèmes d'IA, mais que c'est une recherche émergente qui pourrait aider à améliorer la coopération des machines ou étudier les troubles autistiques. Néanmoins c'est pour lui un outil à manier avec précaution, ( il cite les accidents boursiers provoqués en partie par les algorithmes de négociation automatique aux USA) et tous les niveaux de la société ont une responsabilité là-dedans . "Optimiste mais nous devons rester lucides et vigilants".
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
une contribution du psychanalyste Serge Tisseron dans le monde :
https://www.lemonde.fr/idees/article...0469_3232.html
avec un passage assez drôle :
Parce qu’elles pourront prendre l’initiative de la relation, et aussi parce que leurs fabricants alimenteront l’illusion qu’elles ont des émotions. Cela aggravera le phénomène constaté, il y a plus d’un demi-siècle, par l’informaticien Joseph Weizenbaum. Il avait écrit un programme baptisé Eliza, un précurseur des chatbots destiné à simuler un psychothérapeute dont la méthode consiste à reformuler les propos du patient en se concentrant sur ses réactions émotionnelles. Weizenbaum s’aperçut que certains des étudiants qui l’aidaient dans cette tâche avaient tendance à penser que la machine les comprenait vraiment ! Il eut alors cette phrase, qui devrait être inscrite au fronton de tous les laboratoires de recherche en IA : « Je n’aurais jamais cru qu’un programme aussi simple puisse provoquer chez des gens normaux de tels délires. »
Tous les gens qui ont fait un peu d'info connaissent cette histoire. C'est "Meta-x doctor" dans Emacs, le code source est dans Github : https://github.com/codeanticode/eliza, etc.
Utiliser cela pour en déduire quelque chose sur l'IA contemporaine est normal pour un psychanalyste : il va causer de l'aspect humain avec la rigueur scientifique qui caractérise sa profession.
C'est effectivement assez drôle mais ironiquement.