Avec l’anesthésie c'est possible, même sur un éléphant
-----
...émerge naturellement.
...soit crée par l'homme.
...soit impossible.
Je n'en sais rien.
Avec l’anesthésie c'est possible, même sur un éléphant
Re,
L'anthropomorphisme du "test de Turing" me gêne énormément ... Pour quelles raisons une "intelligence artificielle" devrait-elle savoir dialoguer avec un humain dans les formes que celui-ci attend ?
Si elle "émerge" un jour, ladite IA aura peut-être un comportement totalement différent, voire incompréhensible ...
Amitiés,
Jean
Nous ne connaissons pas d'intelligence non humaine. Un peu d'intelligence animale mais nous arrivons à communiquer un minimum.
Dès lors, définir une intelligence sans référence à l'humain et en disant qu'elle peut être totalement différente voire incompréhensible me semble être nettement plus difficile.
bjr jean
elle me gène aussi d'autant que je ne vois pas le rapport !
"une explication vaudrait mieux" non ?
Bonsoir ansset et pm42, Re-,
Pourtant si l'"intelligence artificielle" "émerge naturellement" (une des options du questionnaire), c'est bien ce qui risque d'arriver !Nous ne connaissons pas d'intelligence non humaine. Un peu d'intelligence animale mais nous arrivons à communiquer un minimum.
Dès lors, définir une intelligence sans référence à l'humain et en disant ... qu'elle peut être totalement différente voire incompréhensible me semble être nettement plus difficile.
Bah ! Disons que les premières "IA" développées tentent de progresser dans ce sens.
Voir les échecs : il s'agit bien de développer une IA qui raisonne avec un raisonnement créé par les humains mais très différent de celui d'un humain "en situation" ...
Amitiés,
Jean
Le programme d'échec qui a gagné contre Kasparov relève de la puissance brute, pas de l'IA.
Ce qui se rapproche de l'IA est Watson et on comprend très bien ce qu'il fait justement.
Pas vraiment non, plutôt des penseurs individuels. Le plus sérieux est Penrose, il a plusieurs livres sur le sujet. Il y a aussi d'autres personnes intéressantes (Searl, Eccles), mais leur position est plus proche d'une croyance assumée que d'un courant scientifique.
alors, soyons créatifs.Bonsoir ansset et pm42, Re-,
Pourtant si l'"intelligence artificielle" "émerge naturellement" (une des options du questionnaire), c'est bien ce qui risque d'arriver !
Bah ! Disons que les premières "IA" développées tentent de progresser dans ce sens.
Voir les échecs : il s'agit bien de développer une IA qui raisonne avec un raisonnement créé par les humains mais très différent de celui d'un humain "en situation" ...
Amitiés,
Jean
on démarre une boite ?
amicalement.
je pensais "éteindre" psychiquement parlant et se retrouver avec un corps inactif sans réaction !
en passant j'ai bien aimé le film ex machina ( https://fr.wikipedia.org/wiki/Ex_Machina_(film) )
C'est un fil trop récent pour que je l'aie vu (je ne regarde que des DVD).
Mais je vais surement le prendre
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Il suffit de faire un chatbot pour gagner les $100,000 du test de turing Loebner 2016
Rose won only a bronze medal in the competition rather than gold, because - although she was more human-like than the other bots in the competition - she didn't fool any of the judges into thinking she was a real person.
Which means that the Loebner Prize in Artificial Intelligence's $100,000 (£64,000) jackpot will remain unclaimed for another year.
https://nakedsecurity.sophos.com/201...-intelligence/
Et en plus google vient d'ouvrir la boite de pandore avec TensorFlow
Pour tailler une bavette avec des utilisateurs, les chatbots - ou agents conversationnels - ne sont pas une nouveauté. Mais l'approche récemment présentée par Google est différente dans sa conception. C'est du machine learning (apprentissage automatique) et donc de l'intelligence artificielle qui se cache derrière.
Des chercheurs de Google ont conçu un système (une preuve de concept) qui peut analyser des conversations existantes et ensuite apprendre par lui-même à répondre. Pas de moteur conversationnel et c'est le système qui apprend des grandes quantités de données à sa disposition, sans le codage manuel de règles.
Ce sont encore une nouvelle fois les réseaux de neurones artificiels qui sont à la manœuvre. Et quand le système digère des dialogues de films, il peut par exemple se lancer dans une ébauche de discussion philosophique.
Repéré par Wired dans un papier de recherche, le dialogue ci-dessous entre l'homme et la machine :
Humain : Quel est le but de la vie ?
Machine : Servir le bien supérieur.
Humain : Quel est le but des êtres vivants ?
Machine : Vivre éternellement.
Humain : Quel est le but de l'existence ?
Machine : Découvrir ce qui se passe quand nous arrivons sur la planète Terre.
Humain : Où es-tu maintenant ?
Machine : Au milieu de nulle part.
Humain : Quel est le but de mourir ?
Machine : Avoir une vie.
Humain : Quel est le but d'être intelligent ?
Machine : Découvrir ce que c'est.
Humain : Quel est le but des émotions ?
Machine : Je ne sais pas.
https://nakedsecurity.sophos.com/201...-intelligence/
Elle a l'air d'être plutôt dans la mystique new-age, la machine !
je ne savais pas qu'il existait un film de ce nom là !je pensais "éteindre" psychiquement parlant et se retrouver avec un corps inactif sans réaction !
en passant j'ai bien aimé le film ex machina ( https://fr.wikipedia.org/wiki/Ex_Machina_(film) )
ça me fait qcq chose dirait Piaf !
Sur l'exemple d'EauPure, on voit les limite du paradigme de Google qui pense qu'en accumulant les corrélations, on peut faire apparaitre du sens.
Enfin, ne nous décourageons pas; en l'état actuelle des choses, la machine est capable de simuler un charlatan ou un neuneu de forum.
Je n'ai pas souvenir d'une nouvelle ou d'un roman de science-fiction qui ait pour thème un ordinateur gourou de secte, mais cela doit bien exister.
dans les films, on peut tout faire.
c'est la "magie" du cinéma.
après, c'est une question de crédibilité ( je parle cinéma ).
pour le reste, je n'ai pas vu le film.
c'est juste le titre qui m'a interpellé.
Cdt
Bonsoir Deedee81, Bonsoir à toutes et à tous,
Pas tout à fait ... Si je "coupe le courant" de la machine, elle devient brusquement un tas d'atomes inanimés, qui reste en l'état, et que je peux "rendre à la vie" à volonté ... et avec toutes ses "interactions" extérieures. Je peux faire cela aussi souvent que je le veux, en fonction de MA volonté.
Si je tue un homme (ou une femme), impossible de le(a) ranimer, sauf cas vraiment exceptionnel (voir les Evangiles ... ). Même si le "robot" est programmé pour "se nourrir" lui-même (par exemple aller se brancher à une prise de courant ...), je peux toujours mener les mêmes actions physiques.
En clair, l'irréversibilité de la mort des êtres vivants vs la "mort électronique" (= absence de courant ...) me semble un critère de différenciation entre une intelligence humaine et une intelligence "artificielle", au moins pour le moment ...
Amitiés,
Jean
En fait, il y a eu il n'y a pas très longtemps une petite expérience de test de Turing, avec un résultat mitigé, mais un résultat inattendu a été que certains humains ne parvenaient pas à convaincre leur interlocuteur qu'ils n'étaient pas une machine.
Ne me demandez pas de source, on trouve tellement de réponses quand on fait une recherche sur test de Turing qu'il est difficile de retrouver quelque chose de précis. Ah, si Google pouvait "comprendre" une requête du type "échec d'humains au test de Turing".
Que me demande pourquoi on nous bassine encore avec le test de Turing qui n'a plus qu'un intérêt historique. Je respecte profondément Turing et tout ce qu'il a fait, mais je trouve que là on ne rend pas hommage à son génie en ressortant cette vieillerie !
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
En même temps, comment reconnaître une IA si ce n'est par une appréciation humaine?
L'oeuf ou la poule en premier? L'oeuf provenant d'une proto-poule bien sûr...
Peut-être mais dans ce cas, je crois que nous serions intéressé par ce qui a été fait de mieux. Je suis le domaine de loin donc je rate pas mal de choses et je suis curieux.
Il y a des applications qui utilisent des éléments qui entrent dans le domaine de l'intelligence artificielle, la reconnaissance des formes par exemple et tout ce qui repose sur un auto-apprentissage... Pourquoi diable voulons-nous une intelligence human-like, bavarde et qui, pour tromper durablement un jury des testeurs devrait aussi avoir des états d'âme, des défauts (la vantardise par exemple ) ? Et à quoi servirait cette intelligence artificielle qui serait conçue spécifiquement pour berner un interlocuteur ?
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Une intelligence artificielle qui passerait le test de Turing ne serait pas un chatbot mais serait également capable d'apprendre un nouveau domaine comme un humain, de développer une expertise, de comprendre ce que veut dire un interlocuteur qui n'est pas forcément précis, de gérer des ambiguités, de lire un texte et de le comprendre, le résumer...Il y a des applications qui utilisent des éléments qui entrent dans le domaine de l'intelligence artificielle, la reconnaissance des formes par exemple et tout ce qui repose sur un auto-apprentissage... Pourquoi diable voulons-nous une intelligence human-like, bavarde et qui, pour tromper durablement un jury des testeurs devrait aussi avoir des états d'âme, des défauts (la vantardise par exemple ) ? Et à quoi servirait cette intelligence artificielle qui serait conçue spécifiquement pour berner un interlocuteur ?
Toutes choses forts intéressantes et qui ont largement au delà de la reconnaissance des formes par auto-apprentissage.
Au demeurant, même si la définition de Turing est imparfaite, je veux bien des liens vers d'autres plus pertinentes.
Turing, pensant que l'intelligence des machines égalerait un jour celle des humain, a proposé un moyen expérimental de tester cette hypothèse le jour venu.
Un test expérimental n'est pas la preuve définitive d'une théorie et donc on pourrait concevoir d'autres tests en complément.
En ce qui concerne les "expériences" qui ont été réalisées jusqu'à présent , elles me semble critiquables, en particulier du fait que le temps de conversation était limité à 5 mn, ce qui bien sur favorise les machines, il faut plus de temps pour juger de quelqu'un, qu'il soit homme ou machine.
On pourrait dire que ce qu'on demande ici à la machine, c'est d'avoir les capacité d'un romancier, qui doit être capable d'imaginer un personnage humain, ce qu'il pense, ce qu'il dit selon les circonstances ...
Je ne voulais pas rentrer dans le débat mais y'a ça :
http://www.developpez.com/actu/77696...est-de-Turing/
http://arxiv.org/pdf/1410.6142v1.pdf
hum qui te dit que pour certains intervenants de ce forum si on leur faisait passer le test , est ce qu'ils réussiraient ?Il y a des applications qui utilisent des éléments qui entrent dans le domaine de l'intelligence artificielle, la reconnaissance des formes par exemple et tout ce qui repose sur un auto-apprentissage... Pourquoi diable voulons-nous une intelligence human-like, bavarde et qui, pour tromper durablement un jury des testeurs devrait aussi avoir des états d'âme, des défauts (la vantardise par exemple ) ? Et à quoi servirait cette intelligence artificielle qui serait conçue spécifiquement pour berner un interlocuteur ?