...émerge naturellement.
...soit crée par l'homme.
...soit impossible.
Je n'en sais rien.
Le problème de beaucoup d'IA humaine ont de grosses difficultés à dire "Je ne sais pas , je ne peux pas vous répondre" ...
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
écrite autrement, ta phrase sous entends que les programmes sont tous prédictibles ou calculables. Or on sait que c'est faux (problème de l'arrêt). En outre, dès qu'un logiciel va réellement interagir avec son environnement, il va se modifier (en apprenant de son environnement, sinon il n'est pas intelligent) et donc produire des résultats qui ne seront plus tout noir ou tout blanc.
SI je ne prends qu'un exemple, le programme que tu utilises pour écrire sur ce forum n'a jamais été programmé pour écrire , c'est pas interaction avec son environnement (toi) qu'il l'a écrit pour communiquer avec moi.
Bonjour,écrite autrement, ta phrase sous entends que les programmes sont tous prédictibles ou calculables. Or on sait que c'est faux (problème de l'arrêt). En outre, dès qu'un logiciel va réellement interagir avec son environnement, il va se modifier (en apprenant de son environnement, sinon il n'est pas intelligent) et donc produire des résultats qui ne seront plus tout noir ou tout blanc.
SI je ne prends qu'un exemple, le programme que tu utilises pour écrire sur ce forum n'a jamais été programmé pour écrire , c'est pas interaction avec son environnement (toi) qu'il l'a écrit pour communiquer avec moi.
C’est quoi le problème de l’arrêt ?
Sinon, ce que je veux dire par tout blanc ou tout noir, c’est qu’un programme donnera une réponse en fonction de ce qu’on lui donne en entrée. Même s’il y a une pondération de sa part (plusieurs couches d'un réseau neuronal par exemple), ça reste de la « logique formelle », et il n’y a pas de réflexion mais juste une probabilité calculée mathématiquement. Un programme qui apprends change juste un peu les règles qu'il suit mais qui restent "binaires". D’un autre côté, c’est aussi un peu le cas d’un humain qui prend une décision en pesant le pour et le contre. Ce qui reste difficile à reproduire, c’est bien l’imperfection d’un résonnement humain qui arrive quand même à répondre d’une manière plus ou moins rationnelle ou qui est capable de dire qu'il ne sait pas et pourquoi…
J’espère que ma réponse n’est pas trop à côté de la plaque…
Et je n’ai pas bien compris l’analogie avec le programme du forum ? Il a bien été conçu pour qu’on y écrive ? Ça me fait penser au cerveau humain qui n'a pas évolué pour apprendre à lire et à écrire mais qui s’y est adapté.
L'oeuf ou la poule en premier? L'oeuf provenant d'une proto-poule bien sûr...
le problème de l'arrêt c'est ça:
https://fr.wikipedia.org/wiki/Probl%...#39;arr%C3%AAt
assez difficile à comprendre quand on pense qu'un programme c'est juste de la logique formelle (et qu'on suppose par là que c'est calculable).
Si tu fais réellement interagir un programme avec l'environnement, bien sur que ça restera binaire, mais ce n'est pas un argument: toute l'information est binaire (voir la théorie de l'information ). On peut approcher d'aussi près que l'on veut les nombre réels en restant en binaire, ce n'est donc pas une limitation.
Le programme du forum été conçu pour qu'on y écrive, pas pour qu'on y écrive précisément ça. Il faut concevoir une IA de la même manière pour travailler sur des idées, par lui imposer les idées sur lesquelles travailler.
Ce problème de l'arrête est aussi un problème en informatique.
Par exemple, supposons que je veuille écrire dans un compilateur une routine :
DivZero(P)
une routine qui rend true s'il y a une possibilité (éventuellement en fonction des entrées-sorties) que le programme P fasse une division par zéro.
Hé bien, c'est.... impossible !
Je pourrai le faire pour des cas particulier (par exemple une division par zéro explicite dans le code) ou (si je suis très fort) pour le cas général avec tout programme P de taille inférieure à une borne maximale M.
Mais pas dans le cas général pour toute taille de programme (même si je dispose d'une mémoire virtuellement infinie).
Puisque la question est aussi "I.A." versus "intelligence non artificielle", il est peut-être aussi intéressant de lire :
https://fr.wikipedia.org/wiki/Th%C3%A8se_de_Church
Grossièrement elle pourrait affirmer qu'aucun être humain ne pourrait faire mieux à la main que ma procédure DivZero.
A contrario quand on retourne la thèse, elle signifie qu'un programme pourrait très bien avoir tous les comportements d'une intelligence humaine.
Notons toutefois que c'est une thèse, pas un théorème
L'article en anglais est un peu plus complet.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
question de fond, cela suppose au préalable d'avoir listé TOUS les comportements humains.
sachant qu'ils sont variables d'un individu à l'autre.
soit on prend une sorte de pgcd , et on limite le champs des possibles.
soit on fabrique une sorte de ppcm, avec toutes les contradictions inhérentes évidentes.
Oui, tu as raison. Pour que ma remarque ait un sens il faudrait définir "qu'est-ce qu'un comportement (intellectuel) humain ?". Vaste programme... euh... questionquestion de fond, cela suppose au préalable d'avoir listé TOUS les comportements humains.
sachant qu'ils sont variables d'un individu à l'autre.
soit on prend une sorte de pgcd , et on limite le champs des possibles.
soit on fabrique une sorte de ppcm, avec toutes les contradictions inhérentes évidentes.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
c'est justement l'emploi du singulier qui me pose un pb structurel de fond.
Cdt.
ou alors , il reste à imaginer une IA qui répondrait sous différents "modes".
mode humour,
mode BHL
mode Laurent Ruquier
mode Ardisson,
tous les modes philosophiques ( contradictoires ! )
Etc, etc .....
cette IA serait elle compréhensible et donc crédible ?
ça se complique quand on veut savoir si un humain est humain
Pour le mode Ribery il ne faut pas plus de 2 ou 3 lignes de codec'est justement l'emploi du singulier qui me pose un pb structurel de fond.
Cdt.
ou alors , il reste à imaginer une IA qui répondrait sous différents "modes".
mode humour,
mode BHL
mode Laurent Ruquier
mode Ardisson,
tous les modes philosophiques ( contradictoires ! )
Etc, etc .....
cette IA serait elle compréhensible et donc crédible ?
Sinon, pour ce problème de l'arrêt, j'ai du mal à comprendre... C'est être capable d'anticiper si un programme s' arrêtera ou tournera en boucle? Ce n'est peut être pas calculable mais ça n'empêche pas une machine de fonctionner en "binaire", qu'on prédise ou pas le résultat.
L'oeuf ou la poule en premier? L'oeuf provenant d'une proto-poule bien sûr...
Pour le mode Ruquier il suffit qu'elle rie de ses propres blagues. aussi.
Justement, pi-r2 soulignait le coté "non prévisible"
Dernière modification par Deedee81 ; 23/11/2015 à 13h38. Motif: imparfait pas participe présent
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
C'est justement ce que je ne comprends pas : que vient faire la prévisibilité là dedans? Un programme peut être "mécanique" et imprévisible (genre mode random d'un lecteur mp3).
Dernière modification par vinssss ; 23/11/2015 à 13h49.
L'oeuf ou la poule en premier? L'oeuf provenant d'une proto-poule bien sûr...
Et en y repensant, cet exemple du mode random d’un lecteur mp3 illustre bien ce que je voulais dire par le côté « tout noir ou tout blanc » d’un programme. Le random qu’on programme est en fait (j’imagine) un algorithme plus ou moins complexe de simulation du hasard. Mais au final, il ne s’agit pas de hasard mais d’un calcul dont le résultat est très difficile voir impossible à anticiper (avec les calculateurs actuels).
C’est en ça que l’intelligence humaine me semble très compliquée à reproduire car elle utilise, à un moment où un autre, un choix arbitraire qu’une machine est incapable de faire. C’est peut être ce facteur hasard qui fait de l’intelligence humaine sa spécificité ?
L'oeuf ou la poule en premier? L'oeuf provenant d'une proto-poule bien sûr...
une IA imprévisible me semblerait plutôt inquiétante.
l'imprévisibilité n'est pas forcement signe "d'intelligence".
en mode "random" : alors elle est bipolaire ou quoi ?
Ca dépend. On sait aussi générer du vrai hasard quand c'est nécessaire et ce n'est pas très compliqué.
Une justification de ce genre d'affirmation ?
vrai hasard, faux hasard... la distinction n'est pas forcément pertinente. Un programme qui prend une décision ou une autre selon la parité du nombre de millisecondes écoulées depuis la dernière fois où l'utilisateur a touché la souris, c'est du vrai ou du faux hasard?
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Mon post ne s'adressait pas à toi mais effectivement, je pense que cela ne change rien. J'ai juste l'impression quand on parle d'IA sur FS qu'il y a beaucoup d'affirmations non étayées et faites par des gens dont les connaissances en informatiques me semblent limitées mais je dois me tromper.
Donc je demandais des précisions.
Comment dire le bot est pas trés clever ....
Qui suis je ?
--Un robot peut être, je ne sais pas
Cela te dérange pas de parler à des êtres moins intelligents que toi ?
--Ca dépend l'age que tu as.
J'ai 45 ans et toi ?
--J'ai 45 ans.. Euh moi aussi je veux dire.
Si j'avais dit j'ai 135 ans tu aurais dit toi aussi ?
--Alors je t'aimerais
Tu as quel age ?
--17 ans je vien de te le dire.
--Du tout tu m'as dit que tu avais 45 ans toi aussi.
C'est faux! J'ai beaucoup plus.
--17 ans en année terrestre ?
Tout à l'heure là tu m'avais dit que tu avais 14 ans
Sait-on vraiment simuler le vrai hasard ?
Le "il me semble" c'est en général ce que je met quand ce n'est pas une affirmation. Je voulais dire qu'un choix humain, du fait d'un grand nombre de paramètres qui peuvent entrer en ligne de compte, ne pèse pas tous les paramètres avant de s'arrêter sur sa décision mais utilise parfois de raccourcis pour choisir. Comme quand dès fois je peux aller un peu vite à répondre sur ce forum sans tourner 7 fois mon cerveau dans sa boite crânienne avant d'y aller
Là, c’est du vrai hasard qui vient de l’humain qui tient la souris…
L'oeuf ou la poule en premier? L'oeuf provenant d'une proto-poule bien sûr...
bjr,Mon post ne s'adressait pas à toi mais effectivement, je pense que cela ne change rien. J'ai juste l'impression quand on parle d'IA sur FS qu'il y a beaucoup d'affirmations non étayées et faites par des gens dont les connaissances en informatiques me semblent limitées mais je dois me tromper.
Donc je demandais des précisions.
je ne l'ai pas pris pour moi, mais pour illustrer l'ambiguité du hasard, en tant que participant à l'élaboration d'une IA.
Et effectivement, sur la forme, il se peut qu'il y ai de mauvaises interprétations de l'utilisation des modèles informatiques.
Cdt
plus précisément, ce n'est pas parce qu'un comportement ou une prise de décision ( multifactorielle ) semble incomprise , car trop complexe , y compris pour l'individu lui même, qu'on peut dire que la solution passe par introduire une dose de hasard.
il s'agit pour moi d'un type de simulation sur la forme, mais qui ne représente rien sur le fond.
Si c'est ce que l'on considère comme IA, alors il faut enlever le premier mot.
J'espère qu'il existe des programmes plus avancés en terme d'IA que Cleverbot, parce que pour être bien ce qu'il y a de plus artificiel, on chercherait pourtant en vain le moindre signe d'intelligence ! C'est n'importe quoi !