Intelligence artificielle - Page 14

Affichage des résultats du sondage: Les machines pourront-elles devenir intelligentes dans les 100 ans à venir?

Votants
46. Vous ne pouvez pas participer à ce sondage.
  • Oui

    31 67,39%
  • Non

    15 32,61%
Répondre à la discussion
Page 14 sur 16 PremièrePremière 14 DernièreDernière
Affichage des résultats 391 à 420 sur 455

Intelligence artificielle



  1. #391
    invite6c250b59

    Re : Sondage intelligence artificielle


    ------

    Citation Envoyé par gillesh38
    je rectifie.
    Mon coeur déborde de joie

    Citation Envoyé par gillesh38
    Le reste du raisonnement suit.
    Pas sur d'avoir bien compris ton nouveau raisonnement, mais essayons:

    1) une intelligence humaine implique une représentation adéquate de soi
    2) une représentation de soi est inadéquate si elle peut être produite par différents supports
    3) un même fonctionnement algorithmique peut être produit par différents supports

    1 implique 2 implique non(3) => une intelligence humaine ne peut être produite par un fonctionnement algorithmique.


    Contrairement aux apparences mon démontage du point 1 n'est alors plus valable, car le "adéquat" n'est plus le "adéquat tel que reconnu par la plupart des gens", mais le adéquat défini par le postulat #2. De même mon contre-exemple évident ne tient plus, puisque la conclusion ne porte plus sur comment l'intelligence se considère, mais comment elle est produite.

    Gilles est-ce que maintenant c'est effectivement le raisonnement qui est central à tes convictions?

    Citation Envoyé par gillesh38
    l n'y a pas de solution cohérente où un ordinateur pourrait avoir une "pensée humaine" en réalisant qu'il n'est pas un humain mais un ordinateur.
    Bien sur que si: il se considérerait comme un esprit humain produit par un support artificiel, de même que je me considère comme un esprit humain produit par un suport biologique. En fait c'est un retour de fin de paragraphe sur le raisonnement précédent, alors que tu annonces au début du paragraphe que tu le rectifie

    Citation Envoyé par transhuman
    C'est super compliqué faire en pratique.
    C'est ce que je dis: pas compliqué en théorie mais trop espacivore (en fait physiquemet irréalisable, même sur un ordi quantique!). Par contre je ne vois aucun rapport entre ça et tes remarques sur entre autres le bios et les périphériques.

    HS: non les recherches en IA ne partent pas toutes de considérations industrielles... quelle drôle d'idée!

    Citation Envoyé par spi100
    Citation Envoyé par jiav
    légende urbaine àmha.
    Tu peux etayer ?
    Je crois qu'un bulbe dans un cerveau humain, ce n'est pas la même chose qu'un bulbe dans un cerveau de poule, même si en première approximation il n'y a guère de différences. En effet il reçoit, comme tout tissu nerveu, des influences auquelles il doit répondre et s'intégrer. Il est donc d'une certaine façon impliqué (et entraîné à s'insérer) dans des fonctionnements beaucoup plus subtils que ce qu'il serait avec un sytème nerveux plus balourd.

    Pour tenter une analogie, c'est comme comparer deux blocs de pierres, dont l'un a été sculté par un maitre et l'autre par ma soeur: en première approximation ce sont deux statues.

    Citation Envoyé par gillesh38
    euh, oui, mais quelles caractéristiques doit-on "copier" au juste? et ça veut dire quoi "copier" une masse gélatineuse de cellules sur une mémoire en silicium, au juste?


    c'est là toute la question que je pose!
    Promis dès que tu me présentes un raisonnement logique qui se tienne et qu'on identifie où sont exactement nos désaccords sur ton raisonnement, je te réexpliquerais avec autant de détails que tu le voudras les propositions de méthodes que je t'ai déjà expliquées par le passé.

    Citation Envoyé par shahinshah
    En fait, je viens de comprendre *fondamentalement* la position de gillesh38, et je dois dire que je suis assez d'accord avec lui (mais peut-être pas l'inverse ).
    Le problème, c'est que pour y répondre, il me faut passer par cette question de la connaissance du soi, et je ne vois bien comment le faire sans être un minimum mystique.
    Pas de problème à accepter que ta position soit mystique. Je suis presque persuadé que c'est aussi le cas de Gilles, mais comme c'est quelqu'un de très intéressant et qu'il prétend baser ses idées sur un raisonnement et non une croyance mystique je suis très intéressé à tirer ça au clair une fois pour toute -si c'est possible.

    Citation Envoyé par shahinshah
    on peut encoder chaque énoncé mathématique sous la forme d'un programme à faire exécuter par une machine de Turing universelle, (..) Tous les énoncés mathématiques, dans un système formel incluant l'arithmétique, seraient décidables.
    Tu as peut-être raison, mais je doute encore: les énoncées/questions mathématiques en analyse non standard sont-ils tous formalisables en MTU par exemple?

    -----

  2. #392
    inviteb271042d

    Re : Sondage intelligence artificielle

    Pour préciser un point :

    Il y a un an lors du précédent debat sur l'IA quelqu'un soutenait assez joliment une expérience théorique.

    J'avais fini par comprendre qu'en fait son expérience revenait à définir une machine virtuelle du type de ce qu'il existe en JAVA.

    Ici ce que propose Faith est finalement assimilable à un système de greffons tel qu'il existe par exemple sous Gimp ou sous forme de modules pour le noyau Linux.

    C'est très intéressant mais je ne comprends pas en quoi celà prouve la faisabilité de l'IA ?

    En plus lorsque l on me repond qu'effectivement les procédés évoqués sont infaisables pratiquement (pas compliqué en théorie mais trop espacivore ("en fait physiquemet irréalisable, même sur un ordi quantique!")
    je ne comprend vraiment plus sur quoi vous êtes en train de batir votre démontration de faisabilité de l'IA ?

  3. #393
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par Jiav Voir le message
    Mon coeur déborde de joie


    Pas sur d'avoir bien compris ton nouveau raisonnement, mais essayons:

    [B]1) une intelligence humaine implique une représentation adéquate de soi
    si ça ne te gêne pas , je préfère dire : "ce que nous considérons habituellement comme de l'intelligence implique une représentation suffisamment adéquate de soi", ça met mieux en valeur le coté subjectif de la définition de l'intelligence.
    2) une représentation de soi est inadéquate si elle peut être produite par différents supports
    pareil, la notion de "inadéquate" est assez subjective, mais le point est que l'adéquation que nous exigeons pour considérer qu'on est intelligent implique effectivement qu'elle ne peut pas être réalisée sur des supports matériellement trop différents.

    je suis d'accord avec mmy que les limites de l'intelligence sont subjectives, mais celles qui sont habituellement implicitement acceptées incluent une certaine pertinence de la représentation de son support matériel.

    Cdt

    Mmy

  4. #394
    invite765732342432
    Invité

    Re : Sondage intelligence artificielle

    Citation Envoyé par transhuman Voir le message
    C'est faire une nouvelle version du logiciel précédent.
    Pas de programmation => pas de nouvelle version. C'est comme si tu me disais:
    A chaque fois que j'ouvre un nouveau fichier dans un traitement de texte, le traitement de texte change de version !!!
    Ou que le changement d'un paramétrage change la version d'un programme !!!
    Restons un peu sur terre, s'il vous plait. Et n'utilisons pas des mots en dehors de leur sens.

    Peu importe que tu "apprennes" à la machine via un code source ou bien via des interactions avec un pupitreur, ta machine n'a visiblement pas d'apprentissage autonome.
    Je m'excuse, mais vous me fatiguez à changer sans arrêt vos cahiers des charges !
    Citation Envoyé par cahier des charges initial
    Mon cahier des charges, depuis le début, c'etait de pouvoir expliquer à la machine quelque chose de non prévu parce qu'inconnu du programmeur au moment ou il a écrit le programme.
    La machine n'a rien de prévu. On lui inculque la façon de se servir d'une télécommande, d'un piano.
    - Avant, elle ne sait pas quoi en faire
    - Après lui avoir expliqué correctement, elle sait le faire. - Le programme n'a pas changé.
    - Le concepteur n'avait pas pensé au piano (ni au tam-tam, ni au xylophone, d'ailleurs)
    => On a expliqué à une machine comment se servir d'un objet. A la suite de quoi elle sait s'en servir.

    Cahier des charges rempli.

    C'est très intéressant mais je ne comprends pas en quoi celà prouve la faisabilité de l'IA ?
    Une dernière fois, au cas où tu n'aurais pas lu les 12 dernières fois où je l'ai dit:
    Ce n'est pas la question à laquelle je réponds.
    Gilles a donné un cahier des charges, j'y ai répondu. Pour ce qu'il demande, il n'y a même pas besoin d'intelligence dans la machine.
    Dernière modification par invite765732342432 ; 03/05/2007 à 12h38.

  5. #395
    inviteb271042d

    Re : Sondage intelligence artificielle

    Bon perso je vais m'arrêter là.

    Tant que quelqu'un ne participera pas à ce thème de discussion à l'aide d'exemple concret ( code source, ex de réalisations, extrait de specifications ... ) amha ces discussions tournent dans le vide pour pas grand chose.

    Bonne continuation ...

  6. #396
    JPL
    Responsable des forums

    Re : Sondage intelligence artificielle

    Excusez-moi, cela a peut-être été dit dans les 395 messages précédents, mais quand on regarde les discussions sur ces forums ayant pour sujet qu'est-ce que l'intelligence, ou bien comment peut-on la mesurer, on s'aperçoit qu'il est impossible de donner une définition de l'intelligence humaine qui fasse consensus et que le problème de son évaluation est, par conséquent, encore plus problématique (la meilleure définition que j'aie vue est que les tests de QI servent à mesurer l'aptitude à réussir un test de QI).

    Alors dans ces conditions, comment allez-vous définir l'intelligence artificielle. Beaucoup de messages de ce fil (à côté d'arguments compétents et rationnels) procèdent à mes yeux de l'intime conviction, voire de l'acte de foi (ou de non foi).
    Rien ne sert de penser, il faut réfléchir avant - Pierre Dac

  7. #397
    invite96641ddb

    Re : Sondage intelligence artificielle

    salut tout d'abord je tient a presiser que je ne connais rien en programation.

    si j'ai bien compris l'on cherche a faire interagir avec le monde exterieur un programme doté d'une IA capable d'aprendre par lui meme, et pour cela nous avons le plus belle exemple, l'etre humain.
    mais je crois que l'on neglige certains points comme les emotions. si on prend l'homme comme exemple il possede
    tres tot ces capacités avant meme le language qui lui sert ensuite a les traduire , mais les emotions depend aussi tu parcours de l'individu donc d'un peu d'experience.

    l'ordinateur n'ait pas bete(Kasparov a perdu)seulement esclave, on lui a apris a joué au echec et a gagne par tout les moyen, mais pas a y trouver du plaisir.

    comment lui aprendre les emotion de base?
    Joie ;
    Tristesse ;
    Dégoût ;
    Peur ;
    Colère ;
    Surprise.
    NB: Les émotions secondaires sont des mélanges des émotions de base. (exemple: la nostalgie).



    la dyslexie c super

  8. #398
    invite765732342432
    Invité

    Re : Sondage intelligence artificielle

    Citation Envoyé par doralexploratrice Voir le message
    si j'ai bien compris l'on cherche a faire interagir avec le monde exterieur un programme doté d'une IA capable d'aprendre par lui meme, et pour cela nous avons le plus belle exemple, l'etre humain.
    C'est vrai que nous avons un exemple facile d'accès, mais nous ne savons pas comment il marche, ni ce qui fait de lui un être intelligent.
    Comment copier quelquechose qu'on ne comprend pas ? Peut-on trouver un autre moyen d'avoir de l'intelligence ?
    Ce sont des questions (parmis d'autres) de ce fil

  9. #399
    invitec00162a9

    Re : Sondage intelligence artificielle

    Bonjour,
    Citation Envoyé par Jiav Voir le message
    Pas de problème à accepter que ta position soit mystique. Je suis presque persuadé que c'est aussi le cas de Gilles, mais comme c'est quelqu'un de très intéressant et qu'il prétend baser ses idées sur un raisonnement et non une croyance mystique je suis très intéressé à tirer ça au clair une fois pour toute -si c'est possible.
    Bon, je vais préparer une réponse aussi rigoureuse que possible dans un autre message. Mais là je vais essayer de répondre à cette objection :
    Citation Envoyé par Jiav Voir le message
    Tu as peut-être raison, mais je doute encore: les énoncées/questions mathématiques en analyse non standard sont-ils tous formalisables en MTU par exemple?
    Je dois admettre que je connais très mal l'analyse non standard. Mais la correspondance que j'ai évoquée entre énoncé mathématique (supposé être une chaîne de caractères représentant une formule correcte, pas n'importe quelle chaîne de caractères) et programme d'une MTU est construite à partir de la définition d'une théorie formelle.
    En gros, on peut énumérer tous les énoncés de la théorie en question, et on peut énumérer tous les programmes d'une MTU. Et à partir de là, on peut établir une bijection entre les deux.

    Il est important que les deux ensembles précédents soient énumérables. Mais une théorie formelle qui ne conduit pas à un ensemble énumérable d'énoncés me semble difficilement utilisable.

    Donc, les énoncés d'analyse non standard doivent être énumérables, et on peut leur associer un programme d'une MTU.

    Maintenant à cause de l'indécidabilité du problème de l'arrêt d'une MT, qui n'est qu'une version informatique des théorèmes d'incomplétude de Gödel, cette correspondance est inutilisable pour quoi que ce soit.

  10. #400
    invitec00162a9

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    la question est : peux tu concevoir un programme d'ordinateur qui n'a pas de but.? qu'est ce qu'il contiendrait comme instruction? ça parait assez déraisonnable.

    Et si tu te donnes un but, et que tu ecris le programme d'ordinateur en vue d'optimiser ce but ( = gagner une partie d'echec, reconnaitre des caractères, traduire un texte, essayer de construire un langage comme pour tes robots), comment est ce que ta machine pourra faire autre chose que ce pourquoi tu l'as programmée.

    Tu es donc obligé de faire une liste exhaustive des capacités dont tu veux la doter, mais elle ne sortira pas de cette liste exhaustive. Du coup on revient au probleme precédent : comment serait-elle capable d'apprendre quelque chose de nouveau par elle-même?
    Bien. Je crois que j'ai compris ce que tu veux dire, et je suis assez d'accord que vu sous cet angle, les machines n'ont aucune chance d'être intelligentes, à moins de changer complètement de perspective.

    Toutefois, il se peut qu'on soit en désaccord sur la manière d'être d'accord

    Je suis un peu désolé, ça risque d'être un peu long et touffu

    Tout d'abord, l'évolution et la sélection naturelle n'ont peut-être pas assigné de but à l'homme, mais ça n'empêche que l'homme s'assigne des buts à lui-même.
    Et c'est qu'il manque aux machines : s'assigner elles-mêmes un but, une motivation, à leurs actions, car a priori, leurs actions sont tournées vers le but voulu par le concepteur.

    Si, j'ai bien compris ce qui dit gillesh38, c'est cette présence d'un but exogène et non endogène aux machines qui empêche qu'on puisse à jamais les qualifier d'intelligentes quelles que soient leurs aptitudes technologiques.
    On pourrait se demander si on ne peut pas abaisser nos exigences, mais ici, acceptons cette assertion : une machine intelligente est une machine qui peut agir pour sa propre motivation, et non pas pour celle de son concepteur.

    Il faut donc trouver une but ou une motivation aux machines qu'on veut rendre intelligentes qui soit réflexif par rapport à celui de son concepteur.

    Or je ne vois qu'une motivation qui puisse fondamentalement avoir cette qualité sans aboutir à une contradiction logique, c'est celle motivée par la recherche de la connaissance de soi.

    En quoi cela consiste-t-il ? Il est extrêmement difficile de répondre, car justement, et c'est mon hypothèse principale (et mystique), la connaissance de soi est ce que nous recherchons.
    C'est la motivation inconsciente et principale de nos actions et c'est aussi le point aveugle de notre connaissance.
    Mais en tout cas, ce n'est pas la connaissance de son propre corps. Du moins, à titre personnel, je ne la perçois pas ainsi.

    Par analogie, je dirais que la "connaissance du soi" pour un ordinateur n'est pas la connaissance de ses composants hardware.
    Non, ce qui constituerait plutôt le point aveugle de la connaissance chez un ordinateur, ce serait certainement le problème de l'arrêt des programmes, ou n'importe quel autre problème isomorphe (étant entendu qu'on peut ramener un calcul quelconque à un problème d'arrêt). En particulier parce que le programme en cours d'exécution ne sait pas s'appliquer à lui-même sa propre méthode.

    D'où, pour rendre une machine intelligente, il faudrait lui faire résoudre le problème de l'arrêt, c'est-à-dire, lui demander si le programme qu'elle est en train d'exécuter va s'arrêter ou non.

    Or on sait que le problème de l'arrêt ne peut pas se résoudre de manière algorithmique.


    On peut ajouter que la présence de processus biochimiques chez l'homme et pas chez la machine ne change rien à la question de l'intelligence, car les débats précédents ont montré que chaque aptitude présente chez l'homme pouvait, grosso modo, être mise en oeuvre dans une machine, pourvu que cette aptitude soit formalisable dans un langage formel et corresponde à un énoncé décidable (car sa démonstration veut dire qu'on dispose alors d'un algorithme pour mettre en oeuvre cette aptitude).

    En particulier, il me semble que l'énoncé "il existe un programme qui puisse apprendre n'importe quel concept" n'est pas décidable. Je n'en suis pas sûr, mais on doit pouvoir le voir avec un argument diagonal, similaire à celui utilisé pour démontrer l'indécidabilité du problème de l'arrêt.

    Bon, j'arrête là pour ce message, sinon il va exploser...

  11. #401
    invite6c250b59

    Re : Sondage intelligence artificielle

    Citation Envoyé par transhuman
    lorsque l on me repond qu'effectivement les procédés évoqués sont infaisables pratiquement (pas compliqué en théorie mais trop espacivore ("en fait physiquemet irréalisable, même sur un ordi quantique!")
    je ne comprend vraiment plus sur quoi vous êtes en train de batir votre démontration de faisabilité de l'IA ?
    Merci de faire un effort minimal pour ne pas tout mélanger: cette réponse était pour clarifier une incompréhension que tu avais par rapport aux MT auto-reproductrices, et n'a strictement rien à voir avec la question de la faisabilité de l'IA.

    Citation Envoyé par gillesh38 Voir le message
    si ça ne te gêne pas , je préfère dire (...) les limites de l'intelligence sont subjectives, mais celles qui sont habituellement implicitement acceptées incluent une certaine pertinence de la représentation de son support matériel.
    C'est à toi de choisir, mais il faut que tu te décides à un moment donné. Si tu choisis de prendre la définition intuitive commune alors on en revient au premier raisonnement. Si tu choisis de faire ta propre définition alors on va au deuxième pour peu que je l'ai exposé fidèlement.

    Le principal problème du deuxième raisonnement, c'est justement d'utiliser une définition purement had hoc de "représentation adéquate de soi": tout ce que tu nous a dit à ce sujet est le deuxième postulat. On peut donc l'économiser et le raisonnement devient:

    Une intelligence ne peut être produite par différent support
    => une intelligence ne peut être produite par un algorithme

    C'est peut-être juste, mais ce n'est certainement pas un raisonnement: c'est deux postulats non étayés -shahinshah les qualifierait possiblement de mystique.

    Si on revient au premier raisonnement, alors j'ai déjà exposé pourquoi il est faux: tu te trompes en particulier sur ce que les gens acceptent de considérer comme intelligent. Un nouvel exemple: je te considère intelligent même si ta représentation de toi-même présente des lacunes, lacunes qui sont visibles dans la façon que tu as eu de signer ton post:

    Citation Envoyé par gillesh38 Voir le message
    Cdt

    Mmy


    Citation Envoyé par shahinshah
    En gros, on peut énumérer tous les énoncés de la théorie en question, et on peut énumérer tous les programmes d'une MTU. Et à partir de là, on peut établir une bijection entre les deux.
    Oh! Compris merci

    Je me garde le message #400 pour le petit dej

  12. #402
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par Jiav Voir le message
    C'est à toi de choisir, mais il faut que tu te décides à un moment donné. Si tu choisis de prendre la définition intuitive commune alors on en revient au premier raisonnement.....
    Si on revient au premier raisonnement, alors j'ai déjà exposé pourquoi il est faux: tu te trompes en particulier sur ce que les gens acceptent de considérer comme intelligent. Un nouvel exemple: je te considère intelligent même si ta représentation de toi-même présente des lacunes, lacunes qui sont visibles dans la façon que tu as eu de signer ton post:
    marrant l'inconscient, je devais etre en train de me demander pourquoi Mmy n'intervenait plus sur le fil, il doit etre en voyage !


    je te fais remarquer cependant que tu démontres toi même que la représentation commune de l'intelligence admet des lacunes dans la représentation, et que je ne suis absolument pas dans la contradiction.

    Je ne prends pas comme définition personnelle MA définition, mais la définition commune.
    Cette définition admet des lacunes dans la représentation du monde, mais demande quand même un minimum de cohérence. Pour le prouver, essaie d'expliciter pour quelles raisons tu considères quand meme que je peux avoir une certaine intelligence malgré mes lapsus, ou qu'un schizophrène ou un autiste peut aussi etre intelligent : quels sont les faits qui selon toi soutiennent cette position?

    Cordialement
    Gilles (cette fois).

  13. #403
    inviteec581d0f

    Re : Sondage intelligence artificielle

    Bonjour à tous.

    Je vous remercie beaucoup pour votre participation à ce topic et pour l'interêt que vous portez à ce sujet sincèrement.

    En faisant des recherches je suis tombé sur cette petite merveille :

    http://detecteur-de-pensee.c.la/

    Juste en le faisant, on peut conclure que l'ordinateur est intelligent, cependant, en analysant, on découvre que ce n'est qu'une apparence d'intelligence car il s'agit d'un petit artifice mathématique... En me disant ça je me suis dis que ce ne sont pas les machines qui sont limités par le concept que nous nous faisons de l'intelligence, mais plutôt nous qui sommes incapables de faire en sorte que la machine ait sa propre intelligence. Par là je veux dire que la machine est bien plus intelligente que nous car elle arrive à reproduire quelques aspects de notre intelligence, alors que nous nous ne sommes pas capables de reproduire la sienne (raisonner en binaire ).


    J'espère que mes propos ne sont pas confus et j'éspère qu'un jour les machines seront intelligentes...


    Sincèrement, Kimooooooooooooo

  14. #404
    invite8915d466

    Re : Sondage intelligence artificielle

    Un petit up

    Citation Envoyé par kimuto Voir le message
    Bonjour à tous.

    Je vous remercie beaucoup pour votre participation à ce topic et pour l'interêt que vous portez à ce sujet sincèrement.

    En faisant des recherches je suis tombé sur cette petite merveille :

    http://detecteur-de-pensee.c.la/

    Juste en le faisant, on peut conclure que l'ordinateur est intelligent, cependant, en analysant, on découvre que ce n'est qu'une apparence d'intelligence car il s'agit d'un petit artifice mathématique...
    oui, un peu de raisonnement modulo 9 montre vite le truc .

    Plus intéressant peut etre , cet article du Monde sur les robots sachant "reconnaitre et exprimer des émotions"
    http://www.lemonde.fr/web/article/0,...-927051,0.html

    Ca demanderait une étude sémantique approfondie sur l'ambiguité des termes employés. Les robots qui "reconnaissent" et "expriment" des émotions, ça fait penser qu'ils les "ressentent". Bien sûr il n'en est rien, ce n'est qu'une nouvelle illustration du culte du cargo. Le programme ne fait qu'analyser des données objectives pour en exprimer d'autres mais ne "ressent" rien à l'intérieur. Tout ce qui compte, c'est de faire croire à un humain qu'ils les ressentent ! mais bien sûr on ne pourra pas expliquer à un robot qu'il ne faut pas qu'il soit vexé si on le rembarre après une journée de travail, que c'est parce qu'on est fatigué et qu'on l'aime bien quand même .

    La question accessoire intéressante, c'est pourquoi on pense que ça serait utile, et pourquoi Kimuto "espère" que les machines seront un jour intelligente

  15. #405
    inviteec581d0f

    Re : Sondage intelligence artificielle

    Le programme ne fait qu'analyser des données objectives pour en exprimer d'autres mais ne "ressent" rien à l'intérieur.
    Je suis tout à fait d'accord, mais l'être humain lui aussi ne fait qu'analyser des données objectives sauf que le ressentiment chez l'humain se fait à partir de l'analyse et de la comparaison de ces différentes données. Par exemple celui qui rentre chez lui après une dure journée de travail, ayant subit beaucoup de stress , va être de méchante humeur et cette méchante humeur est causée par le fait que l'individu sait qu'il a subit plein de choses éprouvantes (le boss qui crie etc...) et qu'il sait aussi comment aurait été une journée non-éprouvante et quelles en auraient été ses conséquences.
    (un peu confus dans ce que je dis )

    Je trouve que sa serait utile d'avoir des machines intelligentes car il vaut mieux avoir des machines intelligentes que des machines ignorantes mais ce qui est de plus glorifiant c'est de voir que l'homme a réussit à créer une forme d'intelligence à partir de la sienne (même incomplète).


    Enfin j'éspère que les machines seront un jour intelligentes comme ça nous aurons accomplis en moins de 60 ans ce qui a pris des millénaires à se mettre en place


    et je voudrais bien mettre sur ce forum mes TPE je trouve que ce serait un joli apport à ce sujet. C'est des fichiers *.pdf Comment doit-on faire sachant que j'ai à peu près 7 fichiers PDF?

  16. #406
    inviteec581d0f

    Re : Sondage intelligence artificielle

    Voilà pour la mise en Ligne des TPE

    J'espère qu'il est complet. On a passé trop de temps dessus

    Publication en 2 temps
    Fichiers attachés Fichiers attachés

  17. #407
    inviteec581d0f

    Re : Sondage intelligence artificielle

    Voila pour la partie 2:

    AAAAAAAAA j'ai un petit Bug la Partie 1 F ne veu pas Uploader Au secours XD
    Fichiers attachés Fichiers attachés

  18. #408
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Bonjour,

    Citation Envoyé par gillesh38 Voir le message
    Ca demanderait une étude sémantique approfondie sur l'ambigüité des termes employés. Les robots qui "reconnaissent" et "expriment" des émotions, ça fait penser qu'ils les "ressentent". Bien sûr il n'en est rien, ce n'est qu'une nouvelle illustration du culte du cargo. Le programme ne fait qu'analyser des données objectives pour en exprimer d'autres mais ne "ressent" rien à l'intérieur. Tout ce qui compte, c'est de faire croire à un humain qu'ils les ressentent ! mais bien sûr on ne pourra pas expliquer à un robot qu'il ne faut pas qu'il soit vexé si on le rembarre après une journée de travail, que c'est parce qu'on est fatigué et qu'on l'aime bien quand même .
    Une petite remarque assez emberlificotée. Je viens de lire l'article dans la Recherche sur cet homme qui sent la douleur mais ne la ressent pas comme telle. Il reçoit les informations sensorielles, mais ne les "ressent" pas comme tout le monde, il n'a pas de réactions plus ou moins automatique d'évitement, et n'a pas de "jugement de valeur automatique" de ces signaux, de classement en bien ou mal. Il pourrait, s'il voulait, faire croire qu'il "ressent" la douleur, comme une machine, mais ce serait "intérieurement" différent des autres humains. Le cas de cet homme est intéressant dans ce débat, parce qu'il permet de traiter du terme "ressentir" dans son contexte (le traitement de l'information par le cerveau humain), sans ambigüité sémantique.

    Mais ce que ça m'amène comme réflexion la lecture de l'article est qu'on ne comprend absolument pas ce qui se cache sous ce mot de "ressentir". On constate, par introspection et par l'étude de cas comme celui de l'homme cité, une distinction entre traitement rationnel et "ressentir", mais on n'a pas, pour le moment, d'idée de ce qui se cache matériellement sous le mot "ressentir".

    Dans ton texte, tu considères que les machines ne peuvent que faire des traitements d'information comparables aux traitements rationnels que font les humains (ce qui me semble correct). Comme le "ressentir" est perçu comme distinct (le cas de cet homme le montre) de ces traitements rationnels, tu sembles en déduire que les machines ne peuvent pas ressentir.

    Mais ça pose un problème du point de vue logique. Cela semble dire, "on comprend ce qu'est un traitement rationnel des humains, et on sait les faire faire par des machines; mais on ne comprend pas ce que couvre le mot "ressentir", on sait juste que c'est différent du rationnel, donc on ne sait pas le réaliser dans une machine, donc une machine en est incapable". Le premier donc découle de l'ignorance des processus correspondant à "ressentir", ce qui fait que le donc en rouge est difficile à argumenter!

    Cordialement,

  19. #409
    invite8915d466

    Re : Sondage intelligence artificielle

    Bonjour Mmy

    Citation Envoyé par mmy Voir le message
    Dans ton texte, tu considères que les machines ne peuvent que faire des traitements d'information comparables aux traitements rationnels que font les humains (ce qui me semble correct). Comme le "ressentir" est perçu comme distinct (le cas de cet homme le montre) de ces traitements rationnels, tu sembles en déduire que les machines ne peuvent pas ressentir.
    Non, ce n'est pas ce que je voulais dire. Je suis incapable de dire si les machines "ressentent " quelque chose, tout simplement parce que comme tu le fais remarquer nous n'avons ni modèle théorique, ni définition objective de ce que c'est. Nous n'en avons que des perceptions subjectives.

    Ce que je remarque, c'est que du coup les travaux sur le fait que les robots "expriment" des sentiments se bornent à donner l'apparence qu'ils les ressentent. L'algorithme développé par les chercheurs ne fait que simuler la réaction extérieure qu'on attendrait d'un etre humain, sans se poser le moins du monde la question de son origine interne. Il n'est naturellement absolument pas question à aucun moment et à aucun degré d'implémenter dans la machine ce qui se passe vraiment dans notre cerveau quand on se sent de mauvaise humeur !

    donc le robot pourra aller bouder dans un coin, mais il n'y a strictement aucune façon de lui parler pour l'amener à changer son attitude par exemple. Il ne ressent pas plus d'émotions qu'il ne comprend la théorie de la Relativité en compilant un fichier latex plein d'équations d'Einstein, ou même en effectuant du calcul symbolique !

    c'est tout à fait analogue à la traduction automatique du langage ; on met au point des algorithmes pour traiter des informations "externes", mais selon moi, on n'a pas avancé d'un poil sur ce qui fait qu'un etre humain "comprend" ces informations....

    Cordialement

    Gilles

    PS le cas humain dont tu parles n'a rien a voir avec l'algorithme traité par le robot. Il s'agit de perceptions dissociées comme dans la schizophrénie, mais ça reste fondamentalement des perceptions.

  20. #410
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    PS le cas humain dont tu parles n'a rien a voir avec l'algorithme traité par le robot. Il s'agit de perceptions dissociées comme dans la schizophrénie, mais ça reste fondamentalement des perceptions.
    Non, il s'agit d'un accident avec destruction d'une partie du cerveau, c'est présenté comme purement physiologique. Il y a bien perception et conscience de la perception, mais il lui manque la circuiterie qui "transforme" la perception en "ressenti comme douleur", au sens où l'entendent les humains usuels.

    Je pense que si on comprenait (ou, "quand on comprendra") la nature du traitement effectué dans cette circuiterie, on pourra faire des machines faisant un traitement de même nature et qu'il ne pourra plus être question d'analyser le comportement comme le résultat de "donner l'apparence" de "ressentir".

    Cordialement,

  21. #411
    invite6c250b59

    Re : Sondage intelligence artificielle

    coucou mmy

    Citation Envoyé par gillesh38 Voir le message
    pour quelles raisons tu considères quand meme que je peux avoir une certaine intelligence malgré mes lapsus (...) quels sont les faits qui selon toi soutiennent cette position?
    A dire vrai je pense que kimuto met dans le mille en nous montrant une illusion, et que ma croyance en ton humanité est probablement une illusion anthropique: je te crois humain parce que je me crois humain, et que tu as le même genre de comportement que moi.

    Que cette illusion soit juste ou non est irrelevant, car dans les deux cas je suis peut-être, ou pas, victime d'une illusion du cargo. Mais Gilles, penses-tu que j'ai réellement de meilleurs raisons de me croire humain que de te croire humain? Qui de nous est l'illusion du cargo?

    Citation Envoyé par mmy Voir le message
    Il y a bien perception et conscience de la perception, mais il lui manque la circuiterie qui "transforme" la perception en "ressenti comme douleur", au sens où l'entendent les humains usuels.
    Je n'ai pas lu l'article, mais je suis sceptique vis à vis cette interprétation qui suppose une hiérarchie perception tactile => ressenti douloureux. Pour moi ces deux types de perceptions sont essentiellement des voies parallèles.

    Citation Envoyé par mmy Voir le message
    Je pense que si on comprenait (ou, "quand on comprendra") la nature du traitement effectué dans cette circuiterie, on pourra faire des machines faisant un traitement de même nature et qu'il ne pourra plus être question d'analyser le comportement comme le résultat de "donner l'apparence" de "ressentir".
    Chicago 2038: après maintes investigations, les chercheurs en viennent à un consensus général selon lequel ce circuit est une mémoire qui somme les nouveaux inputs et revient lentement à une ligne de base (-42).

    Comment interprèterais-tu cela en terme de compréhension de la subjectivité?

  22. #412
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Bonjour,

    Citation Envoyé par Jiav Voir le message
    Je n'ai pas lu l'article, mais je suis sceptique vis à vis cette interprétation qui suppose une hiérarchie perception tactile => ressenti douloureux. Pour moi ces deux types de perceptions sont essentiellement des voies parallèles.
    Si ce sont des voies parallèles, ça ne change pas grand chose au fond. Au contraire, peut-être: ça renforce l'idée de deux modes de traitement distincts.

    Chicago 2038: après maintes investigations, les chercheurs en viennent à un consensus général selon lequel ce circuit est une mémoire qui somme les nouveaux inputs et revient lentement à une ligne de base (-42).

    Comment interprèterais-tu cela en terme de compréhension de la subjectivité?
    Je vais essayer d'aller plus loin dans l'explicitation de mes pensées assez floues dans le domaine. (Mais ça va être dur en quelques lignes!)

    Je ramène beaucoup de choses à la notion de décision. Une décision met en cause non seulement un savoir (connaissance de ce qui est, connaissance des options, et connaissance des effets potentiels de chaque option), mais aussi un "but", sous la forme de jugements de valeur sur les effets anticipés de chaque option. Un point récurrent de l'argumentation de Gilles, par exemple, est que dans une machine, les buts sont "câblés en dur", sont programmés à l'avance. Ils sont surtout (à mon sens) connus et explicites.

    Nous humains avons, par introspection, l'habitude de distinguer (grossièrement) deux types de prise de décision. Les décisions "rationnelles", qui suivent explicitement le schéma ci-dessus, le but étant perçu comme tel; et d'autres décisions, du domaine de l'émotif, du sentiment, du "ressenti", que nous ne percevons pas en termes de "but" (mais par exemple en terme de bien vs. mal, ou attractif vs. répulsif, ou "à rechercher" vs. "à éviter", ou plaisir vs. douleur, "envie" vs. "pas envie", "j'aime" vs. "j'aime pas", "beau" vs. "laid", ..., la liste est longue!).

    Cette distinction m'intrigue, et je la soupçonne d'avoir une grande importance dans les discussions sur l'intelligence artificielle et la comparaison récurrente au cerveau humain (ou animal plus généralement).

    Reprenons divers points en prenant pour acquis l'existence d'une telle distinction, quitte à réunir le faisceau après coup.

    - La remarque de Gilles sur l'ambigüité du terme "ressenti" des machines s'interprète alors comme suit. Nous, humains, cherchons à attribuer une action dont les effets extérieurs sont fixés soit à une approche émotive (on accepte alors d'appliquer "ressentir"), soit à une approche rationnelle (auquel cas on percevra cela comme une imitation d'un ressentir). Ayant conscience de la distinction par introspection, nous la projetons sur toute entité décidante...

    - Le patient "asymbolique à la douleur" donne pour moi un exemple autre qu'introspectif de la différence entre "ressentir" et "raisonnement rationnel". Cet homme peut décider rationnellement d'éviter un danger (comme tout humain), mais ne peut pas le faire parce qu'il "ressent la douleur" (ce que font les autres humains). Le fait qu'il ait un mode de décision mais pas l'autre, alors que les humains en général ont les deux, conforte l'existence de la distinction.

    - Qui plus est, l'analyse faite (mais sûrement discutable!) sur ce patient laisse penser que la différence est physiologique. Nous aurions des parties du cerveau distinctes pour les "buts" rationnels (cortex?), et pour le "ressentir", qui correspond à des "buts implicites", des modulations des jugements de valeur sur les futurs potentiels.

    - Les machines actuelles se présentent avec un seul mode de décision, que l'on assimile (intuitivement et automatiquement) au processus de décision rationnel, avec ainsi exclusion de l'autre mode, du "ressentir".

    Maintenant, imaginons que l'on décortique le fonctionnement du cerveau, suffisamment pour avoir un modèle clair de la distinction entre rationnel et ressenti. Imaginons que, en ligne avec la thèse d'une origine physiologique de la distinction, on montre qu'il s'agit de la mise en oeuvre de deux circuiteries distinctes. Et, enfin, imaginons que l'on fasse des machines présentant effectivement, dans leur fonctionnement interne, deux circuiteries distinctes, l'une prenant des "décisions rationnelles", algorithmique disons, et l'autre agissant comme le circuit du "ressentir" humain (ne me demandez pas comment, l'hypothèse porte sur des connaissances que nous n'avons pas encore). Alors, sur quelle base pourra-t-on alors affirmer qu'une telle machine "se borne à donner l'apparence qu'[elles] ressentent"?

    Pour "répondre" à ta question ("comment interprèterais-tu....), elle est mal posée. Ce n'est pas la nature (mémoire, inputs, ...) de la circuiterie qu'il faudrait interpréter, mais l'organisation fonctionnelle des circuits de prise de décision.

    Le fond de la spéculation est le suivant. J'intuite que la circuiterie du "ressentir" est toute aussi "algorithmique" que la prise de décision rationnelle. Seulement, nous ne le percevons pas comme cela par introspection. Comme l'introspection nous montre une distinction entre les deux modes (et des cas comme l'asymbolie à la douleur montre qu'il s'agit de quelque chose d'objectif), et que la prise de décision est clairement algorithmique, on peut en déduire, à tort, que le "ressentir" n'est pas algorithmique. La différence est peut-être ailleurs, tout simplement dans l'organisation de nos cerveaux, et c'est cette organisation qui est source de la distinction rationnel vs. ressentir, pas une opposition algorithmique/non algorithmique.

    Cordialement,

  23. #413
    invite8915d466

    Re : Sondage intelligence artificielle

    Bonjour
    Citation Envoyé par mmy Voir le message
    Non, il s'agit d'un accident avec destruction d'une partie du cerveau, c'est présenté comme purement physiologique. Il y a bien perception et conscience de la perception, mais il lui manque la circuiterie qui "transforme" la perception en "ressenti comme douleur", au sens où l'entendent les humains usuels.
    Je ne voulais pas dire que l'origine du problème etait psychotique, mais que les effets me semblent analogues : des perceptions qui sont normalement simultanées et mélangées sont ici dissociées. Je suis d'accord avec Jiav qu'il est peu probable que dans un cerveau "normal" le traitement soit séquentiel. Je pense d'ailleurs très peu probable comme je l'ai souvent dit qu'il s'agisse d'un traitement algorithmique .

    A dire vrai je pense que kimuto met dans le mille en nous montrant une illusion, et que ma croyance en ton humanité est probablement une illusion anthropique: je te crois humain parce que je me crois humain, et que tu as le même genre de comportement que moi.

    Que cette illusion soit juste ou non est irrelevant, car dans les deux cas je suis peut-être, ou pas, victime d'une illusion du cargo. Mais Gilles, penses-tu que j'ai réellement de meilleurs raisons de me croire humain que de te croire humain? Qui de nous est l'illusion du cargo?
    on est à la limite des discussions métaphysiques sur le solipsisme. . Je n'ai aucune preuve que d'autres êtres humains existent à part moi ! simplement cette hypothèse explique convenablement l'essentiel de ce que j'observe du monde . Par exemple en supposant que tu es à peu près comme moi, j'en déduis que tu es capable de répondre à mes posts , et pour le moment ça le confirme. Si tu etais un ordinateur et qu'un ordinateur etait capable de répondre de façon analogue, je pense que ça se saurait et que j'en aurais deja vu un ou entendu parler !

    Bref l'hypothèse "Il n'y a actuellement que les êtres humains qui peuvent soutenir une conversation et donc Jiav doit en être un" joue à peu près le rôle d'une théorie scientifique : un postulat cohérent en accord avec l'expérience.

    Il est remarquable que les cargos en liane et les ordinateurs ont une caractéristique commune : ils ne représentent que ce qu'on leur a demandé de faire et strictement rien de plus. Ils ont été conçus dans un but très bien défini par une intelligence extérieure (humaine), et sont donc strictement limités par cette intelligence. C'est la différence essentielle et irrémédiable que je ne cesse de soulever : les capacités particulière des êtres vivants (et humains en particulier) viennent de leur genèse : une selection naturelle sans but prédéfini. C'est ça qui les rend par nature et essentiellement d'un autre genre qu'un ordinateur.

    Cordialement

    Gilles

  24. #414
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    les capacités particulière des êtres vivants (et humains en particulier) viennent de leur genèse : une sélection naturelle sans but prédéfini.
    C'est discutable, principalement parce qu'il y a une belle ambigüité sur la notion de genèse. Il faut distinguer la genèse d'un individu, et la genèse de l'espèce.

    Le genèse d'un individu n'est pas la sélection naturelle. Celle-ci intervient dans la genèse de l'espèce, disons du plan des individus, pas des individus.

    Sur quelle base peux-tu affirmer que la genèse d'un individu ne prédéfinit pas ses buts?

    L'ontogénèse d'êtres vivants multicellulaires simples est entièrement prédéfinie par son génome, et cela peut parfaitement s'interpréter comme incluant la prédéfinition de ses buts.

    Pour un humain c'est plus compliqué, l'ontogenèse incluant une bonne part "épigénétique" comme ils disent, les effets de l'environnement. Mais cela n'entraîne pas l'inexistence de buts prédéfinis non plus.

    La notion de "but" est subtile. Pour moi, il n'y a pas de contradiction entre l'idée que la sélection naturelle n'a pas de but (j'enlève "prédéfini", les propositions que j'ai faites d'une idée d'un "but post-défini", défini a posteriori, ne passent pas bien, pourquoi alors la notion de but prédéfini serait différente de celle de but?) et l'idée que la sélection naturelle génère des plans d'organisme incluant des buts prédéfinis pour ces organismes. Je ne vois pas, d'ailleurs, comment peut-on penser l'émergence dans l'Univers de quelque chose auquel le concept de "but" peut s'appliquer autrement qu'ainsi, sauf à évoquer Dieu ou équivalent.

    Cordialement,

  25. #415
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    qu'il est peu probable que dans un cerveau "normal" le traitement soit séquentiel. Je pense d'ailleurs très peu probable comme je l'ai souvent dit qu'il s'agisse d'un traitement algorithmique .
    J'ai toujours du mal avec ces "catégories" de traitement. Est-ce correct d'interpréter comme suit?

    Traitement séquentiel Traitement de l'information

    Traitement algorithmique Traitement de l'information

    et

    Cerveau (Traitement de l'information) ∩ (non Traitement algorithmique) ∩ (non Traitement séquentiel)

    Cordialement,

  26. #416
    invite8915d466

    Re : Sondage intelligence artificielle

    Re bjr

    Citation Envoyé par mmy Voir le message
    Je ramène beaucoup de choses à la notion de décision. Une décision met en cause non seulement un savoir (connaissance de ce qui est, connaissance des options, et connaissance des effets potentiels de chaque option), mais aussi un "but", sous la forme de jugements de valeur sur les effets anticipés de chaque option. Un point récurrent de l'argumentation de Gilles, par exemple, est que dans une machine, les buts sont "câblés en dur", sont programmés à l'avance. Ils sont surtout (à mon sens) connus et explicites.

    Nous humains avons, par introspection, l'habitude de distinguer (grossièrement) deux types de prise de décision. Les décisions "rationnelles", qui suivent explicitement le schéma ci-dessus, le but étant perçu comme tel; et d'autres décisions, du domaine de l'émotif, du sentiment, du "ressenti", que nous ne percevons pas en termes de "but" (mais par exemple en terme de bien vs. mal, ou attractif vs. répulsif, ou "à rechercher" vs. "à éviter", ou plaisir vs. douleur, "envie" vs. "pas envie", "j'aime" vs. "j'aime pas", "beau" vs. "laid", ..., la liste est longue!).
    Il y a un problème de principe à cette distinction : c'est que les buts sont eux mêmes conçus en fonction de critères affectifs. La distinction entre comportement rationnel et affectif sera aussi largement dépendant de tes propres normes . Les comportements suivant sont-ils "rationnels " par exemple?
    * un boursier étudiant soigneusement les cours pour gagner 10 millions de plus, alors qu'il en a deja 230 (largement suffisants pour subvenir à toutes ses envies)?
    * un terroriste préparant soigneusement un attentat?
    * un juge condamnant à la prison un petit délinquant ayant commis un vol mineur?

    etc, etc... dans tous les débats de sociétés, on s'aperçoit que les critères de rationalité sont éminemment dépendant de l'individu !

    a rebours, un programme expert qui se retrouveraient dans une situation non prévue ( du type de ce qui se produit dans un accident nucléaire par exemple) et prendraient des décisions conformes à son programme, mais stupides dans le contexte particulier ou il se trouve, est-il "rationnel"?

    La différence est peut-être ailleurs, tout simplement dans l'organisation de nos cerveaux, et c'est cette organisation qui est source de la distinction rationnel vs. ressentir, pas une opposition algorithmique/non algorithmique.

    Cordialement,
    N'empeche, les "machines" sont des machines justement parce ce qu'elles sont algorithmiques ! c'est pour moi une différence de principe essentielle qui explique le fait qu'on n'a jamais l'impression qu'elles "pensent" vraiment ...

    Cordialement

    Gilles

  27. #417
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par mmy Voir le message
    J'ai toujours du mal avec ces "catégories" de traitement. Est-ce correct d'interpréter comme suit?

    Traitement séquentiel Traitement de l'information

    Traitement algorithmique Traitement de l'information

    et

    Cerveau (Traitement de l'information) ? (non Traitement algorithmique) ? (non Traitement séquentiel)

    Cordialement,
    oui, à la réserve que "traitement de l'information" est une notion tellement mal définie que tu peux y mettre l'ensemble des processus connus .

    Cordialement

    Gilles

  28. #418
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    oui, à la réserve que "traitement de l'information" est une notion tellement mal définie que tu peux y mettre l'ensemble des processus connus .
    Que proposerais-tu comme catégorie bien définie qui inclurait à la fois les ordinateurs et les cerveaux biologiques, en excluant un maximum d'autres "processus connus"? Ce, bien entendu, sans faire une simple juxtaposition...

    En l'absence d'une telle catégorie, la "différentiation essentielle" entre cerveau et machine n'a pas grand intérêt.

    Cordialement,

  29. #419
    invite8915d466

    Re : Sondage intelligence artificielle

    Citation Envoyé par mmy Voir le message
    Sur quelle base peux-tu affirmer que la genèse d'un individu ne prédéfinit pas ses buts?
    sur la base que ses comportements n'ont pas été "représentés" dans une autre instance de complexité supérieure à la sienne, servant "d'intelligence créatrice". C'est vrai aussi bien de l'ontogenèse individuelle que pour la phylogenèse d'espèces. Personne n'a "pensé" à l'avance la construction de ces systèmes.

    L'ontogénèse d'êtres vivants multicellulaires simples est entièrement prédéfinie par son génome, et cela peut parfaitement s'interpréter comme incluant la prédéfinition de ses buts.
    Non, parce que ces "buts" n'ont pas été conceptualisés par autre chose que l'être lui-même. Aucun programme d'ordinateur n'aurait pu émerger naturellement sans intelligence humaine pour les concevoir et les implémenter matériellement, ils sont un sous-produit de l'intelligence humaine. Au contraire, il n'y a pas de structure plus organisée que la biosphère qui l'aurait conçue, ni même d'individus. (ou alors tu tombes dans le créationnisme).

    Une machine artificielle n'existe que parce que son "idée" a préexisté dans un cerveau. C'est là la différence essentielle. L'ADN ne "pense" pas le comportement élaboré de l'être humain, celui-ci est réellement émergent.

    Cordialement

    Gilles

  30. #420
    invité576543
    Invité

    Re : Sondage intelligence artificielle

    Citation Envoyé par gillesh38 Voir le message
    Il y a un problème de principe à cette distinction : c'est que les buts sont eux mêmes conçus en fonction de critères affectifs.
    Ce n'est pas un problème de "principe". C'est un problème, certes. Les buts sont hiérarchisés. Pour atteindre un but A, on décompose souvent en une série de sous-buts B1, ..., Bn, eux-mêmes décomposés en sous-sous-buts, etc.

    Par introspection pour un humain, les buts les plus "hauts" dans la hiérarchie sont toujours affectifs, les buts intermédiaires peuvent être "rationnels", les sous-buts "finaux" sont "procéduraux" (pas de conscience des commandes de tel ou tel muscle pour obtenir comme but le mouvement de la main, dont le but est la prise d'un objet, dont le but est de le porter aux lèvres dont le but est d'ingurgiter le liquide dans ledit verre dont le but est d'étancher la soif, dont le but est affectif, i.e., faire cesser la sensation désagréable de soif).

    La distinction entre comportement rationnel et affectif sera aussi largement dépendant de tes propres normes .
    Je pense que c'est plus objectivable que cela. C'est juste une piste de réflexion, pas plus!

    Les comportements suivant sont-ils "rationnels " par exemple?
    * un boursier étudiant soigneusement les cours pour gagner 10 millions de plus, alors qu'il en a deja 230 (largement suffisants pour subvenir à toutes ses envies)?
    Oui, bien sûr. C'est totalement algorithmisable, non? Tu programmes une machine pour étudier soigneusement les cours pour qu'elle choisisse quoi faire optimiser l'argent gagné, le comportement de la machine est parfaitement rationnel.

    Ce qui n'est pas (nécessairement) rationnel dans la tête dudit boursier ce n'est pas le processus d'étude, mais la décision de faire cela plutôt qu'aller à la pêche. Ce cas pêche par la non distinction des deux domaines de décision.

    * un terroriste préparant soigneusement un attentat?
    Ibidem. La "préparation soigneuse" est un processus rationnel, la décision de procéder à cette préparation ne l'est pas nécessairement. Et pour la seconde, ce n'est pas une question de norme, mais de ce qu'il se passe dans la tête de la personne. Si, interrogée et répondant honnêtement, elle répond à la question "pourquoi te donnes-tu comme but la perpétuation de cet attentat?", elle répond "parce que j'en ai envie", ou "parce que Dieu me l'a ordonné", ce n'apparaît pas comme rationnel. Si elle répond "parce que s'il réussi, tel groupe auquel j'appartiens obtiendra tel ou tel avantage qu'il n'aura pas sans cet attentat", alors c'est rationnel.

    * un juge condamnant à la prison un petit délinquant ayant commis un vol mineur?
    Pareil, qu'est ce qu'il se passe dans sa tête? S'il le fait juste "parce qu'il en a envie", "parce que ça lui fait plaisir", "parce qu'il trouve que c'est bien", ce n'est pas rationnel. S'il pèse consciemment les conséquences de cette décision (aussi bien pour lui que pour le délinquant, d'ailleurs) par rapport aux autres décisions possibles, c'est rationnel.

    etc, etc... dans tous les débats de sociétés, on s'aperçoit que les critères de rationalité sont éminemment dépendant de l'individu !
    Non. On s'aperçoit que les critères de valeur sont éminemment dépendant de l'individu. La manière de voir que tu mentionnes correspond à la "self-righteousness" (connais pas d'équivalent en français), qui considère que ses propres critères de valeur sont rationnels, et que tout critère de valeur divergent chez une autre personne montre qu'elle n'est pas rationnelle. (Avec les généralisation aux valeurs communes à un groupe, en comparaison avec les valeurs d'autres groupes, que ce soit religion, système politique, bonne moeurs, etc.) Si on dépasse cette tendance, aucun critère de valeur n'est rationnel.

    a rebours, un programme expert qui se retrouveraient dans une situation non prévue ( du type de ce qui se produit dans un accident nucléaire par exemple) et prendraient des décisions conformes à son programme, mais stupides dans le contexte particulier ou il se trouve, est-il "rationnel"?
    Totalement, selon ma définition. Faire une erreur n'est pas "ne pas être rationnel", faire une erreur dans une décision rationnelle vient de la non perfection des connaissances intervenant dans le processus rationnel


    N'empeche, les "machines" sont des machines justement parce ce qu'elles sont algorithmiques ! c'est pour moi une différence de principe essentielle
    Machine = algorithmique

    Cerveau = non algorithmique

    Donc, machine <> cerveau

    Je n'ai toujours pas perçu la différence avec :

    machine = machine

    Cerveau = non machine

    donc, cerveau <> machine

    Mais ça ne reflète que mon caractère obtus et mes limites!

    qui explique le fait qu'on n'a jamais l'impression qu'elles "pensent" vraiment ...
    Je préfère l'explication qui est que les humains sont incapables pour le moment de fabriquer une machine telle qu'on (i.e. un humain!) a l'impression qu'elle pense vraiment, une explication par la limite actuelle des compétences techniques des humains, qu'une explication de principe.

    Cordialement,

Page 14 sur 16 PremièrePremière 14 DernièreDernière

Discussions similaires

  1. Intelligence Artificielle...
    Par inviteba0a4d6e dans le forum [ARCHIVE] Philosophie
    Réponses: 445
    Dernier message: 06/11/2004, 17h38
  2. Intelligence artificielle
    Par invite68b1fbe7 dans le forum [ARCHIVE] Philosophie
    Réponses: 120
    Dernier message: 05/08/2004, 09h05
  3. Intelligence artificielle
    Par invitec37f3680 dans le forum Logiciel - Software - Open Source
    Réponses: 13
    Dernier message: 27/07/2004, 19h30
  4. Intelligence artificielle
    Par inviteccdf3864 dans le forum Logiciel - Software - Open Source
    Réponses: 2
    Dernier message: 04/05/2004, 10h01