L'intelligence artificielle, peut-elle se révéler néfaste ? - Page 6
Discussion fermée
Page 6 sur 7 PremièrePremière 6 DernièreDernière
Affichage des résultats 151 à 180 sur 200

L'intelligence artificielle, peut-elle se révéler néfaste ?



  1. #151
    invite0e4ceef6

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?


    ------

    pour répondre a la question de base, je dirais que l'intélligence humaine en soi, n'est pas un facteur absolue de moralité, ou etant sans danger... l'intélligence, semble plutôt etre une adéquation d'une somme de solution a un problème donnée... or dans l'ensemble des solutions proposé, il y en as d'ethique et d'autre de non-ethique, sans préjugé toutefois de leur efficacité.. relire sunt-tzu, ou machiavel pour voir que l'intélligence en-soi n'est pas un vecteur automatique de bonne moralité... d'ailleur, chez l'homme et même chez l'animal, le coté intélligence morale, n'est pas celui qui est recherché en premier, mais bien celui-ci de la solution la plus efficace généré dans le temps le plus court...

    faire une IA, un generateur de solution en quelque sorte, ne pose pas la question de l'ethique, car l'ethique est forcement un limitateur de solution, qui elimineras du choix final, un bon nombre d'entre-elle car le correspondant pas a un type de solution dite ethiquement acceptable...

    en-soi l'intélligence se comporte comme un outils, c'est une technique permettant la génération de solution, via diverse voie d'annalyse d'un problème... le choix final se fait par réduction en fonction de divers critère annexe souvant environmentaux, local au probleme lui-même...

    l'IA n'est ni mauvaise ni bonne en-soi, si elle se trouve etre mauvaise, c'est que nous jugeons que les solutions qu'elle apporte sont immorale, ou innaproprié voir dangereuse... nous some tout les jours nous aussi confronté au travail de notre intélligence et en face des diverse solutions que celle-ci nous propose, et nous jugeons les solution possible aussi en fonction d'une ethique, ou d'un ensemble de loi morale qui validerons ou non une solution...

    -----

  2. #152
    invited494020f

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par pi-r2
    La conscience arrivera automatiquement avec l'intelligence dès que l'iA se prendra elle même pour objet de son étude. Et comme elle sera curieuse (parce que si on n'est pas curieux, on n'est pas intelligent), cela finira nécessairement par arriver.
    Bonjour, le tout est de concevoir une machine dont la curiosité serait "humaine", qui déciderait (sans qu'on l'y incite) de se prendre comme sujet d'étude et qui aurait les moyens de le faire. Ce n'est pas demain la veille!

  3. #153
    spi100

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par paulb
    Bonjour, le tout est de concevoir une machine dont la curiosité serait "humaine", qui déciderait (sans qu'on l'y incite) de se prendre comme sujet d'étude et qui aurait les moyens de le faire. Ce n'est pas demain la veille!
    C'était probablement comme ça qu'était présentée l'IA il y a 20 ans : fabriquer des machines conscientes équivalente à l'être humain. Actuellement il s'agit plus de fabriquer des machines et des programmes capables d'explorer et d'analyser un environnement afin de construire des stratégies ou des méthodes de résolution de problèmes adaptées.

  4. #154
    GillesH38a

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Argyre
    Pas d'accord, tu fais la même erreur que Searle dans son article sur la chambre chinoise : quand on simule une réaction chimique, la réaction chimique n'a pas vraiment eu lieu; en revanche, simuler un traitement de l'information (ce que fait le cerveau) par un autre traitement de l'information, il y a équivalence fonctionnelle !
    Certes, s'il est nécessaire de traiter l'information venant de l'extérieur et de commander un muscle, il faut aussi doter l'ordinateur de capteurs et de moteurs, mais la boîte qui traite l'information peut être équivalente.
    Moi je ne pense pas que Searle se soit trompé.
    Je pense que ce sont les tenants de l'IA qui font une entourloupe.

    Dis moi a quel moment tu n'es plus d'accord :

    1° Ils partent de l'idée que le fonctionnement du cerveau est algorithmique, et donc que les neurones traitent une information "abstraite", qui pourrait être donc transférée sur n'importe quel ordinateur "formellement" équivalent.

    oui ou non?

    2°) la première idée est que cette information abstraite pourrait être contenue dans une suite de "bits", matérialisés par une grandeur macroscopique affectée au neurone, par exemple un potentiel électrique, qui serait effectivement transposable par exemple a une mémoire magnétique, un spin, voir la position d'une porte logique d'un ordinateur en bois. Le réseau de neurones est équipé de connexions assurant un traitement algorithmique de ces "bits", dont l'équivalent peut être programmé dans n'importe quel ordinateur

    oui ou non?

    si cette idée etait correcte, le cerveau serait effectivement un ordinateur mais ce n'est pas si simple.

    3°) on se rend compte que le neurone n'est pas simplement un "bit" avec un comportement déterministe : sa réaction est stochastique, et dépend en plus de la présence de nombreux médiateurs chimiques dont la concentration varie de façon continue (dont l'alcool justement , mais aussi toutes les drogues potentielles y compris celles qu'on n'a pas encore inventées ! ), et qui ne sont donc pas FORMELLEMENT assimilables à un ensemble fini de bits .

    qu'a cela ne tienne, se disent-ils, on n'a qu'a modéliser plus finement le comportement des neurones en tenant compte de leur structure biochimique , en modélisant les réactions a l'intérieur, voire pour les plus hardis en modélisant la fonction d'onde complète de tous les atomes composant les neurones, ou même les particules élémentaires, ou même les super cordes qui sont dessous ! (si si j'ai vraiment entendu ça sur des forums, je vous le jure). Bref on met toute la physique nécessaire et on a bien un modèle du cerveau donc un ordinateur intelligent !!!

    oui ou non?

    bon a mon avis l'entourloupe est la pour plusieurs raisons.

    Première raison : En voulant modéliser le neurone "physique", on abandonne implicitement l'idée que l'information est contenue de manière macroscopique indépendante de la structure matérielle du neurone. Il devient impossible de lui affecter une "valeur d'information" qui puisse être aussi affectée à un seul, ou un petit nombre de bits d'un ordinateur au silicium.

    Deuxième raison : en descendant le niveau de description au niveau moléculaire, on perd toute capacité d'interaction réelle avec le monde extérieur ! comment connecter la simulation d'un neurone avec un processus physique réel comme l'arrivée d'un vrai photon ? c'est comme si vous vouliez simuler le comportement thermique d'une poutre et que vous chauffiez l'ordinateur pour voir le résultat ! Si vous simulez l'évolution réelle d'un neurone, vous ne pouvez l'interfacer qu'avec une simulation de la réalité et non la réalité. Votre simulation va vous cracher une suite de 0 et de 1 que vous interpréterez*commel'évolution d'un cerveau, mais qui ne traitera aucune information réelle de l'environnement. Si vous voulez savoir comment votre cerveau simulé réagit à "bonjour" par exemple, vous serez obligé de simuler une oreille qui entend "bonjour" : la machine est donc incapable SANS VOUS, c'est a dire SANS VOTRE INTELLIGENCE, d'interaction avec le monde exterieur.

    3°) plus philosophiquement : si vous savez simuler le comportement physique exact d'un cerveau, vous savez simuler le comportement de n'importe quel système physique : une étoile, l'intérieur de la Terre, un nuage. Grand (Great !) . Mais cela ne résoudra en rien le problème de la nature de l'intelligence. Vous serez incapable d'identifier une différence fondamentale entre votre simulation de cerveau et votre simulation d'étoiles. Quelqu'un qui ne saurait pas que vous simulez un cerveau ne verrait aucune différence entre la suite de 0 et 1 générés dans les deux cas. Pensez vous raisonnable d epenser que dans un cas, l'ordinateur pense comme un cerveau, et que dans l'autre, il ne pense pas? ou alors vous supposez que tout système physique pense (pourquoi pas), mais alors vous n'avez toujours pas répondu a la question de ce qui distinguait le cerveau d'un autre systeme. Il n'y a plus d'intelligence du tout, plus que des systèmes physiques.

    Donc vous avez perdu votre but initial....

  5. #155
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Moi j'arrête dès le 2. Rien à faire de reproduire le fonctionnement d'un neurone, d'un groupe de neurone...
    Je commence d'abord pas au neurone mais à la cellule origine de l'être humain. Elle contient un programme qui entre autre code pour un structure qui développe de l'intelligence.
    Cette cellule fonctionne de manière algorithmique, et d'ailleurs le programme est incroyablement précis puisqu'il produit immanquablement un humain très complet et intelligent.

    Je ne vois pas pourquoi tu continue à penser que le système ne sera qu'une simulation. Je colle une webcam et des roues à mon système et hop, il peut interagir avec le monde réel.

    Pour ce qui est de l'intelligence, je fais justement l'inverse, de partir de programmes très simples pour démonter et comprendre le concept d'intelligence (à partir de quand un système devient intelligent).

    Pour le point 3, il faut inverser ton argumentation. Comprendre l'intelligence aiderait considérablement à comprendre la physique et la complexité (et c'est en fait ça mon but).

    Paul b: dans un monde de chaines binaires, la curiosité consiste à allonger la chaine de 1 et d'essayer successivement 0 puis 1 pour voir ce que ça donne. Le problème difficile est d'éviter le plantage (problème de Turing).
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  6. #156
    GillesH38a

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par pi-r2
    Moi j'arrête dès le 2. Rien à faire de reproduire le fonctionnement d'un neurone, d'un groupe de neurone...
    Je commence d'abord pas au neurone mais à la cellule origine de l'être humain. Elle contient un programme qui entre autre code pour un structure qui développe de l'intelligence.
    Cette cellule fonctionne de manière algorithmique, et d'ailleurs le programme est incroyablement précis puisqu'il produit immanquablement un humain très complet et intelligent.
    Je t'arrête tout de suite. L'ADN ne comporte pas de programme, c'est une banque de données passive, un CD de données si tu veux mais PAS le code de lecture. C'est la réalité physique qui est le code de lecture (par transcription des nucléotides en protéines). Le reste de la cellule est indispensable à la construction mais tu ne peux pas le mettre sous une forme algorithmique. C'est le même problème avec des neurones. Ou alors comme je disais tu considères que TOUS les processus physiques sont algorithmiques, mais du coup l'être humain perd toute spécificité et tu ne sais plus définir ce qu'est l'intelligence.

    Citation Envoyé par pi-r2

    Je ne vois pas pourquoi tu continue à penser que le système ne sera qu'une simulation. Je colle une webcam et des roues à mon système et hop, il peut interagir avec le monde réel.
    PAs si tu cherches a simuler la physique du neurone, tu n'as plus de connexion possible avec la webcam. Réfléchis un peu, suppose que tu aies une gigantesque simu d'un neurone "biochimique" (traitant toutes les réactions à l'intérieur) et tu me proposeras comment faire pour la connecter avec une webcam ! Evidemment un robot peut fonctionner avec une cam, mais il a son propre traitement de l'information qui n'a absolument rien a faire avec un cerveau humain. Donc ils ne sont pas de même nature. C'est ce que je veux démontrer.

  7. #157
    invite765732342432
    Invité

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par gillesh38
    PAs si tu cherches a simuler la physique du neurone, tu n'as plus de connexion possible avec la webcam. Réfléchis un peu, suppose que tu aies une gigantesque simu d'un neurone "biochimique" (traitant toutes les réactions à l'intérieur) et tu me proposeras comment faire pour la connecter avec une webcam ! Evidemment un robot peut fonctionner avec une cam, mais il a son propre traitement de l'information qui n'a absolument rien a faire avec un cerveau humain. Donc ils ne sont pas de même nature. C'est ce que je veux démontrer.
    Gilesh, j'ai l'impression que tu perds de vue une chose importante: On ne cherche pas à reproduire exactement le fonctionnement des neuronnes. Mais on s'appuie sur leur principe de fonctionnement pour essayer de créer quelque chose de différent, dans un ordinateur, et intelligent.

    La recherche sur l'IA ne consiste pas à copier ce qui existe déjà mais à s'inspirer de quelque chose pour l'adapter à un autre support.

    Nous n'avons pour le moment aucune preuve que l'intelligence ne peut naître que dans un cerveau.

  8. #158
    invited494020f

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Bonjour,
    Citation Envoyé par gillesh38
    Evidemment un robot peut fonctionner avec une cam, mais il a son propre traitement de l'information qui n'a absolument rien a faire avec un cerveau humain. Donc ils ne sont pas de même nature. C'est ce que je veux démontrer.
    Et tu y arrives parfaitement. L'intelligence artificielle a son rôle à jouer à condition que ses tâches soient strictement délimitées et définies, ainsi que ses sources d'information et ses modes d'action (p.ex. jouer aux échecs, comprendre les mouvements de l'adversaire, élaborer ses propres mouvements et déplacer les pions).
    Dans ces cas l'IA fait des merveilles, mais toute anthropomorphisation est un rêve de potache. (Pour l'instant les meilleurs joueurs d'échec battent les machines)

  9. #159
    GillesH38a

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Faith
    Gilesh, j'ai l'impression que tu perds de vue une chose importante: On ne cherche pas à reproduire exactement le fonctionnement des neuronnes. Mais on s'appuie sur leur principe de fonctionnement pour essayer de créer quelque chose de différent, dans un ordinateur, et intelligent.

    La recherche sur l'IA ne consiste pas à copier ce qui existe déjà mais à s'inspirer de quelque chose pour l'adapter à un autre support.

    Nous n'avons pour le moment aucune preuve que l'intelligence ne peut naître que dans un cerveau.
    mon raisonnement cherche à prouver que l'intelligence humaine n'est pas de nature algorithmique , et donc qu'une machine fondée sur une physique différente sera toujours incommensurable avec l'intelligence HUMAINE, parce qu'on ne pourra jamais "implémenter un algorithme équivalent à un cerveau" (vu qu'il n'y en a pas).

    Il faut reconnaître que les spécialistes de l'IA ont considérablement rabattu leurs espoirs par rapport aux années 50 60 (probablement que les énormes difficultés des programmes de traduction automatique et de reconnaissance de formes les ont un peu refroidis : on est encore très loin de savoir comment reconnaître un arbre sur une photo, tâche qu'un enfant de 6 ans fait sans problème).
    Certains prétendent que l'IA existe déjà avec les ordinateurs actuels. C'est un point de vue, pourquoi pas. Mais je pense qu'on n'interagira jamais avec un ordinateur qui nous donne l'impression d'etre "intelligent" et de nous "comprendre", parce que ce que nous appelons intelligence est trop liée à notre structure biologique particulière.

  10. #160
    invite765732342432
    Invité

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par gillesh38
    mon raisonnement cherche à prouver que l'intelligence humaine n'est pas de nature algorithmique , et donc qu'une machine fondée sur une physique différente sera toujours incommensurable avec l'intelligence HUMAINE, parce qu'on ne pourra jamais "implémenter un algorithme équivalent à un cerveau" (vu qu'il n'y en a pas).
    Différent ne veut pas dire inférieur.
    Par ailleurs à ce niveau d'IA, on n'implémente pas un algorithme équivalent à un cerveau: on implémente une base autodictate et évolutive et on la laisse (plus ou moins) librement évoluer.

  11. #161
    spi100

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par paulb
    (Pour l'instant les meilleurs joueurs d'échec battent les machines)
    Deeper blue a battu Kasparov en 97
    http://www.humanite.presse.fr/journa...7-05-16-778997
    Il faut donc bien considérer qu'un ordinateur fait parti des meilleurs joueurs d'echec du monde.

    C'est vrai qu'il faut de l'inventivité, de l'intuition et du génie pour jouer à haut niveau aux echecs, mais face à une batterie de processeurs qui explorent de façon systématique l'arbre des solutions possibles, un joueur humain ne peut rien faire.

  12. #162
    invited494020f

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par spi100
    Deeper blue a battu Kasparov en 97
    http://www.humanite.presse.fr/journa...7-05-16-778997
    Il faut donc bien considérer qu'un ordinateur fait parti des meilleurs joueurs d'echec du monde.

    C'est vrai qu'il faut de l'inventivité, de l'intuition et du génie pour jouer à haut niveau aux echecs, mais face à une batterie de processeurs qui explorent de façon systématique l'arbre des solutions possibles, un joueur humain ne peut rien faire.
    Bonjour,
    ton lien est intéressant, mais comporte un bémol: ce n'était pas le "meilleur Kasparov" qui a paraît-il été battu, si l'on se fie à sa déclaration.
    Malgré tout, il serait intéressant de savoir si la machine qui l'a battu était algorithmique (même partiellement) ou pas et si elle avait la capacité d'apprentissage de sa propre initiative?

  13. #163
    spi100

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par paulb
    Bonjour,
    ton lien est intéressant, mais comporte un bémol: ce n'était pas le "meilleur Kasparov" qui a paraît-il été battu, si l'on se fie à sa déclaration.
    Malgré tout, il serait intéressant de savoir si la machine qui l'a battu était algorithmique (même partiellement) ou pas et si elle avait la capacité d'apprentissage de sa propre initiative?
    Non la machine qui l'a battu est complètement algorithmique, AMHA les machines non algorithmiques n'ont pas encore été inventées.
    Même si ça n'était pas le meilleur Kasparov, ça laisse quand même bien penser que Deeper Blue est un très très bon joueur d'echec.

    Cette exemple montre bien l'objet de l'IA n'est pas de mimer l'Homme mais de produire des systèmes capables de résoudre des problèmes complexes dans un environnent changeant, et que ce programme de recherche réussi.

  14. #164
    invite06fcc10b

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par gillesh38
    1° Ils partent de l'idée que le fonctionnement du cerveau est algorithmique, et donc que les neurones traitent une information "abstraite", qui pourrait être donc transférée sur n'importe quel ordinateur "formellement" équivalent.
    oui ou non?
    Je ne sais pas répondre car on peut interpréter de plusieurs façons tes propos.
    Personnellement, je pars de l'hypothèse que le monde réel est mathématiquement calculable. A partir du moment où il y a des lois physiques qui reposent sur des calculs mathématiques, alors il EXISTE un algorithme capable de REPRODUIRE (terme préféré à "simuler") ces mêmes calculs. Ce sont les travaux de Church et de Turing qui démontrent l'existence de cet algorithme, algorithme qui peut effectivement tourner sur n'importe quel ordinateur formellement équivalent. (réponse = plutôt oui)

    Citation Envoyé par gillesh38
    2°) la première idée est que cette information abstraite pourrait être contenue dans une suite de "bits", matérialisés par une grandeur macroscopique affectée au neurone, par exemple un potentiel électrique, qui serait effectivement transposable par exemple a une mémoire magnétique, un spin, voir la position d'une porte logique d'un ordinateur en bois. Le réseau de neurones est équipé de connexions assurant un traitement algorithmique de ces "bits", dont l'équivalent peut être programmé dans n'importe quel ordinateur
    A priori, je dirais plutôt non.
    Le cerveau est une boîte capable de réaliser des calculs. Les entrées correspondent aux organes sensoriels dont la réponse peut être codée numériquement et les sorties qui correspondent aux muscles (on peut y ajouter aussi d'autres actions physiologiques) peuvent également être codées avec des nombres. A priori, il n'y a aucun problème avec cette façon de voir les choses, car on peut construire des capteurs ou des prothèses qui vont remplacer les organes humains, et ça fonctionne.
    Entre les entrées et les sorties, il y a une boîte qui traite l'information, de sorte que pour certaines entrées, il y a certaines sorties. C'est là que le concept de machine de Turing Universelle peut nous aider : quel que soit le traitement effectué par le cerveau, il existe un algorithme capable de faire la même chose, ou alors il se passe dans le cerveau des phénomènes physiques inexplicables par la science. Mieux, on peut dire que le cerveau est une sorte d'ordinateur dans lequel est implanté un algorithme.
    (au fait, tu parles d'information codée par des bits, or il est surtout question de traitement de l'information et pas d'information isolée).

    Citation Envoyé par gillesh38
    3°) on se rend compte que le neurone n'est pas simplement un "bit" avec un comportement déterministe : sa réaction est stochastique, et dépend en plus de la présence de nombreux médiateurs chimiques dont la concentration varie de façon continue (dont l'alcool justement , mais aussi toutes les drogues potentielles y compris celles qu'on n'a pas encore inventées ! ), et qui ne sont donc pas FORMELLEMENT assimilables à un ensemble fini de bits .
    ... Bref on met toute la physique nécessaire et on a bien un modèle du cerveau donc un ordinateur intelligent !!!
    Primo, on peut imaginer un système informatique qui descendra au niveau des équations de la physique des particules pour parvenir à reproduire de façon précise tout comportement stochastique macroscopique.
    Cependant, si le neurone ne fonctionne pas de façon idéale, je doute que le cerveau ne puisse plus produire de traitement intelligent. Et donc, il n'est probablement pas important de reproduire de façon ultraprécise le fonctionnement du neurone. En ce qui concerne l'alcool, la drogue et autres substances chimiques perturbatrices, on peut aussi coder leur effet, mais je pense qu'on peut aussi faire l'impasse, car ce n'est pas ça qui rend intelligent. Le but n'est pas de reproduire le traitement exact d'un cerveau particulier, mais de reproduire approximativement le traitement d'un cerveau quelconque.
    Donc, non, si on souhaite reproduire approximativement le traitement du cerveau humain, on doit pouvoir se contenter d'une modélisation très simpliste des neurones.

    [QUOTE=gillesh38]
    Première raison : En voulant modéliser le neurone "physique", on abandonne implicitement l'idée que l'information est contenue de manière macroscopique indépendante de la structure matérielle du neurone. Il devient impossible de lui affecter une "valeur d'information" qui puisse être aussi affectée à un seul, ou un petit nombre de bits d'un ordinateur au silicium.

    Citation Envoyé par gillesh38
    ... Si vous simulez l'évolution réelle d'un neurone, vous ne pouvez l'interfacer qu'avec une simulation de la réalité et non la réalité. Votre simulation va vous cracher une suite de 0 et de 1 que vous interpréterez*commel'évolution d'un cerveau, mais qui ne traitera aucune information réelle de l'environnement.
    Et pourtant ... ça marche, et depuis longtemps ! Oui, ça fait déjà pas mal de temps qu'on a réussi à simuler des neurones artificiels, de façon très simpliste, mais peu importe, et qu'on a interfacé le programme avec les capteurs et les moteurs d'un robot. Ce réseau de neurones artificiels effectue bien un traitement de l'information, je peux vous le garantir, et si cela a été réalisé, c'est que le traitement n'était pas stupide (on fait typiquement de l'apprentissage, de la classification ou de la reconnaissance de formes).

  15. #165
    spi100

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Argyre
    Primo, on peut imaginer un système informatique qui descendra au niveau des équations de la physique des particules pour parvenir à reproduire de façon précise tout comportement stochastique macroscopique.
    En écrivant ça tu supposes que les lois de la physique peuvent être décrites par des algorithmes. Ce n'est pas une évidence du tout que la nature soit algorithmique.
    Un remarque évidente pour essayer de s'en convaincre est que les théories physiques utilisent des paramètres réels variant continument. Or le continu est inaccessible aux algorithmes, il n'y a pas suffisamment de machines de Turing pour calculer tous les nombres réels ( l'ensemble de machines de turing est de même puissance que |N ). Toute simulation numérique nécessite donc de réduire une théorie physique afin de la rendre représentable par un algorithme ( mise sur réseau ). Cette argument n'est pas dérisoire car la mise sur réseau de la théorie peut dégrader de façon pathologique sa qualité prédictive, je pense au systèmes chaotiques présentant une hyper-sensibilité aux conditions initiales.

    Il y a aussi des théoriciens de haute volée qui sont de cette avis, un et pas des moindres est Penrose. Une discussion intéressante des idées de Penrose sur le sujet sont exposées là http://lutecium.org/stp/penrose.html
    .

    Mais je ne dis pas ça pour critiquer l'IA. Finalement aucun principe n'impose à l'IA de n'utiliser que des systèmes algorithmiques. Il se trouve que technologiquement nous ne disposons que de cela actuellement, mais si des phénomènes non algorithmiques exploitables technologiquement étaient découverts, l'IA pourrait les intégrer dans ses systèmes. Il y a d'ailleurs déjà des développements théoriques autour de la notion d'hyper-computing ( machine de Turing + oracle ).

  16. #166
    invited494020f

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Bonjour,
    Je pense qu'il serait temps de revenir aux bases de l'informatique pour évaluer l'avenir de l'IA.
    Le point commun entre le cerveau humain et les processeurs informatiques est qu'ils perçoivent, traitent, mémorisent et utilisent des informations en vue d'une action (ou d'une non-action) effectuée par des "actionneurs". (même la parole est une action, avec ses actionneurs: un paquet de muscles).
    Toutes ces opérations sont effectuées à la base de deux sortes de codage des informations: numérique, série ou parallèle) ou analogique (ou mixte par transcodeurs analogique-numérique ou vice-versa). L'énergie utilisée peut être électromagnétique, électrochimique ou mécanique.
    L'informatique moderne utilise surtout le codage d'information numérique, essentiellement à cause de la fidélité défaillante des systèmes analogiques (surtout dérive en température) et réserve ces dernières aux capteurs et aux actionneurs (quand il n'y a pas moyen de faire autrement).
    Aussi bien le cerveau que les processeurs recourent à un grand nombre de transcodages dans la succession des opérations décrites plus haut. Un microbiologiste serait plus à même que moi à décrire dans le détail les transcodages du cerveau, mais prenons un exemple relativement simple: l'oreille interne. Il dispose, en spirale, de capteurs (des sortes de poils), sensibles chacun à une fréquence particulière, qui transmet aussi bien la présence que l'intensité de sa propre fréquence, par voie électrochimique, probablement analogique, aux neurones du cerveau. (C'est moi qui dis "probablement", je n'en sais rien).
    J'ignore totalement le mode de fonctionnement des neurones, mais j'estime hautement improbable leur fonctionnement par tout ou rien, comme les transistors informatiques, leur nombre, même très élevé, me paraissant insuffisant pour faire tout le boulot qu'on leur impose avec ce type de fonctionnement.
    L'invention de l'IRM (imagerie par résonance magnétique) et d'autres méthodes d'investigation facilitent bien la tâche de ceux qui s'efforcent de comprendre le fonctionnement de l'ensemble du système nerveux et des neurones en particulier, mais pour l'instant, peut-être par manque d'information, je ne sais pas où ils en sont. Il est très probable qu'une machine faisant l'émulation (et non la simulation) du cerveau (et du système nerveux) ne soit pas pour demain.
    Pour finir, un petit exemple: on a calculé qu'un ordinateur chargé d'effectuer le travail d'un joueur de tennis moyen devrait tourner à 700 Gigaflops (un flop est la commutation d'un élément numérique de base). Et jouer au tennis n'est qu'une activité parmi tant d'autres!
    Avec cette petite approche technologique, très incomplète, j'espère compléter un peu l'approche plutôt philosophique des autres intervenants.

  17. #167
    Rhedae

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Un robot qui singe l'humain, a mon sens est pas ce qu'il a de plus intelligent a construire...
    "Le monde contient bien assez pour les besoins de chacun, mais pas assez pour la cupidité de tous."

  18. #168
    invited494020f

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Rhedae
    Un robot qui singe l'humain, a mon sens est pas ce qu'il a de plus intelligent a construire...
    Bonjour,
    C'est toi qui parles de robot qui singe. C'est une expression enfantine et non pertinente dans ce débat. Il y peu de choses en commun entre "robot" et "système IA" et entre "singer" et "émuler".
    Mon conseil:

  19. #169
    invite06fcc10b

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par spi100
    Une remarque évidente pour essayer de s'en convaincre est que les théories physiques utilisent des paramètres réels variant continument. Or le continu est inaccessible aux algorithmes,
    2 choses : primo, en informatique, on peut traiter le continu comme en maths avec des calculs formels, c'est à dire tant qu'on n'est pas obligé de prendre un exemple de valeur infinie. Secundo, la MQ suggère que tout est une affaire de quanta, et donc qu'il n'y a rien de continu. Par exemple, il n'y a pas d'orbite intermédiaire pour l'électron qui doit choisir entre une liste d'orbites possibles, et on ne peut avoir des parties fractionnaires de particules. On ne peut pas non plus séparer 2 événements de moins d'un certaine quantité de temps, etc. etc..
    Bref, en physique justement, tout porte à croire que le continu n'existe pas et par conséquent que tout est bien algorithmique (en incluant le calcul formel des mathématiques qu'on peut faire par ordinateur, par exemple le calcul d'une intégrale).

    Citation Envoyé par spi100
    Il y a aussi des théoriciens de haute volée qui sont de cette avis, un et pas des moindres est Penrose. ...
    Pas de chance, c'est un des plus contestés ! J'ai lu 2 de ses livres et il ne m'a pas convaincu, bien au contraire. Pour tenter de montrer qu'on ne peut pas tout faire avec un algorithme, il est allé chercher un exemple (et pas 2 !) d'une grande complexité, où il s'emmêle les pinceaux et ne démontre en réalité rien du tout (c'est en tout cas mon opinion, mais je vous invite à lire sa prose !).

    Citation Envoyé par spi100
    Finalement aucun principe n'impose à l'IA de n'utiliser que des systèmes algorithmiques.
    Ben si, la thèse de Church et les travaux de Turing ! Tout traitement de l'information est réductible à une séquence de traitements élémentaires comprenant des opérateurs comme l'addition, des affectations, des tests, et la possibilité de faire de la récursivité, c'est tout ! Vous n'avez pas remarqué qu'il n'y a aucun travail de recherche concernant la conception de nouveaux ordinateurs qui pourraient faire un traitement que les autres ne sauraient faire (sans parler du temps de calcul) ? Pourquoi ? Parce que justement, tous les informaticiens spécialistes de calculabilité savent que quel que soit le traitement qu'on veuille inventer, on pourra toujours le programmer sur un ordinateur actuel.
    Dit autrement, on ne saurait inventer un ordinateur qui transcenderait les ordinateurs actuels. Et on voudrait que le cerveau puisse le faire ?

  20. #170
    invite0e4ceef6

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par paulb
    Bonjour,
    C'est toi qui parles de robot qui singe. C'est une expression enfantine et non pertinente dans ce débat. Il y peu de choses en commun entre "robot" et "système IA" et entre "singer" et "émuler".
    Mon conseil:
    si je peux me permettre paul, pour toi imiter n'interviens en rien dans les systèmes intelligent ou tu l'exclues des systèmes IA... parceque l'emulation, l'imitation chez les système intelligent, doit correspondre a un gros bout de l'affaire, vu l'importance que celle-ci prend au court de l'apprentissage... et heureusement sinon, nous devrions tout réinventer ce que nos gènes non pas codé...

    merci pour les précisions..

  21. #171
    GillesH38a

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Argyre
    Je ne sais pas répondre car on peut interpréter de plusieurs façons tes propos.
    Personnellement, je pars de l'hypothèse que le monde réel est mathématiquement calculable.
    A partir du moment où il y a des lois physiques qui reposent sur des calculs mathématiques, alors il EXISTE un algorithme capable de REPRODUIRE (terme préféré à "simuler") ces mêmes calculs.
    Comme spi100 (et Penrose) , je pense c'est faux en principe, pour au moins deux raisons:

    1°) nous ne connaissons pas les lois ultimes de la nature. Ainsi, comme nous ne savons pas si le Boson de Higgs existe, nous ne pouvons pas calculer le résultat d'une expérience de collision au LHC à plusieurs TeV. Donc la réponse est en principe que le monde n'est pas (ENCORE) calculable.

    2°) Meme si nous les connaissions, tout porte a croire qu'elles seraient de nature quantique et donc indéterministe. Nous ne pourrons jamais calculer le résultat de la mesure du spin d'un électron dans un appareil de Stern et Gerlach.

    Vous pourriez croire que le boson de Higgs et le spin d'un électron n'a pas rien à voir avec un cerveau, qui n'est pas sensible aux effets quantiques. C'est également faux. La chimie de base repose sur l'interaction de cortèges électroniques de molécules qui sont essentiellement quantiques. Si on simule par la Meca Q l'interaction de deux molècules (chose couramment faite par les chimistes quanticiens), on obtient en sortie une fonction d'onde hypercompliquée décrivant tous les processus possibles à l'issue de la collision. En simulant les quelques 1025 atomes qui composent un cerveau (au pif), on obtient un énorme machin simulant tout les états possibles du cerveau compte tenu des différentes voies offertes à chaque processus élémentaire (une sorte de super chat de Schrödinger à la puissance 1025). On ne peut pas faire fi de la Meca Q car la fixation d'un neuromédiateur sur un récepteur EST de nature quantique. Même si les effets quantiques n'ont pas d'importance (ce qui veut dire que les termes d'interférences entre ces états sont négligeables), on obtient quand même une superposition d'états macroscopiques. Or la réalité montre que seul un de ces états est vérifié. Que ce soit du à une interprétation multi univers ou a une projection du paquet d'onde, on doit choisir "au hasard" un de ces états, et un choix au hasard ne peut pas être algorithmique.

    Citation Envoyé par Argyre
    Le cerveau est une boîte capable de réaliser des calculs.
    Il peut réaliser des calculs mais il est faux de croire qu'il ne fait QUE ça.

    Citation Envoyé par Argyre
    Les entrées correspondent aux organes sensoriels dont la réponse peut être codée numériquement
    non...les cellules sensorielles transmettent des trains d'impulsions qui ne sont PAS des suites de 0 et de 1. D'autre part encore une fois le traitement dans le cerveau n'est pas non plus un algorithme type Turing. Ce n'est pas parce qu'on émule certaines fonctionnalités du cerveau (par exemple la commande d'organes artificiels) par cette méthode que ça prouve que le cerveau l'utilise (d'ou ma comparaison au culte du cargo).

    Entre les entrées et les sorties, il y a une boîte qui traite l'information, de sorte que pour certaines entrées, il y a certaines sorties. C'est là que le concept de machine de Turing Universelle peut nous aider :

    Citation Envoyé par Argyre
    quel que soit le traitement effectué par le cerveau, il existe un algorithme capable de faire la même chose, ou alors il se passe dans le cerveau des phénomènes physiques inexplicables par la science.
    La projection d'une superposition quantique est effectivement en quelque sorte inexplicable (quoique "descriptible probabilistiquement") par la science. Mais ce n'est pas spécial au cerveau, encore une fois tu ne peux pas prédire le résultat d'une mesure de Stern et Gerlach par un algorithme.

    Citation Envoyé par Argyre
    En ce qui concerne l'alcool, la drogue et autres substances chimiques perturbatrices, on peut aussi coder leur effet, mais je pense qu'on peut aussi faire l'impasse, car ce n'est pas ça qui rend intelligent.
    Je crois que tu n'a pas perçu le point important. Effectivement tu peux simuler un neurone avec des neuro mediateurs, et l"effet de l'alcool, de façon approximative et assez bonne. Le point important, c'est que si tu te mets a faire ça, tu ne peux plus "interfacer" le neurone avec une entrée "numérique" que tu sortirais de ton capteur.
    Pour mieux te faire comprendre ça, regarde ton ordinateur avec ta webcam. La webcam sort un signal numérique transmis par une interface USB comme une suite de 0 et de 1, traité par ton processeur, et affiche une image à l'écran. pas de problème, on est resté dans le numérique. Tu peux traiter la même suite de 0 et de 1 par un autre ordinateur et afficher la même image.

    Suppose maintenant que ton interface soit merdique et que des bits "sautent" aléatoirement, mais par un processus physique calculable en principe (bruit thermique des électrons, rayons cosmiques). tu ne peux plus prévoir l'image qui va s'afficher (peut etre que tout va planter). Mais tu peux essayer de décrire la PHYSIQUE de ton ordinateur en décrivant la physique de tous les semi-conducteurs, transistors etc.. qui le composent, et la tu pourras peut etre prévoir ce qui va s'afficher. Mais la il y a un probleme avec la webcam. Comment couple tu les 2? tu t'aperçois que tu ne peux pas juste mettre l'information numérique de 0 et de 1 parce que tu as besoin de savoir aussi la physique réelle de l'interface, quelle tension est transmise, combien d'électrons entrent. ON NE PEUT PAS INTERFACER UNE ENTREE LOGIQUE AVEC UN SYSTEME PHYSIQUE, IL FAUT CHOISIR L'UN OU L'AUTRE.
    Mais si tu choisis de simuler tout ça physiquement, la quantité d'information non seulement est immensément plus grande que ta simple image jpeg, mais en plus est completement spécifique à ton ordinateur et ton interface, tu as completement perdu le coté "algorithme transposable sur n'importe quel ordinateur". Il ne te faut plus simplement l'information numérique de tonsystème, mais il te faut l'information physique sur tous les électrons qui le composent.
    Le problème n'est pas de "reproduire" exactement ton système, mais de décrire des phénomènes qui ne sont pas algorithmique. Et bien je maintiens que le fonctionnement du cerveau est FONDAMENTALEMENT basé sur des phénomènes physiques non algorithmiques, et donc que l'idee de simuler des capteurs "numériques" et un algorithme les traitant ne peut donner RIEN de comparable.

    SI l''argument ne te convainc toujours pas, je vais lancer une campagne de paris : je parie pour ma part 1 millions d'euros réactualisés que dans 30 ans, ni jamais d'ailleurs, on n'aura toujours aucun ordinateur avec qui on puisse converser comme si il se rendait compte de son environnement

  22. #172
    invite73192618

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par gillesh38
    je parie pour ma part 1 millions d'euros réactualisés que dans 30 ans, ni jamais d'ailleurs, on n'aura toujours aucun ordinateur avec qui on puisse converser comme si il se rendait compte de son environnement
    Tenu.

    Jiav
    PS: Merci d'avoir ajouté "ni jamais d'ailleurs", j'aime les placements sans risques.

  23. #173
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    1 Le fait que la physique soit apparement (et ce n'est pas encore prouvé) de nature continue n'est pas contradictoire avec le fait de pouvoir la comprendre par un système algorithmique.

    2 Ce n'est pas parce que le seul exemple d'intelligence que nous ayons se fonde sur des éléments biologiques à fonctionnement continu que c'est le seul support possible. Un système fondé sur des systèmes non algorithmiques peut avoir un comportement algorithmique (c'est le cas des transistors qui sont sans doute beaucoup plus proche des limites quantique que notre bon gros cerveau macroscopique)

    3 Le fonctionnement de la cellule est fortement teinté d'aléatoire contrôlé par la loi des grands nombres. Ceci rend paradoxalement possible sa simulation de manière discrète (par exemple on parle de la transcription de l'ADN comme si ça marchiat à tous les coups, alors que ça produit un tas de chaines tronquées )

    4 les arguments sur l'incalculabilité de l'univers s'appliquent autant (voire plus) à un cerveau humain qu'à une machine.

    5 Un algorithme peut se rapprocher autant que nécessaire de la valeur vraie d'un nombre réel, de même que le cerveau. Aucun être humain n'est capable de calculer un nombre transcendant.

    6 on s'en tamponne de simuler le cerveau, l'intelligence est bien plus simple que tout ce bastringue.

    7 l'intelligence n'est pas parfaite et ne peut pas l'être.
    Je ne tiens pas le pari, je n'aime pas voler l'argent.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  24. #174
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Je rajoute en commentaire personnel, une observation non scientifique car faite sur moi même: je ne connais aucun processus cognitif de mon cerveau (limité certes) qui ne soit pas algorithmique.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  25. #175
    GillesH38a

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par pi-r2
    Je rajoute en commentaire personnel, une observation non scientifique car faite sur moi même: je ne connais aucun processus cognitif de mon cerveau (limité certes) qui ne soit pas algorithmique.
    ecris moi un algorithme (ou au moins reflechis au principe d'un algorithme) qui reconnais la presence d'un animal, avec le meme taux de reussite qu'un enfant de maternelle a la question :

    les enfants, dites moi si vous voyez un animal sur cette image!

  26. #176
    invite73192618

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par gillesh38
    ecris moi un algorithme (ou au moins reflechis au principe d'un algorithme) qui reconnais la presence d'un animal, avec le meme taux de reussite qu'un enfant de maternelle a la question :

    les enfants, dites moi si vous voyez un animal sur cette image!
    Ca existe déjà.

    Le problème de la reconnaissance de formes a été un gros problème pour l'IA classique (celle qui a donné les systèmes experts -intéressant parfois mais incapable en reconnaissance vocale par exemple) mais pas pour les approches connexionnistes.

    Celles-ci consistent à programmer des couches de neurones connectés entre eux avec des poids d'abord aléatoires, puis d'entrainer (de modifier les poids dans la bonne direction) le réseau sur une base d'exemple connus. Une fois atteint un bon niveau d'apprentissage, le réseau est alors capable de généraliser à de nouveaux exemples. C'est sur ce principe que sont basés tous les programmes nécessitant une reconnaissance de formes (reconnaissance vocale, identification automatique des sillons du cerveau, etc.).

    L'algorithme est distribué plutôt que séquentiel comme dans l'IA classique mais... c'est un algorithme.

  27. #177
    invite3dc2c2f6

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par pi-r2
    Je rajoute en commentaire personnel, une observation non scientifique car faite sur moi même: je ne connais aucun processus cognitif de mon cerveau (limité certes) qui ne soit pas algorithmique.

    J'ai trouvé ca sur la toile....
    Passionnant, l'idée développée sur l'IAD (paragraphe "design pédagogique").
    Particulièrement ce passage: Cit.:

    "Thibault (1988) cité par Dalceggio (1991, p.2) nous propose d'ailleurs une définition de l'apprentissage selon optique d'un nouveau paradigme:

    ".l'action par laquelle l'être humain acquiert de façon fortuite ou délibérée, de nouvelles connaissances, de nouvelles capacités, de nouvelles aptitudes, opérant ainsi en lui des changements porteurs de nouveaux comportements."
    "
    Effectivement, QUID de la place du hasard dans les facteurs d'apprentissage d'une machine?
    Il faut bien reconnaitre qu'une PARTIE, et je dis bien partie, de l'intelligence humaine repose sur notre LIBRE-ARBITRE, et de faire des choix A UN MOMENT donné non plus en fonction d'un ou plusieurs éléments du passé, mais en fonction de convictions.
    Cela ne remet pas en cause le principe de l'expert chez qui "l'esprit contient peu de possibilités" (citation du meme article mentionné plus haut), mais met en avant la specifité et la notion de liberté de l'etre humain.
    Autrement dit, s'il devient possible de concevoir et de mettre au point des systemes experts dans un domaine précis, il n'en reste pas moins que le terme de "artificiel" prend tout son sens, et que l'on ne peut heureusement (point de vue personnel) pas mettre en algorithme cette notion de libre-arbitre. Nous sommes au final d'une certaine manière aussi limité que les machines que nous concevons, mais nos limites ne s'expriment pas de la meme maniere, et les moyens dont nous disposons pour les dépasser sont hors de portee des machines actuelles.
    Si Descartes ne s'etait pas assoupi devant son feu de cheminée, nous n'aurions peut-etre jamais eu droit à son écrit majeur...

    Qu'en pensez-vous?
    Manu.

  28. #178
    invite3dc2c2f6

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    "spécificité" , et pas "spécité"

  29. #179
    GillesH38a

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Jiav
    Ca existe déjà.
    Je suis bien sûr que non . J'ai bien dit un animal et pas un visage particulier ou une lettre "A". Un animal peut etre une fourmi, une limace, un éléphant, et ça peut aller de la photo réaliste à une "cartoonisation" complete. Le probleme n'est pas dans la reconnaissance mais dans la catégorisation.

    Un ordinateur ne reconnaitra jamais spontanément qu'une "vache qui rit" représente la même chose qu'une photo de vache normande au salon de l'agriculture , ou que Mickey est une souris. Je tiens le pari.
    Dernière modification par GillesH38a ; 07/09/2005 à 20h32.

  30. #180
    GillesH38a

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    autre défi (je pense que je peux en trouver pas mal des comme ça) : a partir de photos du personnage réel, reconnaître une caricature.

Page 6 sur 7 PremièrePremière 6 DernièreDernière

Discussions similaires

  1. L'intelligence artificielle avancée, un danger ?
    Par invite0753a43a dans le forum Discussions scientifiques
    Réponses: 142
    Dernier message: 12/11/2010, 10h38
  2. L'intelligence artificielle et la vie
    Par inviteb271042d dans le forum Discussions scientifiques
    Réponses: 44
    Dernier message: 05/11/2005, 16h12
  3. L'intelligence artificielle est diabolique !
    Par invite48c8c396 dans le forum Science ludique : la science en s'amusant
    Réponses: 23
    Dernier message: 01/08/2005, 20h54