Discussion fermée
Page 3 sur 7 PremièrePremière 3 DernièreDernière
Affichage des résultats 61 à 90 sur 200

L'intelligence artificielle, peut-elle se révéler néfaste ?



  1. #61
    Psykokarl

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?


    ------

    Citation Envoyé par pi-r2
    Pour l'intelligence, efficacité s'entendait efficacité pour le traitement des calculs (au sens large incluant les algorithmes).
    Humm precise s'il te plait ...
    C'est les algorithmes constituant l'IA qui doivent etre efficace ? (Dans ce cas je suis d'accord) ou c'est l'IA elle meme qui est efficace pour le traitement des calculs (J'ai un oeu plus de reserve sur ce point la...). Ce qui fait la puissance de l'intelligence humaine n'est le traitement de calcul. D'ou l'interet de verifier la non-nullité des facteurs et d'autre trappes du meme genre...

    Citation Envoyé par pi-r2
    J'ai déjà crée le langage de base qui est une version simplifiée du LISP. un langage informatique qui contient une et une seule instruction et qui pourtant peut faire tout ce qu'un autre langage peut faire. C'est un langage théorique, parfaitement inefficace pour des applications pratiques mais qui permet de décortiquer la complexité en étapes simples, toujours les mêmes (une seule instruction).
    Dans le genre language de programmation minimaliste qui peu tout faire il y a le Brainfuck (langage qui porte tres tres bien son nom).
    L'interet du Lisp en IA c'est que le programme lui meme peu etre vue comme une base de donnée. On peut donc utiliser des brins de codes comme parametre dans un algorithme genetique par exemple.

    Citation Envoyé par pi-r2
    Apprendre la programmation actuelle ne sert à rien car maintenant programmer c'est prendre des boites pré existantes et les relier entre elles (programmation objet). Or les boites sont déjà limitées.
    Un langage objet est tres utile et elegant. Mais il y a une difference entre maitriser un langage objet et comprendre le concept de la programmation objet. L'utilisation d'un langage objet peu etre judicieuse selon l'approche que l'on a de l'IA. Bien sur tout ce que l'on retient de la programmation objet c'est malheureusement son coté "rentable" qui n'est pas toujours justifié d'ailleurs.

    pi-r2 je crois comprendre ou tu veux en venir...
    Si on se sert d'un ordinateur pour modeliser des modeles pour ne pourrait on pas un jour modeliser un cervau humain ?
    Parmi toute les series de 0 et de 1 que l'on peut mettre en memoire dans une machine il y en a bien un qui constitue le meilleur modele (compte tenu des moyens disponibles) ?

    Il est vrai que si un cerveau humain est assez bien modelisé pour une IA ne deviendrait elle pas mauvaise... Le probleme est qu'il y a beaucoup trop de parametre a prendre en compte. Il faut se poser la question d'une intelligence humaine sans corps, d'un cerveau sans messages hormonaux , une vision des choses quand on est virtuellement immortel, de l'influence de l'age du capitaine et j'en passe... Il y a le probleme des optima locaux : privilégier l'intelligence qui progresse le plus vite ne veut pas forcement dire privilegé celle qui montera le plus haut.

    Si je devais te conseiller une piste c'est de lire des articles qui concernent le fonctionnement de neurones humains puis d'en simuler de plus simple sur ta machine. Tu leurs donnes des problemes extrement simple à regler et tu regardes l'organisation de ceux qui ont le mieux resolu le probleme. Enfin tu essaies de trouver une regle et des explications à ces regles. Ah oui renseigne toi sur ce qui à deja été fait en matiere de reseau neronaux ca te fera gagner du temps . Par exemple les cartes de Kohonen sont auto-organisatrice et sont inspirée de structure analogue dans le cerveau humain.

    Citation Envoyé par azman
    Si cette IA est intelligente, elle peut avoir des intérets divergeant de ceux des humains et donc leur nuire...
    Si une IA est intelligente elle aura forcement des interets divergeant des humains. D'ailleurs il serait possible qu'elle neutralise les bases lances missiles au grand dam des militaires, bride le fonctionnement des usines trop polluante au grand dam des industriels tout egoistement pour sauver les gentils reparateurs qui prennent soin d'elle .

    -----

  2. Publicité
  3. #62
    curieuxdenature

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par pi-r2
    Je suis d'accord avec cela. J'irais même en dessous de l'assembleur qui désigne déjà un langage en texte, proche du langage de la machine, pour aller au langage de la machine (mais je pense que c'est ce dont tu voulais parler).
    Je rajoute 2 bémols:
    1/ l'assembleur a évolué avec le temps, en incluant progressivement des fonctions avancées (voire très avancées) directement écrites en hardware dans les processeurs dans un processus d'apprentissage guidé par les humains développeurs
    2/ le language machine suppose une structure de processeur sous-jacente. Il se peut que l'on décide de changer la structure des processeurs, ce qui modifie le langage de la machine.

    L'alphabet de l'assembleur peut encore être réduit (ce qui est le contraire de la tendance mentionnée en 1/ de compliquer les processeurs), à un ensemble plus compact, avec moins d'instructions. L'intérêt est de pouvoir ensuite générer tous les codes possibles pour pouvoir les tester. Seulement comme le nombre de codes à tester est très grand, il faut des critères pour éliminer les codes qui peuvent l'être à coup sûr.
    Je regarderai dans le cadre de mon langage la liste des éléments de l'assembleur qui suffisent pour programmer (le pointeur, 1 registre ou plus, les instructions d'écriture/lecture indirectes en mémoire, et une gestion de la mémoire).
    Bonsoir,

    je pense que tu cherches à réinventer la roue. Je connais plusieurs langages informatiques dont le langage machine, qui est particulierement proche du processeur utilisé, et il est clair que les langages évolués ne sont que des sous-routines qui ne font qu'accomplir rapidement ce que l'utilisateur écrit péniblement.

    Je ne sais pas si c'est un gag, mais tu n'as pas démenti, pour moi, un langage ne contenant qu'une seule instruction en est un.
    C'est quoi l'instruction unique ?
    NOP ? (No Opération)
    ou bien TER ? (Tourne En Rond, ça vient de sortir.)
    Je plaisante, mais j'ai assisté aux balbutiements de l'informatique et ça m'étonnerais fort qu'un langage inventé par un amateur nous fasse sortir de la bétise de la machinerie actuelle, pourtant nettement plus performante que le Z80 ou le 6502 à 1 MHz.
    (le terme amateur n'est pas péjoratif, c'est pour l'opposer à "équipe de programmeurs")

    Je trouve que ta description de l'architecture d'un processeur est nettement insuffisante pour qu'elle soit efficace (annoncer 1 registre me fais sourire.). Tu finiras par opter pour les solutions actuelles, ce n'est pas pour le plaisir que la recherche fait progresser les processeurs en même temps que les périphériques associés.

    Quel peut-être l'intêret de diminuer le nombre d'instructions pour ensuite générer celles qui manquent et éliminer les mauvaises ?
    C'est gourmand en temps et en mémoire cette affaire là. Autant en écrire tout de suite un maximum quitte à ne pas utiliser celles qui ne servent pas ou rarement.
    Le hic, c'est que jusqu'à présent le nombre d'instructions en LM augmente car il en manque toujours une pour faire la monnaie.
    Je ne saisie pas trop bien la démarche.

    Menfin, bon courage.

  4. #63
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Faith
    Intelligente ne veut pas dire morale...
    Préférer arbitrairement la coopération à l'élimination est une question morale sans rapport avec l'intelligence.
    Pourquoi arbitrairement ? L'humain intelligent vit en société par choix parce qu'il a compris que la coopération était plus profitable que l'élimination. Pour moi la morale a des base rationnelles, démontrables. Mais c'est un autre débat.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  5. #64
    paulb

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Bon, je voulais m'éclipser, content de l'intensité de cette discussion, vers la biologie ou j'ai initié le fil "Gènes artificiels". Si ça vous intéresse...
    Un dernier petit point sur l'IA:
    L'une des caractéristiques majeures de l'intelligence humaine est l'association d'idées. Ce phénomène comporte un facteur aléatoire, donc un hasard. Ce hasard doit être inclus dans tout programme d'IA si la simulation se veut aussi fidèle que possible.
    Le facteur aléatoire devrait être, pour bien faire, être complétée par une discrimination des bonnes et moins bonnes associations, ce qui chez l'homme se fait par le moyen de son intelligence innée, en partant de sa "base de données", autrement dit de sa mémoire et de son expérience, ou encore de la "sédimentation" de son passé. Ce dernier élément (le vécu) manque par définition à la machine, puisqu'elle n'a pas vécu.
    On devrait donc charger la mémoire de la machine de tout le vécu d'un homme, de préférence intelligent, ce qui est impossible en pratique, vue l'immense quantité d'information que cela implique. Pensez un peu: Newton réfléchissait au mouvement des planètes et a associé cette réflexion à l'observation ou au souvenir d'une pomme qui tombait. Il était, de par son génie et de par sa formation, capable de discriminer l'importance de cette association, d'où la découverte de la force de gravité.
    La quantité fatalement limitée d'information qu'il est possible de fournir à une machine appauvrit considérablement le nombre idées qu'elle peut associer, aussi bien que sa capacité de discrimination. Ceci constitue l'une des raisons de l'affirmation qu'on peut simuler l'intelligence, mais pas la reproduire.
    Voilà, discutez bien!
    Amicalement paulb.

  6. #65
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Psykokarl
    Humm precise s'il te plait ...
    C'est les algorithmes constituant l'IA qui doivent etre efficace ? (Dans ce cas je suis d'accord) ou c'est l'IA elle meme qui est efficace pour le traitement des calculs (J'ai un oeu plus de reserve sur ce point la...). Ce qui fait la puissance de l'intelligence humaine n'est le traitement de calcul. D'ou l'interet de verifier la non-nullité des facteurs et d'autre trappes du meme genre...
    .
    Non je parle bien d'efficacité calculatoire, c'est à dire de capacité à sélectionner dans un arbre de possiblité exponentiel seulement les quelques voies les plus profitables. Je ne parle pas bien sur de calcul au sens de faire des multiplications à pleins de chiffres, là ma machine me bats déjà.


    Citation Envoyé par Psykokarl
    Dans le genre language de programmation minimaliste qui peu tout faire il y a le Brainfuck (langage qui porte tres tres bien son nom)..
    connais pas. Référence ?
    Citation Envoyé par Psykokarl
    L'interet du Lisp en IA c'est que le programme lui meme peu etre vue comme une base de donnée. On peut donc utiliser des brins de codes comme parametre dans un algorithme genetique par exemple.)..
    C'est bien aussi l'intérêt d'un langage plus simple. mais le Liste Infinies de Stupides Parenthèses est trop compliqué pour ma petite tête. (la lecture d'une séquence LISP m'apprends à peu près autant sur ce qu'elle fait qu'un chinois qui me l'expliquerait dans sa langue natale)

    Citation Envoyé par Psykokarl
    Un langage objet est tres utile et elegant. Mais il y a une difference entre maitriser un langage objet et comprendre le concept de la programmation objet. L'utilisation d'un langage objet peu etre judicieuse selon l'approche que l'on a de l'IA. Bien sur tout ce que l'on retient de la programmation objet c'est malheureusement son coté "rentable" qui n'est pas toujours justifié d'ailleurs.)
    tout à fait, c'est pour cela que je creuse plus profond dans la machine.

    Citation Envoyé par Psykokarl
    pi-r2 je crois comprendre ou tu veux en venir...
    Si on se sert d'un ordinateur pour modeliser des modeles pour ne pourrait on pas un jour modeliser un cervau humain ?
    Parmi toute les series de 0 et de 1 que l'on peut mettre en memoire dans une machine il y en a bien un qui constitue le meilleur modele (compte tenu des moyens disponibles) ?.)
    pas tout à fait. En fait je pense que l'on peut comprendre l'intelligence sans comprendre ou simuler directement le cerveau. mais en reconstruisant pas à pas la complexité par analogie avec ce que la nature a fait.
    Citation Envoyé par Psykokarl
    Il faut se poser la question d'une intelligence humaine sans corps
    Il y a hélas des humains dans ce cas là, ils sont toujours intelligents. Tant qu'il y a interaction avec l'extérieur (input + output que l'input peut lire), il y a possibilité de développement chez l'homme.
    Citation Envoyé par Psykokarl
    d'un cerveau sans messages hormonaux
    les messages hormonaux peuvent être simulés par des changements de variables globales.
    Citation Envoyé par Psykokarl
    Il y a le probleme des optima locaux : privilégier l'intelligence qui progresse le plus vite ne veut pas forcement dire privilegé celle qui montera le plus haut.
    La nature est confrontée au même problème. Il suffit de ne pas éliminer les solutions viables mais peu performantes et de leur accorder moins d'espace vital (maintenir la bio diversité)
    Citation Envoyé par Psykokarl
    Si je devais te conseiller une piste c'est de lire des articles qui concernent le fonctionnement de neurones humains puis d'en simuler de plus simple sur ta machine. Tu leurs donnes des problemes extrement simple à regler et tu regardes l'organisation de ceux qui ont le mieux resolu le probleme. Enfin tu essaies de trouver une regle et des explications à ces regles. Ah oui renseigne toi sur ce qui à deja été fait en matiere de reseau neronaux ca te fera gagner du temps . Par exemple les cartes de Kohonen sont auto-organisatrice et sont inspirée de structure analogue dans le cerveau humain..
    Merci du conseil, mais il y a déjà assez de gens brillants qui travaillent dans cette voie pour qu'ils réussissent si ça marche. Je ne cherches pas à construire un programme que je ne comprendrais pas et qui me donnerait autant de difficulté à comprendre que le cerveau humain.

    Citation Envoyé par Psykokarl
    Si une IA est intelligente elle aura forcement des interets divergeant des humains. D'ailleurs il serait possible qu'elle neutralise les bases lances missiles au grand dam des militaires, bride le fonctionnement des usines trop polluante au grand dam des industriels tout egoistement pour sauver les gentils reparateurs qui prennent soin d'elle .
    tout à fait d'accord avec toi, la vraie intelligence n'est pas totalement contrôlable.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  7. #66
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par curieuxdenature
    je pense que tu cherches à réinventer la roue..
    Je trouve en effet que la roue actuelle n'est pas assez ronde. Il faut trop pousser le programme pour qu'il tourne.
    Citation Envoyé par curieuxdenature
    Je connais plusieurs langages informatiques dont le langage machine, qui est particulierement proche du processeur utilisé, et il est clair que les langages évolués ne sont que des sous-routines qui ne font qu'accomplir rapidement ce que l'utilisateur écrit péniblement...
    Moi aussi, et le langage machine est trop compliqué pour moi pauvre humain.
    Citation Envoyé par curieuxdenature
    Je ne sais pas si c'est un gag, mais tu n'as pas démenti, pour moi, un langage ne contenant qu'une seule instruction en est un.
    C'est quoi l'instruction unique ?
    NOP ? (No Opération)
    ou bien TER ? (Tourne En Rond, ça vient de sortir.)
    ...
    Non ce n'est pas un gag. L'instruction unique est la copie indirecte en mémoire Mem(mem(x))=Mem(mem(y))
    A l'intérieur d'une machine l'instruction hardware unique c'est un transistor, soit au choix des interrupteurs commandés. En logique cela donne: Si Entrée = 1 et Commande = 0 alors 1 sinon 0
    Cela suffit à construire un ordinateur théorique.

    Citation Envoyé par curieuxdenature
    Je plaisante, mais j'ai assisté aux balbutiements de l'informatique et ça m'étonnerais fort qu'un langage inventé par un amateur nous fasse sortir de la bétise de la machinerie actuelle, pourtant nettement plus performante que le Z80 ou le 6502 à 1 MHz.
    (le terme amateur n'est pas péjoratif, c'est pour l'opposer à "équipe de programmeurs")
    L'objectif n'est pas informatique. l'informatique me sert de support pour décortiquer l'intelligence. La machine (du moins avant d'être intelligente) n'interprétera pas mes théories.
    Citation Envoyé par curieuxdenature
    Je trouve que ta description de l'architecture d'un processeur est nettement insuffisante pour qu'elle soit efficace (annoncer 1 registre me fais sourire.). Tu finiras par opter pour les solutions actuelles, ce n'est pas pour le plaisir que la recherche fait progresser les processeurs en même temps que les périphériques associés.
    Je suis dans le concept théorique, sans aucune vue d'application pratique. Mon langage est par exemple sans doute le moins performant qui soit

    Citation Envoyé par curieuxdenature
    Quel peut-être l'intêret de diminuer le nombre d'instructions pour ensuite générer celles qui manquent et éliminer les mauvaises ?
    C'est gourmand en temps et en mémoire cette affaire là. Autant en écrire tout de suite un maximum quitte à ne pas utiliser celles qui ne servent pas ou rarement.
    .
    Mieux comprendre la structure sous jacente. Par exemple quelle est la structure minimale pour pouvoir compter, quelle est la nature exacte d'une fonction récursive. Définir précisément les objets découverts. Mon langage ne connait pas au départ le concept de nombre (même entiers). Les adresses mémoires internes lui sont inaccessibles.

    Citation Envoyé par curieuxdenature
    Je ne saisie pas trop bien la démarche.

    Menfin, bon courage.
    Merci
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  8. Publicité
  9. #67
    pi-r2

    Wink Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par paulb
    Un dernier petit point sur l'IA:
    L'une des caractéristiques majeures de l'intelligence humaine est l'association d'idées. Ce phénomène comporte un facteur aléatoire, donc un hasard. Ce hasard doit être inclus dans tout programme d'IA si la simulation se veut aussi fidèle que possible.
    je suis tout à fait d'accord avec toi. Le seul point que je ne sais pas si ce hasard aura besoin vraiment d'être généré, ou si il se produira naturellement par interaction avec l'extérieur, effet du temps, ou limite de calculabilité.
    Citation Envoyé par paulb
    Le facteur aléatoire devrait être, pour bien faire, être complétée par une discrimination des bonnes et moins bonnes associations, ce qui chez l'homme se fait par le moyen de son intelligence innée, en partant de sa "base de données", autrement dit de sa mémoire et de son expérience, ou encore de la "sédimentation" de son passé. Ce dernier élément (le vécu) manque par définition à la machine, puisqu'elle n'a pas vécu.
    exact. Pour moi une IA aura besoin comme l'intelligence humaine d'une période d'apprentissage et d'accumulation d'expérience. Comme l'homme elle murira et s'assagira avec le temps.
    Citation Envoyé par paulb
    On devrait donc charger la mémoire de la machine de tout le vécu d'un homme, de préférence intelligent, ce qui est impossible en pratique, vue l'immense quantité d'information que cela implique.
    Hélas, vu les possibilités que cela nous donnerait.

    Citation Envoyé par paulb
    La quantité fatalement limitée d'information qu'il est possible de fournir à une machine appauvrit considérablement le nombre idées qu'elle peut associer, aussi bien que sa capacité de discrimination. Ceci constitue l'une des raisons de l'affirmation qu'on peut simuler l'intelligence, mais pas la reproduire.
    Sauf si on reproduit le programme qui nous permet de devenir intelligents avec le temps.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  10. #68
    Psykokarl

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par pi-r2
    Non je parle bien d'efficacité calculatoire, c'est à dire de capacité à sélectionner dans un arbre de possiblité exponentiel seulement les quelques voies les plus profitables. Je ne parle pas bien sur de calcul au sens de faire des multiplications à pleins de chiffres, là ma machine me bats déjà.
    Je ne vois qu'un systeme expert pour faire ça. Tu n'auras jamais rien d'independant et donc suceptible de nuire avec un systeme expert.

    Citation Envoyé par pi-r2
    connais pas. Référence ?
    http://fr.wikipedia.org/wiki/Brainfuck
    A utiliser avec une infusion à base d'écorce de saule a porté de main

    Citation Envoyé par pi-r2
    C'est bien aussi l'intérêt d'un langage plus simple. mais le Liste Infinies de Stupides Parenthèses est trop compliqué pour ma petite tête. (la lecture d'une séquence LISP m'apprends à peu près autant sur ce qu'elle fait qu'un chinois qui me l'expliquerait dans sa langue natale)
    Ca vaut vraiment la peine de s'y interesser ! Moi meme j'etais un inconditionnel du C et il reste mon langage preferé. Mais le Lisp c'est une autre maniere d'ecrire la meme chose, une autre approche du meme probleme. C'est tres dommage parce qu'il est simple a comprendre et il aide a structurer son code C. C'est un plus quand on doit se relire pour faire des modifs...

    Citation Envoyé par pi-r2
    tout à fait, c'est pour cela que je creuse plus profond dans la machine.
    Je pressents que tu vas finir par nous faire des compilateurs bétons ...

    Citation Envoyé par pi-r2
    les messages hormonaux peuvent être simulés par des changements de variables globales.
    Si tu savais à quel point c'est plus compliqué ...

    Citation Envoyé par pi-r2
    La nature est confrontée au même problème. Il suffit de ne pas éliminer les solutions viables mais peu performantes et de leur accorder moins d'espace vital (maintenir la bio diversité)
    Pas mal du tout. C'est l'une des manieres d'eviter les optima locaux mais l'espace memoire etant limité cela reviens à terme éliminer les solutions peu performantes.

    Citation Envoyé par pi-r2
    Merci du conseil, mais il y a déjà assez de gens brillants qui travaillent dans cette voie pour qu'ils réussissent si ça marche. Je ne cherches pas à construire un programme que je ne comprendrais pas et qui me donnerait autant de difficulté à comprendre que le cerveau humain.
    Le neurone artificiel est un version tres simplifié du neurone naturel.
    Pour schematiser:
    fneurone (stimulis) * recompense = reponse

    Pour la fonction on prend généralement une signoide de la sommes des stimulis mais on peut quelconque le type de reponses souhaité.

    tout à fait d'accord avec toi, la vraie intelligence n'est pas totalement contrôlable.
    Trouve un moyen pour que l'Homme n'intervienne pas directement sur le facteur recompense/punition et c'est gagner t'as un debut d'IA independante. Mais j'insite sur le fait qu'il faille la trouver (on cherche encore).

    ps : désolé si je m'eloigne un peu beaucoup du sujet la ...

  11. #69
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Psykokarl
    http://fr.wikipedia.org/wiki/Brainfuck
    A utiliser avec une infusion à base d'écorce de saule a porté de main
    Génial. J'avais cherché au départ en partant sur la voie machine de Turing. Certes le langage est illisible pour un humain normalement constitué, mais il faut comprendre qu'il est capable de tout faire ce que l'on fait avec un autre langage, comme émuler un réseau de neurones.
    Je pars dans une direction diffréente avec un langage proche du langaga humain mais tout aussi simple. La différence c'est qu'il est dès le départ conçu par couches susccessives: il n'y a qu'au début de son existence qu'il est un peu 'pénible' . Après on en fait ce qu'on veut, l'interpréteur étant modifiable pendant l'éxécution du 'programme' , qui peut avoir lieu sous forme de 'dialogue'.

    Citation Envoyé par Psykokarl
    Ca vaut vraiment la peine de s'y interesser ! Moi meme j'etais un inconditionnel du C et il reste mon langage preferé. Mais le Lisp c'est une autre maniere d'ecrire la meme chose, une autre approche du meme probleme. C'est tres dommage parce qu'il est simple a comprendre et il aide a structurer son code C. C'est un plus quand on doit se relire pour faire des modifs...
    Attention, je trouve le LISP génial. C'est juste que c'est langage assez peu humain encore. C'est d'ailleurs grâce à un code source d'interpréteur LISP écrit en C que j'ai simplifié progressivement que j'ai pu comprendre comment réaliser mon langage.

    Citation Envoyé par Psykokarl
    Je pressents que tu vas finir par nous faire des compilateurs bétons ...
    Ce n'est pas mon intention. Je ne me place pas dans une démarche informatique, mais dans une démarche de recherche sur la construction d ela complexité. Ce que j'entrevois serait plutot la suppression de la compilation et son remplacement par une optimisation progressive d'un programme partant de l'interprété (ce que fait un debug pas à pas) au fur et à mesure de la 'vie' du programme.
    Citation Envoyé par Psykokarl
    Si tu savais à quel point c'est plus compliqué ...
    Dans le détail , oui (j'ai fait assez de bio), mais pas quand on regarde l'effet global que ça a. Tous les phénomènes précis qui se passent dans le cerveau sont simulables. C'est l'effet global de leur interaction que l'on a encore du mal à simuler (pour les fonctions les plus compliquées).
    Citation Envoyé par Psykokarl
    Pas mal du tout. C'est l'une des manieres d'eviter les optima locaux mais l'espace memoire etant limité cela reviens à terme éliminer les solutions peu performantes.
    Si on prend le stockage disque, voire internet , la limite est plus dans les temps d'accès résultants. mais il y a une équivalence mémoire - temps qui représente l'intérêt de stocker une données plutot que de la recalculer. La nature est beaucoup plus aléatoire et s'est même sans doute retrouvée plusieurs fois face à la perte de des solutions optimales par manque de chance (le premier génie de l'humaité bouffé par un prédateur, c'est pas d ebol quand même )

    Citation Envoyé par Psykokarl
    Trouve un moyen pour que l'Homme n'intervienne pas directement sur le facteur recompense/punition et c'est gagner t'as un debut d'IA independante. Mais j'insite sur le fait qu'il faille la trouver (on cherche encore).
    c'est pour cela que je cherche à simplifier le plus possible pour intervenir le moins possible. Déjà la notion de récompense punition est exogène, mais existe clairement dans la nature sous la forme des impératifs naturels (boire, manger, se reproduire). Je pense que cela doit être résumé aux interactions extérieures: ce qui génère une action de l'extérieur sur les interfaces est 'bon'.
    Citation Envoyé par Psykokarl
    ps : désolé si je m'eloigne un peu beaucoup du sujet la ...
    Moi aussi, mais la discussion est scientifique et intéressante. Elle a donc sa place ici. Maintenant, libre à nos chers modérateurs de la déplacer / renommer...
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  12. #70
    paulb

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par pi-r2
    Sauf si on reproduit le programme qui nous permet de devenir intelligents avec le temps.
    Ce programme s'appelle le génome. On le connaît maintenant et on apprend petit à petit la façon dont chacun de ses éléments fonctionne. Il est probable qu'on connaîtra un jour tout sur son fonctionnement. On pourra probablement en déduire un programme informatique qui aura la même fonction: construire progressivement un ensemble matériel chimique et énergétique structuré, assurer le fonctionnement harmonieux de cet ensemble, lui fournir tous les capteurs qui lui fournissent une perception du monde extérieur, lui assurer une mobilité nécessaire à l'exploration de son environnement, lui permettre de se procurer l'énergie nécessaire à son fonctionnement, assurer la possibilité de sa reproduction et ménager la possibilité d'erreurs dans la transmission de ses instructions de façon à permettre sa propre amélioration par sélection des ensembles les plus performants (j'en oublie probablement). "Vaste programme" dirait encore une fois le Général, d'autant qu'il aboutirait à construire une imitation d'homme tout venant, pas obligatoirement intelligent et même si oui, qui ne pourra rendre service qu'après un long apprentissage.
    Je me demande si le jeu vaudra la chandelle, puisqu'il suffit que le concepteur (fatalement génial) de ce programme couche avec une microbiologiste douée pour obtenir, en plus du plaisir et avec un effort supportable de la part de la microbiologiste, un meilleur résultat!
    Je plaisante à peine!
    Amicalement paulb.

  13. #71
    Bételgeuse

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Bonjour à tous,
    Après avoir lu un peu tous vos messages, il me semble qu'il s'en dégage une idée principale : à plus ou moins long terme, on parviendra à donner à une machine des capacités proches de celles de l'esprit humain (mémoire, apprentissage, adaptation...).
    Jusque là, rien d'inquiétant.
    Ce qui peut rendre l'IA néfaste, ce serait donc sa capacité à prendre des décisions suivant les critères qu'elle connaît, qui ne seront pas exhaustifs, d'où le danger.

    Par exemple, imaginez qu'une machine contrôle un barrage : après de fortes inondations, elle a le choix entre ouvrir les vannes pour optimiser le fonctionnement du barrage ou fermer les vannes pour éviter qu'un village soit noyé en contrebas. Elle choisira logiquement la solution la plus "rentable" de son point de vue, en temps, énergie, ressources diverses (ouvrir les vannes), alors qu'un homme choisira de ne pas noyer le village et de sauver des vies en fermant les vannes (j'espère ! ).
    ... d'où l'importance des critères de décision, à mon sens.

    (C'est peut-être complètement idiot, ce que je dis, je n'y connais pas grand-chose à l'IA).

  14. #72
    paulb

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Bételgeuse
    Par exemple, imaginez qu'une machine contrôle un barrage : après de fortes inondations, elle a le choix entre ouvrir les vannes pour optimiser le fonctionnement du barrage ou fermer les vannes pour éviter qu'un village soit noyé en contrebas. Elle choisira logiquement la solution la plus "rentable" de son point de vue, en temps, énergie, ressources diverses (ouvrir les vannes), alors qu'un homme choisira de ne pas noyer le village et de sauver des vies en fermant les vannes (j'espère ! ).
    ... d'où l'importance des critères de décision, à mon sens.

    (C'est peut-être complètement idiot, ce que je dis, je n'y connais pas grand-chose à l'IA).
    Bonjour, non, ce n'est pas idiot, mais ça ne relève pas de l'IA, mais de la simple programmation algorithmique. Celui qui est idiot dans ton exemple c'est celui qui a programmé ta machine. Il a simplement oublié l'instruction (parmi beaucoup d'autres, probablement):
    Si le niveau est plus élevé que telle valeur, ouvrez les vannes.
    P. ex (en Pascal): If niveau>niveaumax then ouvrevannes;
    Où niveau est une variable mesurée par un capteur;
    Niveaumax est une constante définie par le programmeur;
    Ouvrevannes est un sous-programme qui ouvre les vannes.
    C'est aussi simple que ça, si l'on veut une seule valeur d'ouverture pour une vitesse d'augmentation quelconque du niveau. Si l'on veut de la "souplesse", c'est un peu plus compliqué, mais ne nécessite (sauf exigences particulières) toujours qu'un vulgaire programme de régulation.
    Par contre ton message signifie que, comme beaucoup d'intervenants, tu as une idée fausse du domaine de l'IA. Ce n'est qu'en la pratiquant que peu à peu on découvre ses possibilités, ses difficultés et ses limites.
    Amicalement paulb.

  15. Publicité
  16. #73
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par paulb
    Ce programme s'appelle le génome. On le connaît maintenant et on apprend petit à petit la façon dont chacun de ses éléments fonctionne. Il est probable qu'on connaîtra un jour tout sur son fonctionnement. On pourra probablement en déduire un programme informatique qui aura la même fonction: construire progressivement un ensemble matériel chimique et énergétique structuré, assurer le fonctionnement harmonieux de cet ensemble, lui fournir tous les capteurs qui lui fournissent une perception du monde extérieur, lui assurer une mobilité nécessaire à l'exploration de son environnement, lui permettre de se procurer l'énergie nécessaire à son fonctionnement, assurer la possibilité de sa reproduction et ménager la possibilité d'erreurs dans la transmission de ses instructions de façon à permettre sa propre amélioration par sélection des ensembles les plus performants (j'en oublie probablement). "Vaste programme" dirait encore une fois le Général
    Ceci représente UNE solution pour aboutir au résultat. C'est faire une grande confiance à la sélection naturelle de penser qu'elle a abouti à l'optimum en terme d'intelligence et qu'il n'est pas possible de faire mieux. Il est fort probable (mais pas encore démontré) qu'on puisse faire bien plus simple que le génôme puisqu'on n'a pas besoin d'une intelligence aux cheveux bruns, aux yeux bleus.... Enormément de données codées dans le génôme ne servent pas à l'intelligence. Le génôme humain représente environ 800 Mo de données. La partie qui code pour tout ce qui est nécessaire à l'intelligence en est sans doute une faible part. Du moins l'algorithme qui nous intéresse ici.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  17. #74
    paulb

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par pi-r2
    Ceci représente UNE solution pour aboutir au résultat. C'est faire une grande confiance à la sélection naturelle de penser qu'elle a abouti à l'optimum en terme d'intelligence et qu'il n'est pas possible de faire mieux.
    Tu dis ça comme si moi, je le pensais. Pas du tout! L'évolution par la sélection naturelle est une loi que personne ne peut empêcher d'agir. De là à espérer que l'homme pourra faire mieux, il faut un bel optimisme, à moins de la remplacer par un eugénisme impitoyable.
    Il est fort probable (mais pas encore démontré) qu'on puisse faire bien plus simple que le génôme puisqu'on n'a pas besoin d'une intelligence aux cheveux bruns, aux yeux bleus.... Énormément de données codées dans le génôme ne servent pas à l'intelligence. Le génôme humain représente environ 800 Mo de données. La partie qui code pour tout ce qui est nécessaire à l'intelligence en est sans doute une faible part. Du moins l'algorithme qui nous intéresse ici.
    Je te demande à l'avance de me pardonner, mais ce paragraphe démontre que tu na pas compris le premier mot de ce que j'essaie de t'expliquer! En paroles pauvres c'est la conviction (mûrement réfléchi) que seul un organisme qui aurait absolument tous les attributs et toute l'histoire d'un homme intelligent pourrait manifester une intelligence équivalente.
    Il faut peut-être un exemple trivial: entre l'intelligence de celui qu'on appelle un "petit con" et un génie, il existe un fossé énorme. Entre la machine la plus intelligente qu'on pourra jamais construire et le "petit con", il existe un fossé bien plus grand.
    Ton erreur est de croire que l'intelligence est une qualité qui peut être isolée du contexte, comme un diamant isolé de sa gangue, alors que c'est justement ce contexte qui la développe, qui nourrit sa réflexion et qui profite des résultats de celle-ci. Une intelligence sans contexte est comme un bateau sans eau pour naviguer!
    Et là, perdant tout espoir, je me retire de cette discussion.
    Amicalement paulb.

  18. #75
    Psykokarl

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par pi-r2
    Ceci représente UNE solution pour aboutir au résultat.
    Certes mais c'est l'une des seule que l'on a. Il faut comprendre que meme si la rentabilité n'est pas un imperatif on a tout intéret à s'inspirer de ce qui marche.
    Il n'est pas impossible de trouver de l'or dans le bac à sable du square municipal du coin mais chercher dans des terrains auriferes aura naturelle tendance à remporter plus d'adhesion...

    Citation Envoyé par pi-r2
    C'est faire une grande confiance à la sélection naturelle de penser qu'elle a abouti à l'optimum en terme d'intelligence et qu'il n'est pas possible de faire mieux.
    Aucun de ceux qui comprenne ce qu'est la selection naturelle ne pense cela. La selection naturelle aurait pu aboutir à mieux ou à moins bien sur la question de l'intelligence.
    Ce qui compte de d'etre mieux adapté à son milieu que son voisin voir être mieux adapté au voisin que le voisin soit adapté à nous. Il faut avoir conscience que notre suprematie est sans arrets remise en question à l'apparition d'un simple virus. L'intelligence est un atout non une force.

    Citation Envoyé par pi-r2
    Il est fort probable (mais pas encore démontré) qu'on puisse faire bien plus simple que le génôme puisqu'on n'a pas besoin d'une intelligence aux cheveux bruns, aux yeux bleus....
    C'est certain (pas besoin de démontré) on peut faire plus simple que le genome. Mais il faut comprendre que l'intelligence d'un individu est lié a son environement et en quelque sorte à son genome.
    Une intelligence brune au yeux bleus n'aura pas besoin de developper une intelligence de la seduction car tout le monde sais que les filles rafollent des bruns aux yeux bleu (CQFD )

    Dans le domaine de l'intelligence il y a ce qui releve de l'inné et ce qui releve de l'acquis. Une IA parfaite allierait une basse de donnée solide a une souplesse qui au besoin peu modifier cette la base de donnée.
    Tout ce qui est "inné" est bien maitriser dans l'IA mais l'acquis pause probleme dès qu'il n'y a pas de restriction dans le champs d'application.

    Tu as l'air dans ta demarche de vouloir reduire l'ensemble des comportements intelligents à des variables statistques classées au fur et à mesure dans un arbre de décision... Ton arbre ne sera pas remis en question par l'IA il n'est qu'une base de donné constament mis a jours.
    Sais tu que d'un certain point de vue l'oublie et la mauvaise assimilation de connaissances peuvent etre vu comme des preuves d'intelligence ?
    Comment comptes tu recreer l'esprit de synthese par exemple ?

  19. #76
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Psykokarl
    Certes mais c'est l'une des seule que l'on a. Il faut comprendre que meme si la rentabilité n'est pas un imperatif on a tout intéret à s'inspirer de ce qui marche.
    Il n'est pas impossible de trouver de l'or dans le bac à sable du square municipal du coin mais chercher dans des terrains auriferes aura naturelle tendance à remporter plus d'adhesion...
    entièrment d'accord, mais s'inspirer ne veut pas dire reproduire à l'identique forcément.
    Citation Envoyé par Psykokarl
    C'est certain (pas besoin de démontré) on peut faire plus simple que le genome. Mais il faut comprendre que l'intelligence d'un individu est lié a son environement et en quelque sorte à son genome.
    Dans le domaine de l'intelligence il y a ce qui releve de l'inné et ce qui releve de l'acquis. Une IA parfaite allierait une basse de donnée solide a une souplesse qui au besoin peu modifier cette la base de donnée.
    Tout ce qui est "inné" est bien maitriser dans l'IA mais l'acquis pause probleme dès qu'il n'y a pas de restriction dans le champs d'application.
    Disons que le mot intelligence a deux sens distincts (et pas de définition claire, sinon cette définition serait programmable), elle est le résultat et le potentiel. Je cherche clairement à reproduire le potentiel, qui devra démontrer sa capacité par évolution dans son environnement.

    Citation Envoyé par Psykokarl
    Tu as l'air dans ta demarche de vouloir reduire l'ensemble des comportements intelligents à des variables statistques classées au fur et à mesure dans un arbre de décision...
    En fait c'est forcément possible de le faire. Pas besoin de le réduire à cela, c'est déjà cela, au même titre qu'un super ordinateur à architecture parallèle est l'équivalent d'une machine de Turing
    Citation Envoyé par Psykokarl
    Ton arbre ne sera pas remis en question par l'IA il n'est qu'une base de donné constament mis a jours.
    Si justement, même l'algorithme de traitement de l'arbre pourra être modifié.
    Citation Envoyé par Psykokarl
    Sais tu que d'un certain point de vue l'oublie et la mauvaise assimilation de connaissances peuvent etre vu comme des preuves d'intelligence ?
    oui tout à fait, c'est même indispensable. C'est d'ailleurs le principe utilisé par la nature pour construire le cerveau: générer pleins de neurones et de connexions entre eux, et en éliminer ensuite la majeure partie.
    Citation Envoyé par Psykokarl
    Comment comptes tu recreer l'esprit de synthese par exemple ?
    Là je n'ai pas la réponse. Mais selon moi aux échelles basses de complexité l'esprit de synthèse découle de la nécessité de compresser les données. On transforme les données brutes en 'calculs' pour récupérer de la mémoire disponible. Ces calculs sont par nature extrapolables. L'esprit de synthèse et la capacité de généralisation seraient donc intimement liées.
    Je n'ai pas encore mis ceci en algorithme. C'est un des algorithmes fondamentaux que je cherche.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  20. #77
    paulb

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Psykokarl
    Sais tu que d'un certain point de vue l'oublie et la mauvaise assimilation de connaissances peuvent etre vu comme des preuves d'intelligence ?
    Comment comptes tu recreer l'esprit de synthese par exemple ?
    Tout à fait d'accord!
    Ce n'est pas tout à fait de l'oubli ni de la"mauvaise assimilation", mais une capacité de schématisation, de synthèse et de mémorisation de l'essentiel, qui est une capacité prodigieuse du cerveau.
    Combien de villes et de villages connaît chacun de nous, au point de ne pas s'y perdre? On n'a naturellement pas appris les plans par cœur et on retrouve quand même infailliblement son chemin. Combien de personnes, d'animaux, de végétaux, d'endroits, de mots etc. etc. reconnaît-on du premier coup? On ne les a pas photographiés pixel par pixel, ça occuperait, avec le reste de nos souvenirs, une monstrueuse bibliothèque! Et tout ça ressort presque instantanément de notre mémoire et, tout naturellement, collabore au fonctionnement de notre intelligence, en permettant des associations d'idées qui sont la base de toute nouvelle trouvaille.
    Cette base de donnée, hyper-compressée est nourrie par le hasard. On ne peut jamais savoir, quelle vision fugace servira un jour, associée avec une autre, à résoudre un problème qu'on se pose.
    On peut apprendre beaucoup de choses aux machines (en particulier la compression des informations) mais je ne crois pas qu'on arrivera à égaler l'homme.
    Amicalement paulb.

  21. #78
    virtual_creature

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Salut!

    Cette base de donnée, hyper-compressée est nourrie par le hasard
    Par le hasard, t'en est sûr? (comprend pas)

    En fait, pour coder cette base de donnée, un réseau de neurones artificiel, ça me parait bien non? l'information est codé au niveau de l'efficacité synaptique. Si le réseau est bien agencé, seul une fraction pertinante de l'information d'origine est stoquée, pas besoin d'une base de donnée gigantesque.
    En ce moment on parle beaucoup des réseaux de neurones impulsionnels, troisième génération de réseau neuronal. Ceux ci sont bien adapté pour un robot mobile. On peut obtenir un comportement plus ou moins efficace(suivant la complexité de la tache) grâce aux algorithmes génétiques, mais le robot n'évolura plus par la suite car son comportement sera inné. Pour permettre d'évoluer durant sa vie, il faut donc des règles d'évolution des paramètres, par ex, l'efficacié synaptique en question. Une règle connue est la règle de Hebb(on en fait tout de sorte de variante). Ces règles peuvent être très simple, un neurone, ou une connexion s'automodifiant en fonction de l'état des éléments de leur voisinage local. Le tout étant de trouver les bonnes règles. Pour ça, s'inspirer de la biologie est souvent bien.

    Le but étant d'arriver à un comportement autonome pour une tache spécifique non résolvable par la programmation classique.

    Dès qu'on a l'autonomie, ne fût ce que celle d'une animal basique, pour moi, on a gagné. L'intelligence humaine, c'est pas trop interessant, non? y'a déjà assez d'humain sur terre pour aller en simuler un, hum.

    Pour en venir au sujet du débat, on voit que les techniques que j'ai cité, algo génétique et auto modification du réseau neuronal, implique que l'on ne programme pas directement le comportement du robot. celui-ci va émerger et dès lors, il faudra de solide test dans différentes situation pour être certain que le robot ne va pas péter un plomb(pèter un bit?). Avec les algo évolutionistes, on peut obtenir tout et n'importe quoi, et je pense qu'on est pas à l'abris de franckensteins technologiques new age.

  22. Publicité
  23. #79
    paulb

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Bonjour virtual_creature,
    Enfin quelqu'un qui sait de quoi il parle.
    Par le hasard, t'en est sûr? (comprend pas)
    Eh… oui! Tout individu vit dans un monde régi par le hasard. L'origine des informations qu'il reçoit est déterminée par le seul hasard, orienté au début par le fait que ses premières informations émanent de sa mère. Ensuite le champ du hasard, ou si tu préfères, de l'imprévisible s'élargit rapidement, les lieux fréquentés, les personnes rencontrées, les scènes observées, les sensations éprouvées, les impacts des informations sur son système nerveux et sur sa mémoire sont toujours aléatoires. Un exemple: chacun conserve de sa petite enfance des images précises (moi, j'étais dans mon berceau, sous une lampe à abat-jour que je peux décrire dans le moindre détail. Cet abat-jour a été remplacé avant la fin de ma première année de vie et mes parents l'ont reconnu d'après ma description!) Le choix de l'information retenue par la mémoire obéit sûrement à certaines règles, mais qui nous échappent.
    Si au cours de l'enfance, la société (y compris les parents) ne s'occupait pas de l'insertion sociale de l'enfant, celui-ci évoluerait en ignorant les règles de bonne conduite et pourrait avoir une évolution aussi bien vers le "bien" que vers le "mal". (La tendance actuelle à l'augmentation de la délinquance est due en grande partie à l'abdication des parents et des enseignants).
    Pourquoi parler de tout ceci? Parce que l'évolution d'une machine qui aurait par construction les mêmes qualités intellectuelles que l'homme (même en "modèle réduit"), aurait aussi besoin de renseignements aléatoires (dans le champ de son action) d'une part et d'une certaine "éducation" d'autre part, pour ne pas enfreindre les règles de sa bonne conduite.
    Autrement dit, il est vain de compter sur le "bon sens" de la machine pour obtenir son bon comportement.
    On se trouve là devant un dilemme: trop d'instructions impératives bloqueraient l'initiative, nécessaire, de la machine et trop peu risqueraient de la conduire à des méfaits.
    Le but étant d'arriver à un comportement autonome pour une tache spécifique non résolvable par la programmation classique.
    Bonne définition. Elle a l'avantage de restreindre le domaine d'action de l'IA. On pourrait peut-être dire "une ou plusieurs tâches bien définies". C'est le cas des robots envoyés sur d'autres planètes, qu'il serait idiot de rendre aussi intelligents que Newton pour ramasser quelques cailloux! Et encore, leur intelligence est sérieusement épaulée par les experts dans leur fauteuil sur Terre, qui l'aident (c'est arrivé) à se désembourber!
    L'IA avance et obtient des résultats de plus en plus significatifs. Il est normal et même souhaitable qu'il donne envie de rêver à ceux qui ignorent les limites qui lui sont imposés par les faits, car certains d'entre eux contribueront peut-être à son développement.
    Amicalement paulb.

  24. #80
    Psykokarl

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par paulb
    Tout à fait d'accord!
    Ce n'est pas tout à fait de l'oubli ni de la"mauvaise assimilation", mais une capacité de schématisation, de synthèse et de mémorisation de l'essentiel, qui est une capacité prodigieuse du cerveau.
    Je faisais allusion phénomenes "d'amnesie" que l'on observe dans des memoires auto-associatives notament les reseaux de hopfield. Le nombre d'exemple que peut retenir un tel reseau est limité par le nombre de neurone selon un rapport qui m'echappe. Si le nombre de modeles à retenir est trop important les premiers seront oublié...

    En fait j'espere avec un systeme de reponses non binaire séléctionner les neurones qui peuvent etre "réalloué" (notament en tenant compte de l'efficacité synaptique qui la relie à ses voisines). Le poids absolu d'un synaps est alors un frein à sa modification. L'apprentrissage d'un nouveau model par un reseau fortement etablit recontrera normalement des resistances et l'apprentissage devra etre reprise plusieurs fois pour eviter que le model soit "mal assimilé".

    Je m'inspire du fait de personnes non aveugle de naissance qui se reconditionnent pour avoir une perception plus auditive de leur environnement (au detriment de la perception visuelle devenue inutile faute de stimulis externes ?).
    Je m'inspire aussi plus simplement l'oubli quotidien de details qui ne meritent pas notre attention. De la facilité des jeunes à aquerir de nouvelle notion par rapport aux anciens etc ...

    Citation Envoyé par virtual_creature
    Le but étant d'arriver à un comportement autonome pour une tache spécifique non résolvable par la programmation classique.
    Je suis egalement d'accord avec ça. Sauf erreur de conception/programmation leur seul moyen d'avoir une IA nefaste est qu'il y ait à la base une volonté de nuire de la part du programmeur.

  25. #81
    virtual_creature

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Posté par paulb
    Autrement dit, il est vain de compter sur le "bon sens" de la machine pour obtenir son bon comportement.
    C'est sûr qu'on ne l'aura pas au départ, ce bon sens... il faudra une sorte d'éducation du robot, du moins il pourrait apprendre tout seul mais l'environnement doit être adéquat à son apprentissage, afin qu'il reçoive les bons stimulis. Je pense que Rodney Brooks(un pionnier de la nouvelle IA) du MIT tente l'affaire en "éduquant" un sorte de robot buste, je ne sais pas où ça en est mais ça date déjà d'une bonne dizaine d'année.

    Personnelement, je pense que l'on peut tout de même avoir un certain degré de contrôle autre que l'éducation, car on peut structurellement déterminer sa façon d'apprendre. en effet, les méchanisme qui nous permettent d'apprendre sont codées génétiquement, de même que les sensations de plaisir où de désagréable relatif à certain stimuli. Une bonne compréhension de ces méchanismes biologiques permetterait d'avoir une machine à peu près mieux prédestinée à être "bonne" durant sa vie.

    Sauf erreur de conception/programmation leur seul moyen d'avoir une IA nefaste est qu'il y ait à la base une volonté de nuire de la part du programmeur.
    Je suis pas vraiment d'accord avec ça, vu la complexité qu'on pourrait engendrer en créant une machine autonome, il n'est pas sûr qu'en face de certain stimuli, la machine ne puisse pas avoir un comportement totalement différent, imprévu, et donc potentiellement dangereux.

  26. #82
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par virtual_creature
    Le but étant d'arriver à un comportement autonome pour une tache spécifique non résolvable par la programmation classique.
    Ce point me gène. Comment un réseau de neurone simulé par une programmation classique pourrait montrer quelquechose de non accessible par la programmation classique ? C'est juste qu'en programmation classique on ne sait pas programmer correctement. Il suffit de simplifier le programme global de simulation de réseau de neurones plus le réseau de neurone simulé pour retrouver la programmation classique.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  27. #83
    paulb

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par virtual_creature
    Personnelement, je pense que l'on peut tout de même avoir un certain degré de contrôle autre que l'éducation, car on peut structurellement déterminer sa façon d'apprendre. en effet, les méchanisme qui nous permettent d'apprendre sont codées génétiquement, de même que les sensations de plaisir où de désagréable relatif à certain stimuli.
    D'accord, mais il n'y a pas que l'apprentissage qui pose problème. Il y a surtout le mécanisme de la décision qui est difficile à mettre en œuvre.
    Partons de l'homme:
    Les tenants du libre arbitre croient en une sorte de machine humane à algorithmes classiques, qui prend ses décisions en froide logique: si a..b..c..etc. ont telle.. telle..telle valeur, je décide ceci...etc. qui peut être parfaitement non seulement simulée, mais remplacée par une machine algorithmique.
    Ceux qui nient le libre arbitre (j'en suis) sont convaincus que des mécanismes plus subtils président aux décisions et donc aux actions humaines et que leur contrôle "souverain" lui échappe. Il est de plus en plus accepté dans les milieux scientifiques que ces décisions sont prises en fonction d'une gratification/mortification interne des neurones, par production variable d'endorphines (enfin c'est bien plus compliqué, mais le principe est là) qui est la traduction des craintes et des espoirs ressentis en fonction des conséquences de la décision. Le fait que d'autres facteurs bloquent ou encouragent aussi la production d'endorphines, rend la prise de décision encore un peu plus aléatoire.
    Si l'on essaie de reproduire ce processus au niveau de la machine, la question se pose comment gratifier/mortifier les composants (neurones) élémentaires, pour les inciter de prendre la décision la plus gratifiante. On retombe dans la nécessité de créer des algorithmes qui déterminent par apprentissage la valeur négative ou positive de chaque élément intervenant dans la décision, celle-ci étant prise en faveur de la solution positive la plus élevée. On arrive ainsi à dire que la machine sera perdue (comme d'ailleurs souvent l'homme) devant l'imprévu et plus généralement que la perfection n'est pas de ce monde.
    Si l'auto-apprentissage se faisait par tâtonnement, donc par élimination de tous les mauvais "cocktails d'éléments de décision" comme le fait l'enfant, alors il faudrait pas mal d'heures de simulateur avant de lâcher la machine dans la nature.
    Amicalement paulb.

  28. #84
    Psykokarl

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par virtual_creature
    Je suis pas vraiment d'accord avec ça, vu la complexité qu'on pourrait engendrer en créant une machine autonome, il n'est pas sûr qu'en face de certain stimuli, la machine ne puisse pas avoir un comportement totalement différent, imprévu, et donc potentiellement dangereux.
    Avec ce cas on reste dans le cas d'une erreur de conception/programmation.
    C'est tout à fait comparable à un programme classique qui plante suite à l'execution d'une tache non prevue par le programmeur (debordement de buffer, division par 0, etc...).
    On ne peut pas encore parler de volonté de nuire.

    Citation Envoyé par pi-r2
    Ce point me gène. Comment un réseau de neurone simulé par une programmation classique pourrait montrer quelquechose de non accessible par la programmation classique ? C'est juste qu'en programmation classique on ne sait pas programmer correctement. Il suffit de simplifier le programme global de simulation de réseau de neurones plus le réseau de neurone simulé pour retrouver la programmation classique.
    Fondamentalement tout ce qui est fait avec un reseau de neurone peut etre fait en programmation classique. D'ailleurs il est souvent preferable de choisir l'equivalent en programmation classique qui est beaucoup plus fiable. C'est plus une question de faisabilité.

    Un des avantages (et non le moindre) des reseaux de neurones est que l'on a pas besoin de concevoir un algorithme pour resoudre le probleme (c'est remplacer le choix pertinent du nombre d'entree, du nombre de sortie, etc...). Si le probleme est complexe la conception en programmation classique sera plus longue.
    Un autre avantage viens du réajustement des variables en cas de problème. Les variables du reseau de neurone se reajustent elles même si le resultat n'est pas satisfaisant pour le programmeur (apprentissage supervisé). Dans un programme classqiue il faut entrer dans le code source, chercher la ou les variables à changer, les modifier par tatonnement, recompiler etc...

  29. Publicité
  30. #85
    paulb

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Bonjour,
    En examinant la dangerosité éventuelle de l'IA, on en est arrivé au principe même de la conception des machines IA.
    A moins que je ne me trompe, le hardware de la totalité des ordinateurs actuellement disponibles est prévu pour fonctionner en mode numérique et pour une programmation basée sur un assembleur adapté à la structure du processeur et de la puce mémoire (c'est un pléonasme, non?).
    Rien ne dit que ce type de fonctionnement est celui du cerveau, qui a bien des composants élémentaires en nombre fini, les neurones, mais qui ne sont probablement pas identiques, mais différentiés en fonction des régions du cerveau et qui ne fonctionnent pas sur le mode tout ou rien des transistors montés en flip-flop. Leur fonctionnement électro-chimique permet les deux modes: le tout ou rien et l'analogique, exactement comme celui des transistors.
    Il est probable (pour moi qui ne suis pas neurologue) que leurs interconnexions, les synapses, soient également spécialisées en fonction de la région du cerveau où ils se trouvent. On peut se demander si les neurones de l'aire de Broca, siège de la parole, sont identiques à ceux du cerveau reptilien.
    On objectera que ces questions ne sont que coupage de cheveux en quatre , mais je pense que si l'on veut coller de son mieux au mode de fonctionnement du cerveau humain, la meilleure façon d'y parvenir est d'abord de bien le connaître.
    Quand le jour arrivera où l'on parviendra à l'imiter à la perfection, il faudra encore trouver le moyen que la machine résultante ne puisse pas imiter les criminels qui, ne l'oublions pas, sont souvent intelligents.
    Amicalement paulb.

  31. #86
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par paulb
    Si l'auto-apprentissage se faisait par tâtonnement, donc par élimination de tous les mauvais "cocktails d'éléments de décision" comme le fait l'enfant, alors il faudrait pas mal d'heures de simulateur avant de lâcher la machine dans la nature.
    Amicalement paulb.
    dans cette phrase tu décris le processus d'IA auquel je m'intéresse, c'est à dire un coeur de programme à 'potentiel intelligent' qui devient intelligent par interaction avec son environnement (incluant ses programmeurs). Le processus peut effectivement prendre du temps, et éventuellement un temps comparable à l'éducation d'un enfant.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  32. #87
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par Psykokarl
    Avec ce cas on reste dans le cas d'une erreur de conception/programmation.
    C'est tout à fait comparable à un programme classique qui plante suite à l'execution d'une tache non prevue par le programmeur (debordement de buffer, division par 0, etc...).
    Pas tout à fait d'accord. La complexité d'un programme peut le rendre non testable au sens de turing et on peut donc sans aucune erreur de programmation, découvrir des comportements imprévus du programme.

    Citation Envoyé par Psykokarl
    Fondamentalement tout ce qui est fait avec un reseau de neurone peut etre fait en programmation classique.
    OK, nous parlons donc bien de la même chose.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  33. #88
    pi-r2

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Paulb, En ce qui concerne ton second post, ce que tu dis est exact et les hypothèses biologiques également. Ceci dit, les mathématiques sont construites à partir du mode discret (des entiers naturels) et cela ne pose pas de problème. Quelle que soit la subtilité d'un mode analogique (permettant le contrôle dans un cadre très aléatoire) on peut le simuler par du binaire d'une précision suffisante. Il est clair que l'équivalence 1 neurone = 1 transistor est fausse.
    Pour comprendre l'intelligence il y essentiellement 2 voies: partir du cerveau et le comprendre (par en haut) ou (par en bas) partir de rien et construire des programmes de plus en plus complexes. C'est lé démarche dans laquelle je me situe.
    Les bonnes idées triomphent toujours... C'est à cela qu'on reconnait qu'elles étaient bonnes !

  34. #89
    anscia

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Citation Envoyé par benjy_star
    Je pense que pour l'intelligence artificielle, le mot "artificielle" est synonyme de peu évoluée. Je m'explique:

    On peut considerer l'intelligence humaine comme la conscience de ce qu'il faut faire et ne pas faire, où il faut aller etc, seulement, une conscience, ça se travaille et ça s'apprend. En fait, on est "programmé" par la société (parents, école lois) de la même façon qu'un ordinateur est programmé, à un niveau simplement bien plus avancé que le machines. Et on complète nous même le programme, chose que les machines font peu, ou mal.

    Je crois que pour conclure je dirais qu'il n'existe pas de machine intelligentes, mais uniquement des machine BIEN PROGRAMMEES, par l'homme...
    Oui on ne peut pas isoler l'homme de son environnement car il évolue avec tout ce qui l'entoure ...

  35. #90
    Kimea

    Re : L'intelligence artificielle, peut-elle se révéler néfaste ?

    Salut tout le monde, pourquoi se poser la question, à savoir si l'IA peut être néfaste, déjà ne faudrait il pas faire une réflexion sur nos penchants néfaste... l'intelligence artificielle est en fait en gestation, entre les mécanismes que nous élaborons et notre esprit...
    Déjà à l'époque de la poésie itallienne, on illustrait la Madona Intelligencia, oui on y pensait déjà, et aujourd'hui nos seules références sont pour la plus part des films de science fiction... bla bla bla... Il n'y a pas d'inventions de l'homme qui n'ait pas de côté nefaste, alors pour l'intelligence artificialle, tant qu'elle est programmée par l'homme, a des chance de posséder les mêmes bizareries que possède l'Homme... et pour reprendre une citation déjà citée... Connais toi toi même... A bientôt

Page 3 sur 7 PremièrePremière 3 DernièreDernière

Discussions similaires

  1. L'intelligence artificielle avancée, un danger ?
    Par Alain28 dans le forum Discussions scientifiques
    Réponses: 142
    Dernier message: 12/11/2010, 11h38
  2. L'intelligence artificielle (IA) fête ses 50 ans
    Par RSSBot dans le forum Commentez les actus, dossiers et définitions
    Réponses: 0
    Dernier message: 07/07/2006, 08h45
  3. L'intelligence artificielle et la vie
    Par transhuman dans le forum Discussions scientifiques
    Réponses: 44
    Dernier message: 05/11/2005, 17h12
  4. L'intelligence artificielle est diabolique !
    Par Pierre-Yves dans le forum Science ludique : la science en s'amusant
    Réponses: 23
    Dernier message: 01/08/2005, 21h54