Bien sûr. On peut même faire des robots tueurs. D'ailleurs, on en fait déjà : les drones (pas très intelligents, pour le moment). Un robot tueur très intelligent serait très efficace pour tuer. Mais, cette constatation n'enlève strictement rien à ce que j'ai affirmé. Ce n'est pas l'intelligence de l'ordinateur en elle-même qui crée un danger, mais c'est ce que les concepteurs de la machine ont voulu faire. C'est le propre de toute technologie. Une technologie peut être utilisée pour le bien ou pour le mal.
Ce qu'il faut comprendre dans mon long message, c'est que l'intelligence n'est ni du coté du bien, ni du coté du mal. L'intelligence est neutre de ce point de vue. Donc, on n'a aucune raison d'avoir peur d'une machine au seul prétexte qu'elle est très intelligente. En revanche, on doit avoir peur d'une machine conçue pour tuer (par exemple), surtout si elle est très intelligente !
Si on doit interdire quelque chose, ce n'est pas la machine intelligente, ce sont les mauvaises applications des machines intelligentes.
Oui, beaucoup d'être vivants sont intelligents. La définition de l'intelligence comme la capacité à résoudre des problèmes me semble bonne. Courte, mais bonne. On peut faire plus long comme définition, mais ce ne sera pas nécessairement plus clair !... la définition "l'intelligence est la capacité à résoudre des problèmes" n'est clairement pas satisfaisante. Si on utilise cette définition, alors quasiment tous les être vivants de cette planète sont intelligents, car, ils résolvent énormément de problèmes, à longueur de journée! (et 100 fois plus que le plus puissant des ordinateurs modernes)
Lorsque je parle de "problème", je pense à des problèmes d'optimisation. Par exemple le problème du voyageur de commerce ou bien essayer de gagner à un jeu de réflexion (échec, dames, go, poker, etc). L'intelligence peut se mesurer comme la capacité à trouver des bonnes solutions a un problème donné. Bien entendu, si je veux comparer l'intelligence d'un joueur d'échec avec celle d'un joueur de go, je ne peux pas. Tout ce que je peux dire c'est que le joueur d'échec est meilleur aux échecs, donc plus intelligent que l'autre sur l'échelle d'intelligence liée aux échecs, et le joueur de go est meilleur au go, donc plus intelligent que l'autre sur l'échelle d'intelligence liée au go. Après, si je trouve un joueur qui est plus fort que mon joueur d'échec et en même temps plus fort que mon joueur de go, je pourrais dire qu'il est plus intelligent que ces deux là sur les deux échelles. Et si je trouve un joueur qui est capable de battre n'importe quel humain à la fois au go, aux échecs, aux dames, à jéopardy, à question pour un champion, aux chiffres et aux lettres, au scrabble, je dirais qu'il est vraiment exceptionnellement intelligent. Pour moi, un ordinateur capable de faire ça est très intelligent.
Oui. C'est vrai. On ne peut pas complètement sortir de cette impasse. Demander à un cheval de jouer au go, c'est ingrat, vu qu'il n'a pas de main pour déplacer les pièces. Et pour une bactérie, c'est encore plus ingrat.Aussi, dans une perspective un peu plus ... éthologiste, j'ai toujours trouvé qu'il était facile de dire que l'Homme est le plus intelligent, alors que l'intelligence puise sa définition de l'Homme lui même (la subjectivité associé à cette définition dépasse tout!).
Au final, dire que l'Homme est plus intelligent que le chien par exemple, c'est dire que le chien est moins "Homme" que l'Homme ... ce qui est un pléonasme. (car la définition de l'intelligence se base précisément sur nous même).
Je vois ici une impasse philosophique.
En sens inverse, si je vois deux extraterrestres jouer à un jeu dont je ne peux pas comprendre les règles, je ne pourrais pas juger de leur intelligence. Je conclurais certainement qu'ils ne sont pas intelligents, ayant la conviction qu'ils jouent au hasard.
Mais, malgré tout, il y a des problèmes qu'on arrive à partager entre l'homme et l'ordinateur. Par exemple, les jeux de réflexion. Ceci permet de comparer l'intelligence de l'homme et de la machine, au moins sur certains tests. Je ne cherche pas à définir une sorte d'intelligence "ultime", un truc abstrait qui serait la seule vraie Intelligence avec un grand I. Pour moi, cela n'a aucun sens (d'ailleurs, je n'ai pas compris ma phrase précédente que j'ai pourtant écrite). Lorsque je parle d'une machine intelligente, je pense simplement à une machine capable de trouver une bonne solution un problème particulier que je suis capable de formuler. Et entre deux acteurs, le plus intelligent sera celui qui trouvera la meilleure solution, selon une règle prédéfinie. Et oui, bien sûr, il y a de l'arbitraire et de anthropocentrisme dans le choix du test. Mais, ce n'est pas grave, je m'en contente et réfléchis sur ces bases là.
Tes conclusions, c'est à toi de les présenter. Une chose est sure, les deux affirmations que j'ai faites et que tu reprends dans ton post #148 ne sont nullement en contradiction avec les travaux sur C. elegans, et ne constituent pas un rejet de ces travaux comme tu l'affirmes.
Moi je veux savoir quelles conclusions me prête cette phrase :
D'autant si on parle du nombre de pièces (dont citations reprises post #148), une machine à écrire c'est à peu près 230~250 pièces, capots (de la bécane et des touches) non compris. Enigma, on doit bien atteindre les 900~1000 pièces. Malgré tout, ces machines (à écrire) sont finalement prévisibles, il "suffit" de mettre les mains dans le cambouis pour l'apprécier. D'autant que les travaux sur C. elegans ont largement infirmé cette image d'Épinal d'automate génétique -- autrement dit une machine prévisible.
Le Vivant, c'est pas mal de chaos, une très grosse tolérance au chaos même puisque certains processus (beaucoup...) incluent l'aléatoire (ex : rencontre du site actif d'une enzyme avec son substrat) et autorise voire se base sur l'émergence (ex : développement embryonnaire). Or les robots sont des constructions au contraire parfaites : chaque pièce a une place et une utilité bien définies. Par ailleurs il y a une rétroaction permanente et indissociable entre l'ensemble procédural et la structure d'un être vivant. Un robot n'a ce type de rétroaction qu'en traitement des données, donc sur un plan procédural uniquement.
Ce qui fait du Vivant un phénomène naturel tellement à part, c'est qu'il s'agit d'un "chaos organisé". Avec des émergences en pagaille. Et le pire, c'est que ça fonctionne ainsi depuis des milliards d'années. Aucune machine ne sait réaliser ça.
L'intelligence ou plutôt la personnalité -- si on parle d'IA capables d'émotion ou de subjectivité -- ce sont justement des phénomènes émergents. J'ai perdu la référence de l'actu FS mais il y a quelques mois (sur la schizophrénie), on a eu encore une fois la preuve que la génétique de la cognition, c'est loin d'être aussi simple qu'implémenter des neurones artificielles et de les entraîner. Alors on peut supposer que "c'est parce que le cerveau humain est très complexe", blablabla. C***ries que ceci, car conséquemment à un tel raisonnement, plus un cerveau est gros et plus il sera censément complexe -- car ayant "plus de pièces/neurones", n'est-ce pas ? Et pourtant de très nombreuses études ont décorrélé taille du cerveau et performances académiques. Contrairement aussi à un réseau de neurones artificiels, plus le cerveau humain apprend/comprend et plus il donnera de réponses pertinentes, alors qu'on a inversement un effet de seuil côté IA avec l'effet de surapprentissage.
S'ajoute aussi une part non négligeable d'anthropomorphisme -- particulièrement quand on cherche à tout coup à plaquer l'humain qui sur son chien, qui sur "Gaïa", qui sur une peluche ou un tamagochi, qui sur androïde... Quoique l'anthropomorphisation du chien a plus de "pertinence", elle reste un biais. Et dieu sait combien les sciences depuis plus d'un siècle nous avertissent à l'encontre de la perception superficielle. D'où une grosse critique quant à hâtivement "conclure" ou raccourcir :
- si ça simule l'humain, c'est que ça pense en humain
- si c'est programmé intelligemment, ça devient intelligent et plus si affinité
- on peut implémenter tout et n'importe quoi
Exactement ce que je disais plus haut : romantisation du vivant "phénoméne naturel tellement à part" et vision mécaniste simpliste de tous les développements en IA et en robotique (voir plus haut la comparaison entre ELIZA et un magnétophone).
On couple avec un peu de mépris :
et à la fin, on a toujours des affirmations sans aucun lien sur le domaine qui n'est clairement pas compris. Le seul lien qu'on a eu portait sur les vers de terre...
Je fais une supposition : l'auteur de ces lignes est un biologiste, n'est pas un programmeur.
Et tout ce discours sans aucune référence scientifique dans le domaine n'est qu'un plaidoyer pro-domo : "mon domaine est intéressant et compliqué, vous autres n'arriverez jamais à vous en approcher". Cela me rappelle le mépris que les "plus léger que l'air" réservaient aux pionniers de l'aviation.
Ce n'est pas une "romantisation" du Vivant que de constater tous les jours que la quasi-espèce du virus de la gastro-entérite laisse émerger en pagaille des mutations, d'où vaccination impossible -- ce qui n'a rien de "romantique" et pose problème ! Mais la méconnaissance peut pousser à croire les biologistes "romantiques"
Quant à la taille du cerveau qui n'est pas significative en performances académiques, y'a tellement d'articles et de dossiers dans des revues comme La Recherche, Pour La Science, etc. Ce n'est pas comme si on venait de soulever une polémique en plus. C'est même connu et reconnu que le cerveau d'Einstein n'avait pas de dimension ni de poids particulièrement remarquable de quelque façon que ce soit vis-à-vis de cerveaux témoins. Mais tout comme les "90% de cerveau inexploité", le mythe de à qui la plus grosse (cervelle) a la peau dure
Concernant le très trrrèèès mauvais exemple de l'aviation, j'ai déjà dit dans une autre discussion :
Ça me fait toujours sourire cet éternel retour sur l'aviation qui ne prouve rien -- à part une référence erronéeParce que des oiseaux, c'est plus lourd que l'air -- donc en 1850, certains se sont trompés de paradigme. À noter que les nuages (de l'eau condensée) sont aussi "plus lourds que l'air", mais ça demandait plus de connaissance aussi par rapport à la démonstration évoquée.
Tout ça pour conclure que la comparaison avec ce truc était très maladroite ou tout simplement non pertinente.
Cliquez pour afficherAh et j'avais la note maximum en SGBDR et pas des notes dégueu en algorithme. Mais les langages, je me vautre.
Ta réponse n'a aucun rapport avec mes remarques. Je n'ai à aucun moment parlé de taille du cerveau.
Par contre, je constate que tu boucles sur la biologie et que tout argument en dehors de ce domaine est ignoré d'un revers de la main avec des "arguments" qui sont plus de l'affirmation de mépris qu'autre chose.
Je repose donc ma question : quelle formation as tu en informatique ?
Ah bah faut peut-être lire mieux que ça, j'en ai donné des références scientifiques ! Et j'ai même pioché dans les fameux liens Wiki présentés comme "références scientifiques", donc c'est un bel exemple de mauvaise foi
Je pose la question : à quoi sert cette question ?
Bah faut peut-être lire toute la discussion pour ne pas perdre le fil.
Ah bon, le surapprentissage des réseaux de neurones artificiels, c'est de la bio ? Entre autres
Le ricanement et les smileys sont l'argument de ceux qui n'en ont aucun. Ton post plus haut confirme ce que je disais : ta formation en informatique est très faible (aucun informaticien ne vient frimer avec sa "note en SGBD").
En effet. C'est un algorithme qui fait le travail à la place de ma main (sur un magnétophone) avec de bêtes mots clefs. Et alors ? Dans le genre, on peut pisser du petit code pour deviner un nombre par dichotomie. ELIZA c'est de la reconnaissance de motif, avec une réponse par défaut ("je comprends") quand rien ne correspond à la base de données. C'est astucieux, mais ce n'est pas un programme qui comprend quoi que ce soit.
"Frimer" c'est beaucoup dire. J'ai des bases, et vouloir minimiser ce que je dis sur la base d'une attaque ad personam à peine voiler, c'est vraiment manquer d'argument en effet.
Au moins, tu as le mérite de fixer une définition, ce qui est pas mal pour la discussion!Lorsque je parle de "problème", je pense à des problèmes d'optimisation. Par exemple le problème du voyageur de commerce ou bien essayer de gagner à un jeu de réflexion (échec, dames, go, poker, etc). L'intelligence peut se mesurer comme la capacité à trouver des bonnes solutions a un problème donné. Bien entendu, si je veux comparer l'intelligence d'un joueur d'échec avec celle d'un joueur de go, je ne peux pas. Tout ce que je peux dire c'est que le joueur d'échec est meilleur aux échecs, donc plus intelligent que l'autre sur l'échelle d'intelligence liée aux échecs, et le joueur de go est meilleur au go, donc plus intelligent que l'autre sur l'échelle d'intelligence liée au go. Après, si je trouve un joueur qui est plus fort que mon joueur d'échec et en même temps plus fort que mon joueur de go, je pourrais dire qu'il est plus intelligent que ces deux là sur les deux échelles. Et si je trouve un joueur qui est capable de battre n'importe quel humain à la fois au go, aux échecs, aux dames, à jéopardy, à question pour un champion, aux chiffres et aux lettres, au scrabble, je dirais qu'il est vraiment exceptionnellement intelligent. Pour moi, un ordinateur capable de faire ça est très intelligent.
Le problème de ta définition j'ai l'impression, c'est que du coup on ne pourra jamais dire qui est le plus intelligent entre un colibri et un homme j'imagine... En effet, sur l'échelle des échecs, l'Homme est le plus intelligent, mais sur l'échelle du "gérer son équilibre en volant et en évitant un tas d'obstacles dans la forêt", le colibri est le plus intelligent.
Je comprends bien.Mais, malgré tout, il y a des problèmes qu'on arrive à partager entre l'homme et l'ordinateur. Par exemple, les jeux de réflexion. Ceci permet de comparer l'intelligence de l'homme et de la machine, au moins sur certains tests. Je ne cherche pas à définir une sorte d'intelligence "ultime", un truc abstrait qui serait la seule vraie Intelligence avec un grand I. Pour moi, cela n'a aucun sens (d'ailleurs, je n'ai pas compris ma phrase précédente que j'ai pourtant écrite). Lorsque je parle d'une machine intelligente, je pense simplement à une machine capable de trouver une bonne solution un problème particulier que je suis capable de formuler. Et entre deux acteurs, le plus intelligent sera celui qui trouvera la meilleure solution, selon une règle prédéfinie. Et oui, bien sûr, il y a de l'arbitraire et de anthropocentrisme dans le choix du test. Mais, ce n'est pas grave, je m'en contente et réfléchis sur ces bases là.
Effectivement, ta définition de l'intelligence ne peut pas servir à comparer des "intelligences" (Animaux VS Hommes, politique VS menuisier, etc ...), mais seulement à fixer un mètre étalon pour en créer une.
Et alors?
N'est-ce-pas intéressant de confronter plusieurs points de vue radicalement différents sur un même sujet?
Je tiens aussi à rajouter que vous dites sans arrêt qu'on ne répond pas à vos arguments, mais j'ai quand même aligné 4-5 messages sur le lien empathique inhérent à l'émotion et vous ne m'avez pas répondu ... (et pourtant ça m'intéresse!)
Peut être parce que ça ne portait pas sur l'IA pure et dure ou sur du hardware...
Je fais une supposition: l'auteur de ces lignes est un programmeur, pas un biologiste.
Blague à part: J'ai eu une discussion il y a 10-11 mois avec un ami programmeur en IA qui ressemblait furieusement à celle-là (on était vraiment pas d'accord). Je défendais un caractère particulier du vivant (et surtout de la psyché humaine), et lui défendait que "tout est implémentable (en théorie)".
C'est quand même intéressant cette différence de point de vue entre biologistes et programmeurs / informaticiens!
Si j'ai compris (mais peut-être pas, n'ayant de formation dans aucun des 2 domaines), le programmeur voit une différence de niveau de complexité entre le cerveau et la machine là où le biologiste voit une différence de nature (ou bien une différence de complexité tellement énorme qu'on pourrait l'assimiler à une différence de nature ?)
Mais dans ce dernier cas, pouvez-vous m'éclairer sur la nature de cette différence ? Emergence de l'intelligence "subjective" seulement possible à partir d'entités biologiques ? Pour quelles raisons ? Conséquence du temps dont a disposé l'évolution pour façonner le cerveau ? Pourquoi ces phénomènes d'émergence serait-ils propres aux systèmes biologiques ?
Pour ceux qui voient seulement une différence de complexité, combien de temps est-elle censée résister encore aux progrès dans ce domaine ? Qu'est-ce qui "bloque" ? Seulement la puissance de calcul ?
Autre question sur l'intelligence collective : Je lis qu'elle émerge à partir de quelques lois relativement simples chez les insectes sociaux. Est-ce réellement le cas ? Saurait-on simuler l'intelligence d'une fourmilière aujourd'hui ou bientôt ?
Un dernier mot sur les lois d'asimov. Elles sont pensées dès la naissance de la robotique dans un monde où les premiers robots sont plus ou moins des esclaves ménagers, de types hubots de la série "real humans". Un tel avenir me semble suffisamment improbable pour penser que ces lois n'existeront pas, et que le bouton off est une meilleure option.
Ce n'est pas du tout le cas ici. D'abord parce que je ne prétends pas représenter le point de vue des informaticiens à moi tout seul si tant est que le concept existe, tout comme noir_ecaille ne représente pas à lui tout seul le point de vue des biologistes.
Ensuite et c'est bien le problème (pointé il y a de nombreux messages), c'est que quand des gens qui ne connaissent pas un domaine donnent leur avis, ce ne n'est plus une discussion scientifique mais une conversation de bistrot. Ce que vous avez reconnu vous même plus haut avec votre "je n'ai pas d'argument scientifique tellement c'est évident".
Est ce que noir_ecaille vient "donner son avis" dans les discussions sur l'astrophysique, les mathématiques du supérieur ou autre, astronautique ?
Je n'ai pas remarqué. Pourquoi son avis serait il plus pertinent en IA ? Parce qu'on essaie de reproduire un phénomène naturel ?
Dans ce cas, il devrait aussi nous dire ce qui est possible en aviation, fabrication de sous-marins, prothèses, nous expliquer l'optique et j'en passe...
Au final, cette discussion n'a jamais décollée. Il n'a pas été possible de parler vraiment d'IA et les "contradicteurs" n'ont jamais sorti un réel argument, seulement des "généralités évidentes" dont la valeur scientifique est nulle, l'équivalent des "le big bang n'est pas vrai parce qu'on ne peut pas créer de la matière à partir de rien"...
C'est dommage.
Bonjour à tous,
Oui je pense que tu as bien résumé les deux points de vues.Si j'ai compris (mais peut-être pas, n'ayant de formation dans aucun des 2 domaines), le programmeur voit une différence de niveau de complexité entre le cerveau et la machine là où le biologiste voit une différence de nature (ou bien une différence de complexité tellement énorme qu'on pourrait l'assimiler à une différence de nature ?)
Mon opinion rejoins celle des biologistes (j'en suis un donc ça parait logique), c''est-à dire qu'il est quasi impossible de simuler la psyché humaine pour deux raisons principales:
-1) Le degré de complexité est extrême.
-2) On a du mal à définir de quoi on parle (ce qui est quand même embêtant quand on veut modéliser un phénomène)
-3) Et surtout, on va ahma retomber dans les mêmes problèmes de la psychanalyse, avec toute la subjectivité inhérente à ce domaine d'étude. (avec les questions que j'ai soulevé il y a plusieurs messages de type "Y a t-il une différence entre un robot qui imite l'expression d'une émotion et un humain qui l'exprime vraiment, sur un observateur").
Pour moi qui suis matérialiste, il n'y a évidemment aucune différence de nature entre un ordinateur et un cerveau.Mais dans ce dernier cas, pouvez-vous m'éclairer sur la nature de cette différence ? Emergence de l'intelligence "subjective" seulement possible à partir d'entités biologiques ? Pour quelles raisons ? Conséquence du temps dont a disposé l'évolution pour façonner le cerveau ? Pourquoi ces phénomènes d'émergence serait-ils propres aux systèmes biologiques ?
Cependant, notre connaissance du vivant est tellement faible, qu'il est encore impossible d'estimer le degrés de difficulté de modélisation de la psyché humaine dans un ordinateur.
Qu'est-ce-que tu entends par "intelligence collective"?
P.S: Sinon on a aussi la définition de l'intelligence que devrait avoir une IA de hlbnet, qui du coup permet de réfléchir à un concept que l'on connait.
Je constate que tous vos derniers messages se résument à des attaques sur la compétences / connaissance / expertise (garder toutes les mentions) de vos interlocuteurs ...Ce n'est pas du tout le cas ici. D'abord parce que je ne prétends pas représenter le point de vue des informaticiens à moi tout seul si tant est que le concept existe, tout comme noir_ecaille ne représente pas à lui tout seul le point de vue des biologistes.
Ensuite et c'est bien le problème (pointé il y a de nombreux messages), c'est que quand des gens qui ne connaissent pas un domaine donnent leur avis, ce ne n'est plus une discussion scientifique mais une conversation de bistrot. Ce que vous avez reconnu vous même plus haut avec votre "je n'ai pas d'argument scientifique tellement c'est évident".
Est ce que noir_ecaille vient "donner son avis" dans les discussions sur l'astrophysique, les mathématiques du supérieur ou autre, astronautique ?
Je n'ai pas remarqué. Pourquoi son avis serait il plus pertinent en IA ? Parce qu'on essaie de reproduire un phénomène naturel ?
Dans ce cas, il devrait aussi nous dire ce qui est possible en aviation, fabrication de sous-marins, prothèses, nous expliquer l'optique et j'en passe...
Au final, cette discussion n'a jamais décollée. Il n'a pas été possible de parler vraiment d'IA et les "contradicteurs" n'ont jamais sorti un réel argument, seulement des "généralités évidentes" dont la valeur scientifique est nulle, l'équivalent des "le big bang n'est pas vrai parce qu'on ne peut pas créer de la matière à partir de rien"...
C'est dommage.
Je crois que c'est bon on a compris.
Mais vous pouvez aussi répondre à nos objections (comme je le mentionne dans mon avant-dernier message), ou alors (puisque c'est apparemment votre domaine de prédilection) amener d'autres réflexions. Par exemple, il me semble que la définition de hlbnet permet de ne pas tourner autours du pot 30 ans et de centrer un peu la discussion.
Tenez, une discussion d'un néophyte: Y a-t'il des jeux d'optimisation (type voyageur de commerce, échecs, etc ...) dans lesquels les ordis se font battre par les humains? Si oui, pourquoi?
Pas de mes interlocuteurs. De 2 d'entre eux qui ont tous les 2 reconnus ne pas connaitre le domaine mais qui sont pourtant les plus gros contributeurs...
Là aussi, on est sur un forum scientifique : la compétence des intervenants est un critère légitime surtout quand qu'ils ignorent les bases mais qu'ils affirment des choses fausses en expliquant qu'ils ne peuvent pas les prouver mais que c'est "évident".
Je constate aussi que vous ne répondez pas à mes objections factuelles sur "les biologistes" par exemple mais que vous préférez déprécier mes interventions. Cette attitude, écarter d'un revers de la main toute objection sans argument est celle qui caractérise les posts des 2 intervenants en question.
Là aussi, c'est typique des gens qui ont un avis fort, entièrement émotionnel sur un sujet qu'ils ne maitrisent et qui veulent à tout prix imposer le dit avis.
On est très, très loin de la science.
Dernière modification par pm42 ; 29/09/2015 à 08h27.
"Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)
Critère légitime pour quoi? Pour s'exprimer?
Mais oui .... noir_ecaille vous a répondu sur Watson / Elysa par exemple ...
Par contre vous ne répondez à rien vous ...
Dans mon dernier message, j'ouvre justement une question ... en précisant bien que je suis un néophyte et que donc je serais intéressé par l'avis d'un spécialiste.
Réponse du dit-spécialiste: "Nan mais vous n'y connaissais rien, vous n'êtes pas légitime pour parler, on est très loin de la Science, etc ...."
Chaque action du corps, y compris les actions "internes" comme les sécrétions hormonales, a un "retour" sur le fonctionnement cérébral et le module. Actions elles-même modulées par l'interaction avec le milieu extérieur.
Un cerveau humain n'est pas un organe isolé , il est dépendant du corps qui l'abrite et le nourrit pour son fonctionnement.
En fait une partie des arguments est donnée dans ce fil ; http://forums.futura-sciences.com/ac...t-finance.html.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Ok, j'ai lu le plus gros. La question me semble être de savoir à quel degré de détail une simulation doit aller pour donner l'équivalent de l'intelligence (si on essaie de créer une IA par cette voie là, la pure imitation de l'humain).Chaque action du corps, y compris les actions "internes" comme les sécrétions hormonales, a un "retour" sur le fonctionnement cérébral et le module. Actions elles-même modulées par l'interaction avec le milieu extérieur.
Un cerveau humain n'est pas un organe isolé , il est dépendant du corps qui l'abrite et le nourrit pour son fonctionnement.
En fait une partie des arguments est donnée dans ce fil ; http://forums.futura-sciences.com/ac...t-finance.html.
Parce que si je veux simuler fonctionnellement un coeur, je n'ai pas besoin de reproduire jusqu'au niveau de la cellule voire des protéines.
La même question se pose les fonctions supérieures du cerveau : on arrive à reproduire aujourd'hui (très partiellement et imparfaitement certes) certaines d'entre elles, comme la reconnaissance d'images par exemple. Et pour cela, il n'y a pas besoin de simuler l'ensemble du système biologique.
Je ne vois pas d'obstacle théorique insurmontable au fait d'aller plus loin. Je ne dis pas qu'il n'existe pas, je dis juste que rien de ce que j'ai lu ici ne semble démontrer l'existence d'une barrière infranchissable.
P.S : au demeurant, mon argument sur les réseaux de neurones ne cherchait pas prouver qu'ils sont la solution et qu'on peut reproduire tel quel un cerveau humain. Juste essayer de faire remarquer les limites des arguments où un calculateur est vu comme un PC faisant tourner Word par des gens qui apparemment ne connaissent pas les travaux récents.
Le titre du sujet ici est : "Intelligence artificielle (question aux programmeurs)".
Je ne parle pas du cerveau et n'ait aucune opinion sur son fonctionnement ou sur les limites de la recherche dans le domaine.
C'est d'ailleurs pour cela que je vous pose des questions.
Je dit juste que sauf preuve très forte du contraire, je ne vois pas pourquoi il serait impossible de le simuler à un niveau fonctionnel au moins. Vous avez d'ailleurs vous même pointé vers des projets qui travaillent dans ce sens. Je suppose que si la dite preuve existait, ils auraient du mal à disposer de ces financements importants.
A mon avis, tout le monde n'interprète pas le concept d'intelligence artificielle de la même manière. Lorsqu'on parle d'IA, souvent, les gens pensent qu'il s'agit de recréer un humain, ou au moins un cerveau qui aurait les mêmes fonctionnalités qu'un cerveau humain. Or, pour moi en tout cas, ce n'est pas du tout cela. L'intelligence artificielle, c'est simplement de fabriquer une machine qui soit capable de résoudre divers problèmes, mieux et plus vite que ne le ferait un humain.
Dans le cerveau humain, il y a beaucoup de fonctions qui n'ont aucune utilité en intelligence artificielle. Notre cerveau régule l'appétit, nous averti lorsqu'il faut aller aux toilettes ou manger ou dormir ou ralentir lorsque nous courons trop vite trop longtemps. Aussi, il passe beaucoup de temps à se préoccuper de reproduction. Si on voulait reproduire un cerveau artificiel, il faudrait impérativement que toutes ces fonctions soient incluses, ce qui suppose aussi de simuler un corps pour répondre au cerveau. Nous n'avons pas les même capacités de réflexion le matin et le soir, ou lorsqu'on a faim ou pas, ou lorsqu'il y a du bruit ou pas, lorsque nous sommes stressés, énervés, fatigués ou pas, etc. Le projet de créer un cerveau humain artificiel est certainement très intéressant et utile, dans le but de mieux comprendre le cerveau humain et éventuellement de soigner certaines maladies mentales. Mais ceci n'est pas le but de l'intelligence artificielle.
Pour moi, l'intelligence artificielle, c'est simplement ce que fait une machine qui résout des problèmes complexes. Vouloir que cette machine soit aussi capable de réguler la charge d'une vessie ou un temps de sommeil, c'est la complexifier inutilement. Il ne s'agit pas de simuler le cerveau humain. Le but n'est pas le même.
Alors dans ces conditions je n'ai plus rien à dire.
Pour moi, l'intelligence artificielle, c'est simplement ce que fait une machine qui résout des problèmes complexes. Vouloir que cette machine soit aussi capable de réguler la charge d'une vessie ou un temps de sommeil, c'est la complexifier inutilement. Il ne s'agit pas de simuler le cerveau humain. Le but n'est pas le même.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Pourtant, même en adoptant la définition basique de l'intelligence artificielle que je propose, on peut essayer de répondre à la question initiale de ce fil de discussion : est-ce que l'intelligence artificielle poussée à l'extrême présente un danger ?
Personnellement, c'est à cette question que j'ai essayé de répondre. Je n'y reviens pas.
Est ce que noir_ecaille vient "donner son avis" dans les discussions sur l'astrophysique, les mathématiques du supérieur ou autre, astronautique ?
Je n'ai pas remarqué. Pourquoi son avis serait il plus pertinent en IA ? Parce qu'on essaie de reproduire un phénomène naturel ?
Dans ce cas, il devrait aussi nous dire ce qui est possible en aviation, fabrication de sous-marins, prothèses, nous expliquer l'optique et j'en passe...
Cliquez pour afficherC'est ne pas connaître l'intégralité de mes interventions
J'ai pour domaine de prédilection la biologie sans m'interdire d'apprendre sinon comprendre le reste. D'ailleurs l'optique ne m'est pas non plus "obscure", même si je suis loin de pouvoir faire un glossaire de l'état de l'art et autres performances de haut niveau. La fabrication de sous-marin, y'a un fil de discussion relativement ancien sur un concept de "ville" sous-marine quelques part dans les méandres de la section ludique. Les prothèses, ça dépend si on parle de prothèses purement mécanique (j'ai même un ami IRL qui a participé à la conception-design d'un ressort pour vertèbres) ou si on parle même de bionique avec les dernières avancées en neurosciences par-dessus. Quant à l'aviation, sans être finement versée en aérodynamisme, j'en apprends assez souvent sur ces forums pour que des intervenants comme Carcharodon ne trouve pas vain ou inintéressant de me répondre
Bref. Au lieu de préjuger de ma personne (ou des autres) et de ce que vous m'imaginez, ayez l'intelligence sinon la décence de vous concentrer sur les interventions pour elles-même avant de croire "connaître" le rayon d'action et de compétences des très nombreux geeks et nerds fréquentant les forums FSG. Vous pourriez être surpirs de la grande "interdisciplinarité" relative dont peuvent faire preuve certaines interventions.
Faire de l'argumentum ad personam souligne seulement votre manque d'argumentaire. La rhétorique, encore un domaine familier.
"Ne pas connaître", encore un préjugé. Il est quand même de notoriété publique qu'un logiciel, ce sont des algorithmes de traitement. Et les algorithmes, ce sont des modèles logiques qu'on utilise à plus large échelle que l'informatique. Sans oublier les connections interdisciplinaires (bio-informatique, bionique, etc). Et tout simplement les compétences individuelles (ce n'est pas parce qu'on est médecin français ou secrétaire suisse qu'on devrait par exemple ne systématiquement rien connaître à la programmation VisualBasic sur Excel et j'en passe).
Pour l'instant vous avez surtout fait preuve d'incompétence pour non seulement juger le potentiel des autres, mais de plus répondre aux arguments posés autrement qu'en éludant ce que vous n'êtes apparemment pas en position d'assimiler/juger.
Là, c'est un transfert : vous êtes celui qui balayer les objections et arguments d'un revers de la main au lieu de répondre. Manipulation par le pathos ?Je constate aussi que vous ne répondez pas à mes objections factuelles sur "les biologistes" par exemple mais que vous préférez déprécier mes interventions. Cette attitude, écarter d'un revers de la main toute objection sans argument est celle qui caractérise les posts des 2 intervenants en question.
Avez-vous la moindre connaissance en thermodynamique avant de parler "d'émotionnalisme" ? Que savez-vous des émergences entropiques ? Des systèmes dissipatifs complexes auto-entetenus ? Des propos d'Ilya Progogine ? De la machinerie cellulaire ? De l'apparition du Vivant ? De la neurogénèse et du developpement du cerveau ? Du fonctionnement cérébral ? Des maladies neurologiques et mentales ? De l'éthologie ? De la mesure de l'intelligence en quotient ? De la différence entre signifiant et signifié ? Etc.
Parce que pour parler de l'intelligence humaine ou "artificiellement humaine", ça demande autre chose que du "bon (gros) sens" mal dégrossi pour juger de ce qui est ou pas "équivalent" ou même "transposable". Autrement en effet ce n'est pas de la science, seulement des assertions lacunaires.