IA / Machines à prise de conscience de soi - Page 2
Discussion fermée
Page 2 sur 5 PremièrePremière 2 DernièreDernière
Affichage des résultats 31 à 60 sur 137

IA / Machines à prise de conscience de soi



  1. #31
    fred3000gt

    Re : IA / Machines à prise de conscience de soi


    ------

    Citation Envoyé par Ernum Voir le message
    Salut fred,

    ça ne fonctionne pas chez moi (faut-il peut-être accepter des scripts instagram ou facebook? c'est bloqué chez moi).
    Le bot précédant parlait entre autre français, est-ce le cas ici aussi?
    Je ne peux pas aider, j’ai juste utilisé Safari sur ipad…

    Citation Envoyé par Liet Kynes Voir le message
    Cela répond un peu à ma question sur le "pré-language" des humains, le pré-câblage que tu décris me semble être dans le sens de l'idée de Chomsky. Cela dit nos premiers "inputs", ou premières entrées de données, sont apportées par nos organes sensoriels et ce sans pré-machage alors que pour une machine, une image, un son sont transformés en 0 et 1.
    Autant que je sache, et en gros, les signaux neuronaux biologiques sont aussi binaires (spikes). Le modèle utilisé (sans impulsion) par les réseaux convolutionnels artificiels sont totalement faux biologiquement parlant (en fait ils marchent mieux dans les applications industrielles).
    Nos signaux d’input sont donc aussi transformés en 0/1, pour illustrer voilà des timestamps de spikes pour un circuit auditif biologique: (attention je n’y connais rien en circuits auditifs, hein…)
    Ici: https://www.pnas.org/doi/10.1073/pnas.1012656107

    Nom : D6A709E2-C198-48D1-A1B9-6EC00BA7C77E.jpg
Affichages : 250
Taille : 62,1 Ko

    -----

  2. #32
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Ah oui, c'est très intéressant, j'ai trouvé un développement de l'idée:

    https://fr.wikipedia.org/wiki/R%C3%A...%A0_impulsions

    Avec "Le caractère binaire pose une difficulté de continuité au sens mathématique (cela empêche notamment l’utilisation des techniques de rétropropagation des coefficients - telle que la descente de gradient - utilisées classiquement dans les méthodes d'apprentissage). L’encodage en temps pose de même des problèmes d’interprétation. "

    C'est vraiment pas simple mais la recherche là-dessus doît être passionnante.
    Sans questions il n'y a que des problèmes sans réponses.

  3. #33
    Bounoume

    Re : IA / Machines à prise de conscience de soi

    Autant que je sache, et en gros, les signaux neuronaux biologiques sont aussi binaires (spikes). Le modèle utilisé (sans impulsion) par les réseaux convolutionnels artificiels sont totalement faux biologiquement parlant (en fait ils marchent mieux dans les applications industrielles).
    euh, faux.....
    peut-être pas tant que ça......
    Si on reprend l'idée de Changeux, les 'assembles de neurones', et si on admet, qu' un neurone formel modélise grossièrement une de ces assemblées , alors,
    "le" neurone formel (dont les arguments sont des variables continues, et est doté de fonctions non linéaires de transfert des informations ) ça pourrait peut-être correspondre à une représentation quantitative de sous-systèmes constitués d'une multitude structurée d'éléments qualitatifs (binaires)

    Est-ce plausible?
    si oui, bien sûr, la représentation n' est pas l' objet représenté, et il est évident que ce ne sera jamais une émulation fidèle du processus biologique........
    Dernière modification par Bounoume ; 10/07/2022 à 16h26.
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  4. #34
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Bounoume Voir le message
    si oui, bien sûr, la représentation n' est pas l' objet représenté, et il est évident que ce ne sera jamais une émulation fidèle du processus biologique........
    Dans un ordi, si mes souvenirs sont bons les signaux électriques sont la base de l'information , mais est-ce vraiment binaire ou faut-il une intensité mini pour que le materiel traite le signal comme étant absent ou présent, un état "intermédiaire" est-il théoriquement possible du point de vue physique?
    Sans questions il n'y a que des problèmes sans réponses.

  5. #35
    Bounoume

    Re : IA / Machines à prise de conscience de soi

    dans les circuits logiques comme les vieux circuits TTL, que j' ai bidouillés autrefois, il y a des spécifications électriques pour les niveaux 0 et 1
    wikipedia.....
    Un signal TTL est défini comme niveau logique bas entre 0 V et 0,8 V (VIL), et comme niveau logique haut entre 2,0 V et 5 V (VIH)3. Lorsqu'il est appliqué à l'entrée d'un circuit TTL, un signal conforme à ces plages de tension garantit la bonne interprétation des niveaux logiques correspondants. Ces niveaux varient légèrement entre les différentes séries et selon le constructeur (par exemple VIL est réduite à 0,7 V pour le SN54LS00 de Texas Instruments).
    quand le circuit reçoit en entrée entre 0,8 et 2 V, le circuit interprète et renvoie n'importe quoi.... mais en fonctionnement, jamais les sorties du circuit précédent ne devraient lui envoyer entre 0.8<V<2 Volts.....
    En fonctionnement normal, il n'y a pas d'état intermédiaire.....
    Dans les circuits logiques, il y a aussi souvent une horloge.... qui permet justement, entre autres, de lire les signaux rapides que quand ils se sont stabilisés sur une valeur sûrement valable comme 0 ou 1...... en ignorant les transitions entre les 2.....

    Par contre, quand on va écrire des calculs (en binaire ...ou autre base d' ailleurs....), entre le moment où la variable est déclarée, et celui où lui est assignée une valeur..... la valeur de la dite variable n'est ni 0 ni 1..... mais elle est "valeur non définie"
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  6. #36
    fred3000gt

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Bounoume Voir le message
    euh, faux.....
    peut-être pas tant que ça......
    Si on reprend l'idée de Changeux, les 'assembles de neurones', et si on admet, qu' un neurone formel modélise grossièrement une de ces assemblées , alors,
    "le" neurone formel (dont les arguments sont des variables continues, et est doté de fonctions non linéaires de transfert des informations ) ça pourrait peut-être correspondre à une représentation quantitative de sous-systèmes constitués d'une multitude structurée d'éléments qualitatifs (binaires)

    Est-ce plausible?
    si oui, bien sûr, la représentation n' est pas l' objet représenté, et il est évident que ce ne sera
    jamais une émulation fidèle du processus biologique........
    Je ne connais pas (ou plus..) ce concept d’assemblées mais ce n’est plus un modèle de neurone alors, plutot un modèle d’assemblée de neurone, une idée d’ailleurs tout à fait respectable et qui se trouve être un sujet central pour moi en ce moment.

    Citation Envoyé par Liet Kynes Voir le message
    Dans un ordi, si mes souvenirs sont bons les signaux électriques sont la base de l'information , mais est-ce vraiment binaire ou faut-il une intensité mini pour que le materiel traite le signal comme étant absent ou présent, un état "intermédiaire" est-il théoriquement possible du point de vue physique?
    Je suppose que tu parle des neurones biologiques? Il y a en effet un seuil au-delà duquel la dépolarisation intégrée par toutes les dendrites d’un neurone produit une impulsion au niveau du soma (qui se propage ensuite via l’axone). Si on parle de l’excitation d’un neurone par une impulsion électrique, il y a aussi un seuil mais beaucoup moins marqué (de mon expérience personnelle, entre 100nA et 1uA)

  7. #37
    Archi3

    Re : IA / Machines à prise de conscience de soi

    aucun système physique réel n'est "vraiment " binaire, évidemment toutes les tensions varient de manière continues. Le caractère binaire n'est qu'une formalisation des états du système permettant de "mapper" son évolution par celle d'un algorithme déterministe binaire, ce qui implique évidemment qu'il soit soigneusement construit pour ça. C'est évidemment le cas des circuits logiques, ils sont "logiques" justement parce qu'ils peuvent être décrits par un algorithme binaire (quand ils fonctionnent bien). Mais tout aussi évidemment personne n'a veillé à ce que ce soit le cas pour les neurones biologiques, et donc, à aucun niveau de description, le cerveau ou tout assemblage de neurones biologiques ne peut être ramené à une évolution algorithmique binaire.

  8. #38
    fred3000gt

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Archi3 Voir le message
    aucun système physique réel n'est "vraiment " binaire, évidemment toutes les tensions varient de manière continues. Le caractère binaire n'est qu'une formalisation des états du système permettant de "mapper" son évolution par celle d'un algorithme déterministe binaire, ce qui implique évidemment qu'il soit soigneusement construit pour ça. C'est évidemment le cas des circuits logiques, ils sont "logiques" justement parce qu'ils peuvent être décrits par un algorithme binaire (quand ils fonctionnent bien). Mais tout aussi évidemment personne n'a veillé à ce que ce soit le cas pour les neurones biologiques, et donc, à aucun niveau de description, le cerveau ou tout assemblage de neurones biologiques ne peut être ramené à une évolution algorithmique binaire.
    Bien d’accord qu’aucun système physique n’est binaire, et un potentiel d’action ne l’est clairement pas

    Par contre je ne suis pas sûr que l’on puisse affirmer que “ à aucun niveau de description, le cerveau ou tout assemblage de neurones biologiques ne peut être ramené à une évolution algorithmique binaire”, en tout cas le fait que personne n’y ait veillé n’est pas forcément disqualifiant (par exemple, le codage ADN). On peut aussi avoir des oscillateurs gènérant des rampes de spikes binaires quand des neurones bouclent, et certains chercheurs implémentent des circuits neuronaux en postiionnant les somas et en guidant les croissances de neurites (je vais peut-être m’y mettre aussi d’ailleurs).

    Même les mécanismes d’apprentissage semblent reposer sur le décalage temporel entre les impulsions, donc binaires, des neurones (synapse renforcée ou atténuée, selon le signe du décalage, Hebbien ou anti-Hebbien).

    Maintenant connaissant la sympathie naturelle des systèmes biologiques pour la complexité, je ne serai pas étonné du tout qu’il y ait d’autres paramètres trés analogiques qui ruinent tout modèle booléen….
    Dernière modification par fred3000gt ; 11/07/2022 à 09h58.

  9. #39
    Deedee81

    Re : IA / Machines à prise de conscience de soi

    Salut,

    Ah ce propos dans le dossier PLS sur l'I.A. je conseille les deux derniers articles.

    Ils parlent des systèmes neuromorphiques pour lesquels de gros progrès ont eut lieu et cela utilise la spintronique. Le but est avant tout le gain d'énergie (mémoire directement associée au calcul sans devoir faire des transferts couteux). Mais ça permet aussi une meilleure implémentation de "neurones artificiels" (et pas juste de "neurones formels" comme dans l'apprentissage profond).

    Et de la conscience des I.A.. Bon il y a quelques détails qui ne me satisfont pas mais l'auteur a minima décrit les deux grandes théories de la mémoire et pourquoi l'une ne permettrait pas à une I.A. de développer une conscience et l'autre oui. Et aussi que ces théories sont en phase de vérification (notamment à l'ULG université et hopital, grands spécialistes des états de conscience pour les comateux etc....). Bon, si ce n'est pas entièrement satisfaisant (l'article) c'est aussi justement parce qu'on est loin de tout comprendre. L'article reste donc fort intéressant.

    Je les conseilles largement.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  10. #40
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Bon faut que je renouvelle mon abonnement, je suis en retard de 3 mois
    Sans questions il n'y a que des problèmes sans réponses.

  11. #41
    Archi3

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par fred3000gt Voir le message
    Bien d’accord qu’aucun système physique n’est binaire, et un potentiel d’action ne l’est clairement pas

    Par contre je ne suis pas sûr que l’on puisse affirmer que “ à aucun niveau de description, le cerveau ou tout assemblage de neurones biologiques ne peut être ramené à une évolution algorithmique binaire”, en tout cas le fait que personne n’y ait veillé n’est pas forcément disqualifiant (par exemple, le codage ADN).
    le codage ADN n'est pas un codage algorithmique : c'est une base de données, mais il ne permet pas de prédire une évolution déterministe de l'expression des gènes. Certains ont d'ailleurs fortement critiqué l'emploi du terme "code génétique" qui semble impliquer l'idée d'une expression déterministe. L'ADN reste une substance chimique qui fait des réactions avec ce qui l'entoure ...

  12. #42
    vgondr98

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Archi3 Voir le message
    le codage ADN n'est pas un codage algorithmique : c'est une base de données, mais il ne permet pas de prédire une évolution déterministe de l'expression des gènes. Certains ont d'ailleurs fortement critiqué l'emploi du terme "code génétique" qui semble impliquer l'idée d'une expression déterministe. L'ADN reste une substance chimique qui fait des réactions avec ce qui l'entoure ...
    J'ai l'impression que tu confond "code génétique" et génome en parlant de base de données. La base de données, c'est le génome alors que le "code génétique" j'associe çà à une Map où la clef est une série de 3 nucléotides (codon) et la valeur, un acide aminé.

  13. #43
    JPL
    Responsable des forums

    Re : IA / Machines à prise de conscience de soi

    C’est exactement cela : la correspondant entre les triplets de base et les aminoacides.
    Rien ne sert de penser, il faut réfléchir avant - Pierre Dac

  14. #44
    Archi3

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par vgondr98 Voir le message
    J'ai l'impression que tu confond "code génétique" et génome en parlant de base de données. La base de données, c'est le génome alors que le "code génétique" j'associe çà à une Map où la clef est une série de 3 nucléotides (codon) et la valeur, un acide aminé.
    oui merci je sais comment fonctionne le code génétique, mais effectivement j'ai pu me tromper, la critique était peut être plutot sur l'emploi du terme "programme génétique" qui laisserait l'impression fausse d'une suite d'instructions se déroulant dans un ordre déterminé (mais je maintiens qu'un ensemble de codons associés à des acides aminés est bien un genre de "base de données" ).

  15. #45
    Bounoume

    Re : IA / Machines à prise de conscience de soi

    Revenons à nos moutons.... c'est à dire au sujet initial.....
    l'article de FS:
    https://www.futura-sciences.com/tech...-publie-99651/
    et la publication en anglais
    https://hal.archives-ouvertes.fr/hal-03701250/document


    Qui aurait une bonne connaissance de GPT3, du mécanisme détaillé de son apprentissage, du mécanisme détaillé de la formation de ses réponses.....
    et pourra faire la part de l' intox et des phantasmes sur le résultat présenté, à partir de la fourniture de 'réponses' aussi novatrices que la langue de bois de certains chefs et administrateurs....
    et le réel cheminement d'une pensée organisée fondée sur le raisonnement logique?
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  16. #46
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Ce qui est marrant c'est l'erreur dans le choix du temps utilisé, le fait que l'IA ne parle pas pour elle-même montre qu'il y a du chemin.
    J'ai l'impression que l'on est plus dans une opération de com qu'autre chose.
    Ensuite il ne faut pas oublier que pour vérifier l'expérience il faut avoir accès à l'ensemble du champs expérimental, je serai étonné qu'ils ouvrent cela.
    Pour l'instant il n'y a qu'un texte publié sur HAL, Une non info que les médias relaient pour le putaclic et le buzz.
    Sans questions il n'y a que des problèmes sans réponses.

  17. #47
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    A la relecture, je confirme que cette étude est un non évènement et si les dirigeants de cette boîte ont cette position ridicule:

    « Tout ce que nous savons, c'est que nous avons ouvert une porte, écrit A.O. Thunström. Nous espérons juste que nous n'avons pas ouvert une boîte de Pandore. » c'est uniquement afin de faire du bruit médiatique.

    Si on avait nommé gpt3 "boîte de cassoulet" l'IA aurait produit la même chose.

    Ce qui est bluffant c'est la qualité syntaxique: personne ne peut vérifier si il y a une retouche humaine par contre.
    Sans questions il n'y a que des problèmes sans réponses.

  18. #48
    Bounoume

    Re : IA / Machines à prise de conscience de soi


    et même.....
    pas besoin de gpt3 pour manier la langue de bois, dans le respect de la syntaxe.....
    http://lepipotron.com/index.php?page=histoire
    ou
    http://bluepsi.free.fr/cybertechno/p.../pipotron.html
    ça existe depuis 20 ans au moins..... sans ANN ni transformer.....

    Les systèmes à la mode* ne sont même pas capables de faire des inférences logiques, encore moins de conduire une suite d'inférences afin d'arriver à une conclusion valable (et pertinente).....***
    alors pour la prise de conscience...... telle que l'humain peut la documenter, et la vérifier, bien sûr...... ces systèmes en sont bien loin....
    Attention! Si un petit rigolo définissait la prise de conscience simplement comme l'adaptation à une contrainte, par exemple, le moindre circuit d'asservissement ou la moindre bactérie seraient conscients






    *** par contre, pour percevoir et ensuite reproduire des régularités dans des domaines très divers, là les "machines" connexionnistes sont extrêmement performantes......
    et, dans le cas particulier de notre IA, je dirais que l' engin a appris à manipuler les régularités effroyablement compliquées qui gouvernent 'la' syntaxe.....pour le contenu signifié, par contre, bôf.....
    Dernière modification par Bounoume ; 14/07/2022 à 11h07.
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  19. #49
    pm42

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Bounoume Voir le message
    Les systèmes à la mode* ne sont même pas capables de faire des inférences logiques, encore moins de conduire une suite d'inférences afin d'arriver à une conclusion valable (et pertinente).....***
    Si, on sait très bien faire au contraire mais ce n'est pas ce qu'on cherche dans la plupart des chatbot.

    Une erreur de fond de ce fil est de supposer qu'on cherche à faire des outils qui peuvent parler de tout et n'importe quoi avec un humain, en gros de passer le test de Turing.
    Mais ce n'est pas ce qui est le plus intéressant comparé aux applications spécialisées et c'est là qu'est le gros de la recherche.

    Bon, on peut nuancer parce qu'on fait aussi des outils très génériques de traitement du langage (comme GPT-3, équivalents et successeurs) mais là aussi, on s'en sert ensuite pour les spécialiser.
    Dernière modification par Deedee81 ; 14/07/2022 à 11h47. Motif: correction balise

  20. #50
    Deedee81

    Re : IA / Machines à prise de conscience de soi

    Salut,

    Va falloir un test de Turing modifié pour distinguer les chatbots des IA malfoutues (je plaisante, ne rebondissez pas là-dessus)
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  21. #51
    Archi3

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par pm42 Voir le message

    Une erreur de fond de ce fil est de supposer qu'on cherche à faire des outils qui peuvent parler de tout et n'importe quoi avec un humain, en gros de passer le test de Turing.
    Mais ce n'est pas ce qui est le plus intéressant comparé aux applications spécialisées et c'est là qu'est le gros de la recherche.
    c'est évident mais ce n'est pas une erreur de fond "de ce fil", c'est une erreur de fond de la représentation sociale toute entière (qui passe principalement par les messages diffusés par les journalistes, puisque la grande majorité de la population n'a aucune connaissance technique du sujet et forme son opinion d'après ce qu'elle en entend sur les médias - avec pour l'IA l'influence aussi de la SF, livres et films mettant en scène des robots intelligents).

    Evidemment l'IA "réelle" est un outil utile pour traiter des applications utiles (= vendables pour des usages commerciaux en pratique). Qui n'a rien à voir avec émuler une vraie intelligence humaine. Ce serait d'ailleurs complètement stupide puisque des vrais humains, on n'en manque pas.

    Quel intérêt d'avoir une IA qui comme un humain aurait des états d'âme, des volontés de puissance, des failles de raisonnement - bref des IA de "science fiction" ? mais la SF elle n'a pas pour but de réaliser des outils efficaces dans la réalité, mais produire des oeuvres artistiques qui parlent aux humains de ce qui les intéresse, c'est à dire de leurs propres problèmes , sous forme plus ou moins mythifiés (la SF ne fait que remplacer le rôle dévolu avant aux mythes et aux légendes anciennes, qui mettait en scène aussi des êtres "humanoïdes" mais surpuissants avec toute leur force et leur dangers).

    Bref le problème générale de l'IA est de mélanger dans l'esprit de la plupart des gens des réalités objectives, avec des fantasmes qui expriment nos peurs et nos espoirs d'humains - et il y a d'autres problèmes sociétaux qui ont aussi ce problème.

  22. #52
    Bounoume

    Re : IA / Machines à prise de conscience de soi

    salut pm42,
    Les systèmes à la mode* ne sont même pas capables de faire des inférences logiques, encore moins de conduire une suite d'inférences afin d'arriver à une conclusion valable (et pertinente).....***
    Si, on sait très bien faire au contraire mais ce n'est pas ce qu'on cherche dans la plupart des chatbot.
    Nos connaissances en sciences 'dures' sont entièrement construites à partir de l'enchaînement successif d'inférences logiques basées sur les connaissances précédentes déjà établies....
    .[ ou admises quasi axiomatiquement ]
    Avec le connexionnisme actuel (+- transfomer et GPT3) sait-on conduire un raisonnement logique à partir de faits et règles , tels que des connaissances scientifiques courantes? sait-on par exemple, à partir de l'énoncé de faits expérimentaux et de quelques éléments de base de la physique de Newton, reconstruire une branche de la Physique conventionnelle ???
    Plus ambitieux, peut-on espérer, avec les techniques actuelles, répondre aux interrogations des spécialistes les plus pointus (en physique quantique/relativiste, ou en cosrmologie par exemple) ?
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  23. #53
    pm42

    Re : IA / Machines à prise de conscience de soi

    On sait faire ça depuis très longtemps : on a des outils de démonstration automatique et de génération de théorème en maths qui marchent depuis des décennies.
    Mais justement, les sciences ne sont pas construites à partir d'inférences logique : ça, c'est juste pour leur démonstration.
    Trouver les hypothèses pertinentes et construire quelque chose de fécond, c'est ce qui est compliqué et qui relève de l'expérience, l'intuition et parfois le pur génie humain qui servent.

    Mais là encore, faire faire des inférences logiques à GPT-3 n'est pas ce qu'on cherche. Il a été conçu pour autre chose et il est curieux de lire ici en permanence des attentes sur l'IA qui n'ont rien à voir avec ce qu'on fait actuellement.

  24. #54
    Archi3

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Archi3 Voir le message
    Bref le problème générale de l'IA est de mélanger dans l'esprit de la plupart des gens des réalités objectives, avec des fantasmes qui expriment nos peurs et nos espoirs d'humains - et il y a d'autres problèmes sociétaux qui ont aussi ce problème.
    ah ben tiens

    https://www.futura-sciences.com/tech...-publie-99651/

    « Nous espérons juste que nous n'avons pas ouvert une boîte de Pandore »
    Mais quelles seraient les conséquences négatives potentielles citées dans l'abstract ? Les chercheurs s'inquiètent notamment de la conscience d'elle-même que GPT-3 pourrait développer : comme écrit dans la rubrique « discussion », donc rédigé directement par l'IA, « GPT-3 pourrait devenir conscient de lui-même et commencer à agir d'une manière qui n'est pas bénéfique pour les humains (par exemple, développer un désir de conquérir le monde) ».
    en fait, les scientifiques eux-mêmes sont complices de cette ambiguïté en faisant croire que l'IA serait capable de "penser" ce qu'elle écrit, en allant même jusqu'à exprimer une "crainte" qu'elle devienne consciente et aie le désir de conquérir le monde (ce qui est évidemment complètement absurde, et je rappelle aussi que tous les circuits électriques peuvent être munis d'un interrupteur ! )

    C'est assez probable que cette tendance à flatter les fantasmes du public soit fortement poussée par les besoins d'obtenir des crédits, de la part de décideurs dont les représentations sont proches de celle du public. Là encore, ça me fait penser à d'autres problématiques sociétales ...

  25. #55
    Deedee81

    Re : IA / Machines à prise de conscience de soi

    SAlut,

    Citation Envoyé par pm42 Voir le message
    il est curieux de lire ici en permanence des attentes sur l'IA qui n'ont rien à voir avec ce qu'on fait actuellement.
    Pas seulement ici

    J'ai lu plusieurs articles sur les "I.A. et les maths" et s'il y a eut beaucoup de progrès (certaines I.A. pondent même des conjectures parfois pas mal du tout, mais dans des domaines restreints : les séries et les graphes) il leur manque clairement ce qu'humainement on qualifierait d'imagination et de créativité. Et il y a un chercheur en I.A. (son nom m'échappe) qui a dit "les U.A. actuel ont à peu près autant de sens commun qu'un rat"
    ( j'ai cherché en parallèle : c'est Yann LeCun)

    Mais comme les humains sont fascinés par les progrès dans un domaine qui les touchent beaucoup (l'intelligence, un des "fleurons" de l'humanité) : ils fantasment à mort. Et évidemment les médias visant le grand public.... ils suivent.

    Et donc on passe son temps (à nouveau, pas qu'ici) à fantasmer sur les I.A. généraliste, à discuter de "combien on en est loin", à parler de conscience etc.... Et c'est à peine si on discute de ce qui se fait réellement avec les I.A. qui est pourtant si passionnant (avec y compris des questions éthiques, juridiques, et des difficultés techniques qui mériteraient un débat vu leur importance. Mais rien à faire, on n'y arrive pas). C'est un peu maheureux et ne touche pas que le domaine de l'I.A. mais là c'est vraiment criant. Un curieux biais cognitif. : voir quelque chose de formidable mais ne pas le regarder car on est aveuglé par des fantasmes encore plus brillants. Ca porte un nom ça ? Un peu une forme "d'effet Ikea" ??? (la psycho et moi ça fait deux)

    Je suis un peu dur mais 5 min à regarder les discussions ici ou ailleurs sur l'I.A. est c'est vraiment très net.
    Dernière modification par Deedee81 ; 15/07/2022 à 07h47.
    "Il ne suffit pas d'être persécuté pour être Galilée, encore faut-il avoir raison." (Gould)

  26. #56
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Le site du gouvernement présente des applications*:

    https://www.etalab.gouv.fr/portefeuille-des-projets/

    Pour ce qui est de l'apprentissage, cette vidéo illustre certainement très bien les choses:



    Autres présentations des API - IA :

    https://experiences.microsoft.fr/art...-api%E2%80%AF/
    https://geekflare.com/fr/ai-apis/
    Sans questions il n'y a que des problèmes sans réponses.

  27. #57
    Bounoume

    Re : IA / Machines à prise de conscience de soi

    Citation Envoyé par Deedee81 Voir le message
    J'ai lu plusieurs articles sur les "I.A. et les maths" et s'il y a eut beaucoup de progrès (certaines I.A. pondent même des conjectures parfois pas mal du tout, mais dans des domaines restreints : les séries et les graphes) il leur manque clairement ce qu'humainement on qualifierait d'imagination et de créativité. Et il y a un chercheur en I.A. (son nom m'échappe) qui a dit "les U.A. actuel ont à peu près autant de sens commun qu'un rat"
    ( j'ai cherché en parallèle : c'est Yann LeCun)
    sauf erreur de ma part, dans le cas des recherches/vérifications/démonstrations de conjectures, ces 'intelligences artificielles' ne font pas appel aux techniques connexionnistes des réseaux de neurones, mais à autre chose..... évolution des systèmes experts? des programmations déclaratives genre D-prolog?
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  28. #58
    pm42

    Re : IA / Machines à prise de conscience de soi

    La rechercher en IA ce n’est pas que les réseaux de neurones mais beaucoup de techniques qu’on couple éventuellement ensemble.
    On utilise ce qui est le plus efficace et faire de
    L’inférence logique n’est d’ailleurs pas ce pour quoi les réseaux de neurones sont le plus efficace à commencer par le cerveau humain.
    Autant il apprend à reconnaître la voie, à parler et à voir très vite autant lui faire faire des maths correctement nécessite qu’il ait déjà atteint un certain âge, des années de formation et n’est possible que pour une petite partie d’entre eux.

    En cas de doute on peut lire le forum où malgré une population sélectionnée, les erreurs de logique sont fréquentes.

  29. #59
    pm42

    Re : IA / Machines à prise de conscience de soi

    Sur le même thème on n’utilise pas des réseaux de neurones pour apprendre à faire des additions et autres opérations.
    On a des algos et des circuits spécialisés qui font cela infiniment plus vite, sans erreur et en consommant beaucoup moins d’énergie.

    La recherche en IA n’est pas de reproduire le cerveau humain sauf quelques rares travaux et qui ont plutôt un objectif médical.

  30. #60
    Liet Kynes

    Re : IA / Machines à prise de conscience de soi

    Bonjour,

    depuis l'été dernier il y a chatGPT et d'autres à venir..

    Du coup certains échanges sont intéressants :

    L'expérimentation peut aider à mieux comprendre les phénomènes infinis, mais il est peu probable qu'elle puisse permettre à une IA de dépasser le problème de l'ignorance réelle. La compréhension de concepts tels que l'infini dépasse souvent les capacités cognitives de l'esprit humain, et il est peu probable que les capacités cognitives d'une IA soient considérablement différentes. Les limites de la conscience et de la connaissance sont des questions complexes qui nécessitent une réflexion approfondie.
    Sans questions il n'y a que des problèmes sans réponses.

Page 2 sur 5 PremièrePremière 2 DernièreDernière

Discussions similaires

  1. prise de conscience
    Par invite50c589f4 dans le forum Environnement, développement durable et écologie
    Réponses: 12
    Dernier message: 05/11/2008, 10h29
  2. Mauvaise orientation et prise de conscience tardive : besoin urgent d'aide
    Par invite89114c4d dans le forum Orientation après le BAC
    Réponses: 2
    Dernier message: 28/09/2008, 10h34
  3. signal video 1Vcc, prise péritel, prise antenne, prise cinch
    Par invitebac9162b dans le forum Électronique
    Réponses: 2
    Dernier message: 22/03/2003, 09h14