OpenAI a-t'il fait un pas vers l'AGI avec o3 ? - Page 4
Répondre à la discussion
Page 4 sur 5 PremièrePremière 4 DernièreDernière
Affichage des résultats 91 à 120 sur 129

OpenAI a-t'il fait un pas vers l'AGI avec o3 ?



  1. #91
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?


    ------

    Citation Envoyé par jiherve Voir le message
    bonjour,
    là :https://openai.com/o1/
    ou c'est encore chatGPT (c'est ce que je pense) ou c'est O1 dans tous les cas réponse incorrecte.
    Voir plus haut : ChatGPT n'est plus disponible depuis quelque temps et le modèle qu'on utilise est affiché en haut à gauche. Donc tu peux facilement savoir si c'est o1 ou pas.
    Pour le reste, je te laisse voir avec Cromagnon puisque vous êtes les seuls à avoir des résultats faux ou tout du moins à le prétendre.

    -----

  2. #92
    jiherve

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Re
    là tu commences à me gonfler j'ai donné ce prompt sur le site indiqué plus haut et j'ai obtenu ce résultat .
    capture d'écran :Nom : pour_ducon.jpg
Affichages : 165
Taille : 208,3 Ko
    là le modèle est indiqué GPT4 Omini , les gueux comme moi n'avons pas accès au Graal, ce qui permettrait de vérifier tes dires, moi tout le monde peut vérifier les miens .
    Je suis d'ailleurs étonné qu'un sachant comme toi n'ait pas immédiatement relevé la signature d'un modèle sans doute inadapté.
    JR
    l'électronique c'est pas du vaudou!

  3. #93
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Comme je disais, demande à Cromagnon : lui a le niveau pour t'aider

    P.S : si tu ne peux pas mettre une fois 20€ pour tester o1 pendant 1 mois à la place de donner ton avis sans connaitre, je suis d'accord que cela doit être très dur et je comprends ton agressivité et ton déclin cognitif vu que tu n'as sans doute pas mangé depuis des jours. Mais je n'emploierai pas le terme gueux qui est bien trop insultant.

  4. #94
    polo974

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    MERCI pm42,

    en 3 lignes de commandes j'avais mon IA perso active ! ! !

    (bon, en fait, j'ai décomposé par curiosité en 3 mais c'est faisable en 2...)

    (une ligne commençant par dièse est un commentaire)
    Code:
    # récup du script d'install de ollama
    wget https://ollama.com/install.sh
    
    # lecture du script pour les paranos...
    # ...
    
    # il faut faire confiance, il passe en sudo...
    # install
    sh install.sh
    # c'est rapide à installer sans GPU... (avec, je ne sais pas)...
    
    # lancement d'une toute petite IA (réseau intercontinental... :S:)
    ollama run qwen2.5:0.5B-instruct
    puis j'ai joué,
    puis j'ai lancé d'autres tailles d'IA:
    qwen2.5:1.5B-instruct
    qwen2.5:7B-instruct

    c'est vraiment trop simple... (pour le moment).

    et puis, il y a ceux ciblé codage (ici un petit):
    qwen2.5-coder:1.5B-instruct

    trop cool...

    merci encore
    Jusqu'ici tout va bien...

  5. #95
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Citation Envoyé par polo974 Voir le message
    # lecture du script pour les paranos...
    Sur ce genre de truc open-source, je parie sur le fait que plein de paranos avant moi ont vérifié, fait tourner dans une sandbox...

    Citation Envoyé par polo974 Voir le message
    c'est vraiment trop simple... (pour le moment).
    Oui c'est incroyable comment ça a progressé parce que il y a un an, c'était possible mais nettement moins immédiat. Et les modèles ramaient sur la même CPU.
    Donc plus haut, j'ai été pessimiste.

    P.S : je ne sais pas si tu as vu le message mais jette un oeil à AnythingLLM à l'occasion pour garder la trace de tes conversations maintenant que ollama est installé. Enfin, je suppose que tu as une interface graphique sur ton Linux et que tu ne bosses pas en 100% terminal

  6. #96
    polo974

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Nan, pas 100% console.
    J'utilise gimp, inkscape et 2 ou 3 autres en mode graphique

    Bon, maintenant, il faut que je trouve un truc utile à faire avec ça... Dans 3 mois, je suis à la retraite..
    Jusqu'ici tout va bien...

  7. #97
    polo974

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Bon, là, j'ai eu un cas d'école à soumettre à une IA domestique.
    Je voulais faire un tri dans les pdf qui traînent dans un dossier, donc une boucle sur les pdf, demander "remove/pass/visualiser/" puis après visualistion redmander "remove/pass"...

    J'ai donc lancé une ia orientée codage:
    ollama run qwen2.5-coder:7B-instruct

    et lui ai demandé (en un anglais très ... comment dire ... personnel):
    Code:
    """
    create a script that for each pdf file ask to remove/open/pass. 
    if remove, rm it 
    else if pass, continue the loop 
    else if open, run atril on it and ask to remove/pass and do the same action for the same response as before.
    """
    et ben, il m'a sorti un code bash tout à fait fonctionnel (dans les cases, j'ai juste ajouté des raccourcis r/o/p à remove/open/pass pour gagner du temps à la saisie (j'aurai dû le demander au départ).
    du coup, j'ai pu faire un tri et je suis passé de 600 pdf à 64 dans mon dépotoir...

    bon, pour jouer, j'ai fait la même demande en français, le script n'était ps tout à fait le même, mais aussi fonctionnel.

    je lui ai aussi demandé de me faire un tout petit truc en python utilisant le framework tornado et il connaît et répond bien (bon, c'était un tout petit truc...).
    j'ai corsé un poil le truc, et là, plouf, il y a quelques corrections à faire, mais bon, j'ai déjà un squelette facile à corriger.

    pour info, j'ai un i7 2 coeurs 2 "hyperthread" (donc 4 "pseudo coeurs") et 16G ram.
    ollama avec l'ia choisie (qwen2.5-coder:7B-instruct soit 7 milliards de paramètres) utilise 2 coeurs (donc 50% de cpu) et environ 5Go (33% de la ram)
    Jusqu'ici tout va bien...

  8. #98
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Cool. A titre d'info, je fais du shell depuis presque 40 ans, j'ai eu mon nom dans bash V1 et j'ai été admin système en début de carrière.
    Maintenant, comme j'ai Copilot (une IA d'aide au codage), je tape "?? fais ce que je veux" et il me génère la commande, me dit "est ce que c'est la bonne, est ce que tu veux l'exécuter ?".
    Ca rend fainéant mais d'un autre coté, faire des |, ``, xargs dans des find avec des awk, j'ai beaucoup donné

    Bonne soirée de réveillon à tous

  9. #99
    polo974

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Moi, j'ai commencé le shell fin 84, sous UNIX. En temps qu'électronicien hard et soft.
    Et puis j'ai dû passer du "côté obscur"...
    Je ne suis (re)venu à linux qu'en 2008, quelle délivrance...

    Bon, demain, opération AnythingLLM... Ça semble prometteur.

    Bonne année à toutes et tous (ici ont a 3 heures d'avance...).
    Jusqu'ici tout va bien...

  10. #100
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Bonne année.

    Pour te donner une idée des perfs, j'ai mesuré le temps pour la question des pains à QwQ32b.
    - Core I9 8 coeurs 2.4 Ghz : 50 min à 1h15
    - Xeon 12 coeurs 3.33 Ghz : 12 à 15 min
    - Core I7 mais avec une GPU RTX 3090, un truc qui vaut dans les 600€ d'occas aujourd'hui : 1 à 2 min en moyenne, 4 max

    J'ai juste pris ce que j'avais sous la main et donc pas testé sur une CPU récente comme un Mac M3/M4 ni sur une GPU pro du boulot.
    Mais cela donne une idée ce qu'il faut si on veut faire tourner soi même au delà de l'expérimentation : 32 Go de mémoire au moins, plutôt 64 ou 128 si possible et une bonne GPU.

  11. #101
    polo974

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Ah, purée, j'ai pas autant de puissance de feu...
    Bon, aujourd'hui, j'ai pas branché le pc, juste réparé la pompe du jacuzzi, un petit truc gonflable, juste de quoi avoir une réserve d'eau (oui, on a régulièrement des coupures d'eau à la Réunion) et de quoi faire trempette, ce que j'ai fait dans la foulée.
    Bref, les priorités ont changé.

    Ce reste de semaine, AnythingLLM...
    Je vais frimer devant les collègues ...
    Jusqu'ici tout va bien...

  12. #102
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Citation Envoyé par polo974 Voir le message
    Ah, purée, j'ai pas autant de puissance de feu...
    Pour ton pot de départ en retraite, demande une GPU et des barrettes mémoire plutôt que la montre traditionnelle. En plus de l'IA, cela permet de jouer à des jeux vidéo
    Dernière modification par pm42 ; 01/01/2025 à 15h59.

  13. #103
    Liet Kynes

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    L'agi n'est-elle pas un pipo conceptuel, dans la limite ou la connerie humaine n'a pas de limites ?
    Sans questions il n'y a que des problèmes sans réponses.

  14. #104
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Citation Envoyé par Liet Kynes Voir le message
    L'agi n'est-elle pas un pipo conceptuel, dans la limite ou la connerie humaine n'a pas de limites ?
    Tu essaies de le démontrer ? A titre personnel, tu y arrives très bien mais heureusement, tu n'es pas du tout représentatif de l'humanité qui comprend beaucoup de gens loin devant. Et je ne parle pas des IAs actuelles qui sont aussi toutes nettement plus intelligentes que toi.

  15. #105
    jiherve

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    bonsoir
    saurais tu définir de façon précise ce qu'est l'intelligence?

    JR
    l'électronique c'est pas du vaudou!

  16. #106
    Cromagnon

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Citation Envoyé par Lier Kynes
    L'agi n'est-elle pas un pipo conceptuel, dans la limite ou la connerie humaine n'a pas de limites ?
    Pour l'instant c'est ça.
    Du gros pipo myhto, mais certains, ceux par exemple qui font rêver les gogos avec openai-o3 et plus si affinité, ont quand même des raisons intelligentes pour les mener en bateau.
    Si Openai a pondu un AGI, alors la société peut se soustraire à ses obligations de partager ses bénéfices avec Microsoft.
    C'est contractuel.
    Donc là, il sont en train d'expliquer qu'il commencent à avoir un AGI, en modifiant si besoin (et ils le font) la définition d'un AGI.
    Comme c'est un concept fumeux, il y a matière à broder.


    L'AGI, botte secrète de Sam Altman pour se soustraire à Microsoft

    Source de cette discorde : le contrat qui les lie est très avantageux pour Microsoft. OpenAI doit lui reverser une part importante de ses revenus, et ses meilleurs modèles sont commercialisés en priorité sur Azure et avec des tarifs préférentiels. C'est la contrepartie des lourds investissements de Microsoft dans la start-up. Il existe cependant une clause qui pourrait libérer OpenAI de ses obligations. Elle concerne "l'intelligence artificielle générale" ou AGI.

    Un concept à la définition vague et changeante, qui est généralement compris comme désignant un système doté d'une conscience et d'une identité propre. Un être vivant artificiel, en quelque sorte. Le concept est controversé et la communauté scientifique est divisée sur sa faisabilité. Les fondateurs d'OpenAI, pour leur part, y croyaient dur comme fer à sa création. Et le contrat liant OpenAI à Microsoft ne s'appliquerait pas à une éventuelle AGI. "L'AGI est explicitement exclue de tous les accords de licence commerciale et de propriété intellectuelle", selon le site web de la start-up.
    L'AGI arriverait dès l'année prochaine, mais ne serait finalement pas une révolution

    Lors d'une interview au NYT DealBook Summit le 5 décembre, Sam Altman a rappelé des chiffres clés (300 millions d'utilisateurs actifs hebdomadaires, 1 milliard de messages quotidiens, 1,3 million de développeurs américains sur la plateforme) et abordé plusieurs sujets incluant Elon Musk, l'AGI, et les tensions avec Microsoft. S'il admet que les deux entreprises ne sont plus en phase sur tous les sujets, il tient à rappeler qu'elles le sont bel et bien sur les priorités business.

    Mais il estime surtout que l'AGI arrivera "beaucoup plus tôt que quiconque ne s'y attend", avec "les premières manifestations potentielles en 2025". Il a par ailleurs précisé que ce ne sera pas une révolution, contrairement à ce qu'il prédisait par le passé, et que la transformation fantasmée de la société sera au final très progressive.
    https://www.usine-digitale.fr/articl...dylle.N2224054

  17. #107
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Après un moment où on a parlé d'IA, on a le retour des trolls dont pas un n'est même capable de s'en servir avec bien sur Cromagnon qui va continuer à nous faire des copier-coller des résultats de ses recherches Google qu'il ne comprend pas

    Nouvelle année, même emmerdeurs finis fiers d'être totalement ignorants.

  18. #108
    jiherve

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Re
    les insultes comme d'habitude(je suis d'ailleurs étonné de la mansuétude des modérateurs à ton égard) mais point de réponse au moins çà c'est presque une constante universelle.
    JR
    l'électronique c'est pas du vaudou!

  19. #109
    Cromagnon

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Citation Envoyé par pm42
    Après un moment où on a parlé d'IA, on a le retour des trolls dont pas un n'est même capable de s'en servir avec bien sur Cromagnon qui va continuer à nous faire des copier-coller des résultats de ses recherches Google qu'il ne comprend pas

    Nouvelle année, même emmerdeurs finis fiers d'être totalement ignorants.
    Merci en tous cas de nous avoir instruit sur les AGI en nous montrant comment installer une LLM sur son PC.
    Mais c'est quoi le rapport ?!!??
    Dites-nous tout...

  20. #110
    Cromagnon

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Allez un p'tit dernier pour rire.
    L’AGI est déjà parmi nous d’après cet employé d’OpenAI

    Dans son post, Vahid Kazemi ne prétend pas que les systèmes d’OpenAI surpassent les humains dans toutes les tâches, mais qu’ils excellent dans la plupart des cas. « Nous n’avons pas réussi à faire mieux que n’importe quel humain dans n’importe quelle tâche, mais nous avons réussi à faire mieux que la plupart des humains dans la plupart des tâches », a-t-il expliqué.

    Cette approche présente une vision pratique et pragmatique de l’AGI. Et je trouve que c’est plutôt éloignée de la définition classique qui implique une intelligence capable d’égaler un humain dans tout domaine.
    In my opinion we have already achieved AGI and it’s even more clear with O1. We have not achieved “better than any human at any task” but what we have is “better than most humans at most tasks”. Some say LLMs only know how to follow a recipe. Firstly, no one can really explain…
    — Vahid Kazemi (@VahidK) December 6, 2024
    Vahid Kazemi souligne donc que si l’IA ne rivalise pas avec les experts humains sur des compétences spécifiques, sa capacité à réaliser une multitude de tâches différentes est sans égal. C’est cette polyvalence qui, selon lui, pourrait déjà valider le concept d’AGI.

    https://www.lebigdata.fr/nous-avons-...nfin-la-verite

    Donc o3 AGI ou pas ?
    Avec o1 un employé d'Openai (autant le demander à ceux qui le font) on a déjà de l'AGI avec o1, donc o3, pfff imaginez.

    Alors suspens. AGI ou pas ?
    Suffisait de changer la définition, c'est tout con.

    Une AGI c'est quand une IA peut faire mieux que la plupart des humains dans la plupart des tâches...


    Analysons ce raisonnement.
    Et donc pour dire ce que signifie la "plupart", il suffit de dire que c'est truc, machin, bidule etc, oui et conduire aussi mais même si l'IA n'y arrive pas, vous savez il fait tant d'autres choses très bien que statistiquement ça compense.
    Donc il suffit de noyer le poisson, en disant que l'IA fait plein plein de trucs, et donc statistiquement les quelques trucs qu'il fait pas, ben c'est négligeable.
    C'est malin en tous cas, je lui tire mon chapeau.

  21. #111
    JPL
    Responsable des forums

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Citation Envoyé par jiherve Voir le message
    je suis d'ailleurs étonné de la mansuétude des modérateurs à ton égard
    Tu devrais plutôt parler de la mansuétude de la modération à votre égard, car quand certains d’entre vous interviennent le niveau devient lamentable. Faudrait-il donc fermer toutes les discussions dans lesquelles des saboteurs interviennent ? Certes pm42 est rugueux dans ses réponses, et je le regrette, mais il dit souvent des choses qui permettent de faire avancer la compréhension.
    Rien ne sert de penser, il faut réfléchir avant - Pierre Dac

  22. #112
    Bounoume

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    car quand certains d’entre vous interviennent le niveau devient lamentable. les errements sont divertissants, et, parfois, instructifs.....'même le diable porte pierre': proverbe breton.... je crois.... quoique..... ?
    Par exemple, les versions foisonnantes (et commentées...) des 'réponses' des LLM , dans des contextes +- imprécis voire conflictuels.... elles m'ont beaucoup démonté la complexité des 'raisonnements' exposés par les humains, avec leur progression dans des univers de 'vérités' implicites, ambiguës, contradictoires.... de chemins logiques distincts amenant à des conclusions incompatibles.... '

    cela met en évidence UNE des difficultés à simuler la fameuse Intelligence Générale: la base de travail d'une AGI devrait être (au mieux...) une copie de la base de 'raisonnement' des humains.. ou vulgairement,...... de la PENSEE humaine!

    Cette base comprend bien sûr les connaissances explicites et exprimées par la Science, la littérature, etc..., mais aussi des connaissances qui vont orienter la démarche de résolution des problèmes, les opérations d'inférence exécutées, les arbitrages en cas de contradictions etc......

    Or il semble bien que tout ça soit fondamentalement incohérent et contradictoire dans nos têtes même bien faites....,
    Alors comment extraire et reproduire ces informations........ au mieux.... pour que le résultat des traitements ne soit pas plus halluciné que chez nous?
    Même avec in extremis des alignements.... de plus en plus lourds à mettre en oeuvre quand l'objectif devient plus vaste.....
    Pourra-t-on aller encore bien plus loin qu'actuellement?

    Ce que je perçois de l'actualité est déjà bluffant, déjà quasi merveilleux.... alors ..continuons.....
    bonne année quand même.....
    rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)

  23. #113
    Avatar10

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Rugueux? MH34 a déjà repris des personnes rugueuses en disant que c'est intolérable, même si amenant des informations utiles, il y a une charte et la convivialité, tout le monde peut déraper, mais certain ne font que ça, être "rugueux", c'est déjà bien, vous le regrettez donc l'admettez, bon ben je vais avoir mon carton pour ce post, vous allez faire votre boulot vis à vis de moi, comme quoi vous pouvez le faire, après pourquoi pas vis à vis de tout le monde, y compris pm42...mystère

  24. #114
    JPL
    Responsable des forums

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Tu te calmes, s’il te plaît !
    Rien ne sert de penser, il faut réfléchir avant - Pierre Dac

  25. #115
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Citation Envoyé par Bounoume Voir le message
    elles m'ont beaucoup démonté la complexité des 'raisonnements' exposés par les humains, avec leur progression dans des univers de 'vérités' implicites, ambiguës, contradictoires.... de chemins logiques distincts amenant à des conclusions incompatibles.... '

    cela met en évidence UNE des difficultés à simuler la fameuse Intelligence Générale: la base de travail d'une AGI devrait être (au mieux...) une copie de la base de 'raisonnement' des humains.. ou vulgairement,...... de la PENSEE humaine!
    Oui. C'est quelque chose de connu en IA et un problème depuis très longtemps, bien avant les progrès depuis 10 à 15 ans avec les réseaux de neurones.
    Par exemple, on a fait de l'IA symbolique : des systèmes de règles dont un des exemples les plus connus étaient les systèmes experts.

    Quand on voulait s'en servir pour traiter le langage naturel, on tombait sur le problème de la cohérence. Par exemple, on a un système avec plein de règle sur la littérature et on veut lui poser des questions.
    Dedans, on a
    "les vampires peuvent se transformer en chauve-souris"
    et plus loin :
    "les vampires n'existent pas"

    Sauf que chacune est vrai dans un contexte différent, la 1ère dans le monde imaginaire des romans sur le sujet, la 2nde dans notre monde. Et cela bloque tout en terme de gestion des règles.
    On a donc introduit le concept de contexte mais on s'en rendu compte que dès qu'on modélisait un domaine assez grand, on avait forcément des problèmes comme ça, parfois à travers pas 2 mais n règles, que une erreur dans une règle suffisait à tout casser, etc.

    Les LLMs n'ont absolument pas ce problème mais effectivement, ils en ont d'autres notamment les célèbres hallucinations : ils ne savent pas quand ils ne savent pas.
    Bien sur, les humains sont largement pires mais on attend de nos ordinateurs une fiabilité plus grande que de nous-même ou plus exactement, on règle le problème chez les humains autrement : pour les tâches critiques, on prend des experts formés, sélectionnés et qui se vérifient entre-eux. C'est même un des principes de la science mais pas que.

    On peut faire la même chose avec les LLMs et cette approche est actuellement testée ou déployée ou du moins des variantes, on peut voir par exemple :
    https://aws.amazon.com/fr/blogs/mach...edrock-agents/
    et
    https://aws.amazon.com/fr/blogs/aws/...mazon-bedrock/

    Vu la quantité de recherche sur le sujet, il est probable qu'on arrive à limiter à terme les hallucinations sérieusement.
    Après tout, quand ChatGPT est sorti, on a eu notamment ici une batterie de messages très méprisant expliquant qu'il ne savait pas faire des tâche simples comme compter les lettres d'une phrase, etc.
    A l'époque, j'avais expliqué que c'était normal pour un LLM et qu'elles étaient les solutions étudiées.
    Elles sont arrivées nettement moins de 1 an plus tard et aujourd'hui, la capacité à calculer, raisonner, faire des maths simples d'un LRM est sans aucune mesure avec celles de ChatGPT, largement au niveau de bien des humains. Aucun des critiques de l'époque n'a reconnu ses erreurs bien sur parce que contrairement aux IAs actuellement, la plupart des humains cessent massivement d'apprendre et de progresser quelque part entre 20 et 30 ans.

    On verra s'il se passe la même chose avec les hallucinations qui sont un sujet qu'on comprend déjà nettement mieux qu'il y a 2 ans.

    Citation Envoyé par Bounoume Voir le message
    Or il semble bien que tout ça soit fondamentalement incohérent et contradictoire dans nos têtes même bien faites....,
    Je ne crois pas que nos têtes soient bien faites. Plus exactement, je pense que personne n'est "intelligent", c'est à dire qu'on est tous limités, biaisés, capables d'erreurs énormes...
    Mais certains d'entre nous développent des compétences, c'est à dire la capacité à accomplir certaines tâches précises avec un taux d'erreur faible. Une étude avait montré que c'était de l'ordre de 5% pour pratiquement tous les niveaux dans une entreprise de l'agent d'entretien au PDG.
    Je parle des gens compétents bien sur. Il y a quelques humains qui sont capables d'approcher le 100% d'échec notamment quand ils s'obstinent en dehors de leur domaine de compétence.

    Citation Envoyé par Bounoume Voir le message
    Alors comment extraire et reproduire ces informations........ au mieux.... pour que le résultat des traitements ne soit pas plus halluciné que chez nous?
    Parmi les pistes :
    - limiter le domaine des IAs, ne pas leur demander de tout faire comme actuellement les LLMs
    - en faire collaborer plusieurs
    - faire de la vérification par l'IA elle-même ou par d'autres
    - travailler dès l'entrainement pour minimiser mais c'est compliqué vu qu'on peut se demander si une IA n'est pas comme un humain une machine à "comprimer" de l'information, stockant beaucoup plus d'infos qu'elle n'a de paramètres et que donc, on a une perte qui explique qu'en sortie, on ne puisse pas avoir du 100% fiable.

    Citation Envoyé par Bounoume Voir le message
    Même avec in extremis des alignements.... de plus en plus lourds à mettre en oeuvre quand l'objectif devient plus vaste.....
    Pourra-t-on aller encore bien plus loin qu'actuellement?
    C'est une autre bonne question. Déjà, on n'y arrive pas sur les humains ni même sur les animaux dressés à 100%, loin de là.
    Ensuite, c'est encore plus flou puisqu'un alignement suppose un jeu de valeur ou l'expression d'un "désir de comportement" qui sont intrinsèquement flous.
    C'est d'ailleurs le thème de 2001 et de HAL ou plutôt de la suite 2010 : on a aligné l'IA sur "tu dois traiter l'information rigoureusement et la communiquer sans distorsion aux humains" lors de son entrainement.
    Puis on lui a demandé de mentir aux deux astronautes éveillés, la vraie mission n'étant connue que de ceux en hibernation.
    Conclusion de l'IA : on me demande quelque chose de contradictoire. Comment résoudre ? Et elle arrive à la solution que si les humains à qui elle doit mentir ne sont plus là, ça marche.

    Bien sur, c'est un peu simpliste mais c'est un bon exemple et en plus pas récent des problèmes qu'on rencontre dès qu'on se confronte à l'infini complexité et nuance du réel, quelque chose que la plupart des articles et discours (ou messages ici et ailleurs) sur le sujet omettent parce qu'une autre caractéristique des humains, c'est qu'aucun n'a le même jeu de valeur exact mais qu'ils sont presque tous persuadés que le leur est le bon, qu'il devrait être universel. Et une grande partie trouve tout à fait normal qu'on l'impose pas la force (pas forcément physique mais éventuellement).

    Citation Envoyé par Bounoume Voir le message
    Ce que je perçois de l'actualité est déjà bluffant, déjà quasi merveilleux.... alors ..continuons.....
    Je trouve aussi. Je demande même en ce moment comment je faisais pour travailler avant l'IA tellement je gagne en temps et je perds en frustration.

    Citation Envoyé par Bounoume Voir le message
    bonne année quand même.....

  26. #116
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Sinon, pour revenir sur ce que j'ai posté plus haut sur les GPU qui font 10 à 50 fois plus vite au moins dans l'exemple, il faut voir que la révolution des réseaux de neurones est en grande partie due à ça.
    Parce que quand on fait de la recherche, entre entrainer un modèle pendant 1h, le tester, se rendre compte qu'on pourrait sans doute améliorer ça en faisant ceci et avoir le résultat rapidement vs attendre au mieux le lendemain, cela change tout : on devient brutalement plus créatif puisqu'on peut explorer large rapidement et à faible coût.

    L'autre chose fondamentale est l'open-source, d'abord pour les gros frameworks que sont TensorFlow et Pytorch qui permettent de faire un réseau en 1 journée quand avant il fallait 3 mois de travail pour tout construire à la main et aujourd'hui pour les modèles comme on a pu le voir avec polo974.

    Cela permet notamment à des gens de réentraîner pour les adapter des modèles existants qu'ils n'auraient pas pu construire complètement eux-mêmes.
    Là aussi, cela permet beaucoup d'explorations et le fait d'avoir un site où on a tout comme Huggingface aide énormément. C'est le github de l'IA. Et on pourrait citer plein d'autres sites et outils, Kaggle, langchain, etc.

    Je parle de cela parce que très souvent dans les articles sur l'IA dans la presse grand public, il y a le discours "les méchants GAFAM contrôlent tout et vont forcément tout dominer".
    Et typiquement, ces gens là ne parlent pas que PyTorch, c'est Meta, Tensorflow, c'est Google, Qwen et QwQ c'est Alibaba et que justement il y cet énorme ensemble de ressources qui aujourd'hui ont juste 1 ou 2 ans de retard par rapport à la pointe de ce que font les boites commerciales mais qui dans quelques années devraient permettre à de petites structures de faire des choses intéressantes à bas coût.

  27. #117
    Cromagnon

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Tient justement en parlant de tout ça, quelqu'un s'est posé la question ici pourquoi openai-o3 n'a pas été ouvert au public via un abonnement ?

  28. #118
    pm42

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Citation Envoyé par Cromagnon Voir le message
    Tient justement en parlant de tout ça, quelqu'un s'est posé la question ici pourquoi openai-o3 n'a pas été ouvert au public via un abonnement ?
    Oui il suffit de lire les articles dessus et c'est comme pour tous les modèles précédents.

  29. #119
    oualos

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Citation Envoyé par jiherve
    bonsoir
    saurais tu définir de façon précise ce qu'est l'intelligence?

    JR
    L'intelligence ?

  30. #120
    GBo

    Re : OpenAI a-t'il fait un pas vers l'AGI avec o3 ?

    Pour François Chollet, principal auteur du désormais célèbre benchmark ARC-AGI, il y a deux grandes familles de définitions de l'intelligence:

    Nom : Locke.png
Affichages : 32
Taille : 766,2 Ko

Page 4 sur 5 PremièrePremière 4 DernièreDernière

Discussions similaires

  1. Réponses: 0
    Dernier message: 01/09/2024, 14h56
  2. W10 Restauration vers W7 ne se fait pas
    Par invite16a13ae1 dans le forum Logiciel - Software - Open Source
    Réponses: 1
    Dernier message: 17/08/2015, 21h38
  3. Réponses: 3
    Dernier message: 29/12/2011, 17h37
  4. est ce que youtube fait exprès de limiter le streaming vers quelques pays?
    Par invite6bef72f3 dans le forum Internet - Réseau - Sécurité générale
    Réponses: 8
    Dernier message: 28/08/2011, 14h55
  5. Quel progrès médical aurait fait baisser le nombre d'épidémies vers 1750 en Europe?
    Par invitef4421bf9 dans le forum Santé et médecine générale
    Réponses: 5
    Dernier message: 26/09/2007, 09h16