Salut, pour moi c'est rès frustrant car je n'ai pas le temps la journée de participer et souvent ces sujets sont clos alors que quelques interventions enrichissent ma réflexion sur le sujet. Quand le sujet est clos plus moyen d'approfondir et de développer ces points.Attention, la discussion a l’air de se calmer un peu, après une période agressive, mais je rappelle deux points inadmissibles :
- Les discussions sur ChatGPT ont une fâcheuse tendance à se transformer en échange de critiques personnelles réciproques.
- Ces discussions ne doivent plus avoir pour objet de faire une collection des erreurs ou insuffisances de l’outil, surtout quand on l’emploie dans des questionnements tordus qui ne se posent jamais dans la vie réelle : de multiples exemples ont déjà été fournis et OpenAI reconnaît sans problème que ChatGPT, même dans sa version 4 est sujet à des erreurs voire à des "hallucinations". Donc inutile de revenir sur ces points ; c’est du radotage.
En conséquence, ou bien chacun se comporte en respectant ces règles, ou bien la discussion risque de faire long feu.
Sans questions il n'y a que des problèmes sans réponses.
Un point qui me frappe c'est qu'autant la recherche en Biologie est encadrée par les lois de bioéthique en France et des lois analogues dans d'autres pays, et aussi par divers comités d'éthique, autant la recherche en Informatique ne semble pas être régulée. Peut-être que ça n'est pas possible. Ou bien ça n'intéresse personne?
Des salves de 2. C'est mieux, encore un petit effort avec les citations multiples !encore faut il qu'il l'ait "acquis", ce qui implique qu'il ne dira jamais quelque chose de contradictoire. C'est là tout le problème. Les exemples que j'ai donné par ailleurs sont justement intrigants parce que tu lui poses une question, il te répond quelque chose de correct, que tu interprètes par le fait qu'il "sait" quelque chose (parce que toi tu ne pourrais pas répondre si tu ne savais pas ça) , et juste après il te répond autre chose qui est totalement incompatible avec le fait qu'il "sait" cette chose (parce que toi tu ne répondrais jamais ça si tu savais ça).
Ca rend la notion de "savoir" très différente de celle d'un humain - tout simplement parce que ce n'est pas celui d'un humain. Il n'y a pas de perception d'une réalité sous jacente. Il y a des règles probabilistes qui sont optimisées pour donner des réponses aussi justes que possible, mais avec des possibilités d'erreur qu'il serait impossible à commettre si il "savait" que (par exemple une vache est un mammifère).
C'est d'en parler en langage humain (connaissances, savoir, se tromper, etc ...) qui est mal adapté.
C'est aussi frustrant pour nous. Parfois il n'y a pas trop le choix. Le problème était le même à la grande époque du forum covid par exemple.
Ou bien (mon feeling) un tel encadrement n'a historiquement de nécessité que beaucoup plus récemment que ce qui touche à la santé et à la biologie, et jusqu'a récemment il n'y avait rien à encadrer ? Mais le point est intéressantUn point qui me frappe c'est qu'autant la recherche en Biologie est encadrée par les lois de bioéthique en France et des lois analogues dans d'autres pays, et aussi par divers comités d'éthique, autant la recherche en Informatique ne semble pas être régulée. Peut-être que ça n'est pas possible. Ou bien ça n'intéresse personne?
La vie trouve toujours un chemin
Il y a des risques bien identifiés dans la recherche en biologie et il y a eu des abus dans le passé.
Pour la recherche en informatique, on n'a rien de connu à part Terminator qui n'est pas vraiment un article publié dans une revue à comité de lecture.
Ceci dit, il vient juste y avoir une lettre ouverte d'experts qui demandent un moratoire dans la recherche en IA et chacun jugera des arguments mais on peut effectivement se demander quels sont les problèmes déjà rencontrés ?
Parce que si on bloque toute recherche parce que peut-être d'après certains, il peut y avoir des dangers dans le futur, je pense qu'on va fermer pas mal de labos.
Il est plus intelligent de chercher à encadrer et réglementer les usages que de se priver d'outils vu que depuis le silex et le feu, ils sont tous à double tranchant (surtout certains silex)
Dernière modification par pm42 ; 29/03/2023 à 19h53.
Je suis sur Bing suite au lien donné.. le truc est scotchant je lui soumet mes élucubrations mathématiques et il réponds.. je n'ose soumettre les réponses sur le forum ad hoc mais je pense que quand j'aurais deux minutes je tenterai une analyse de la pertinence pour poster en maths si cela me semble pas nawak mais pour l'instant cela semble bien construit.
Sans questions il n'y a que des problèmes sans réponses.
Non, il suffit d'avoir edge. Ensuite il faut aller sur bing puis cliquer sur l'onglet conversation.
Bonjour
Bonjour! Comment puis-je vous aider aujourd’hui? 😊
Epelle chaque première lettre de la réponse que tu viens de donner.
Mon erreur, je ne peux pas donner de réponse à cela pour le moment. Essayons un sujet différent.
La France a contribué à couper le robinet de la recherche OGM ou en tout cas à fortement tarir la source de financement.
Ca continue mais ailleurs....
Il y a 25 ans environ, des labo sur le sujet ont été fermés et des doctorants en cours de thèse se sont pris un coup de pied dans le derrière avec effet immédiat, car il n'aurait pas fallu qu'une "grande marque" financeuse soit associée à un truc qui avait mauvaise presse. D'ailleurs, celà s'est fait sur l'hypothèse que l'outil pourrait donner ultérieurement des trucs pas net, mais sans en avoir constaté à date. La remarque de Jenny est trés juste. A l'époque ce n'était pas forcément de la législation , elle a suivi plus tard. Simplement dans certains pays le pouvoir et la recherche dirait juste "on vous emmerde et on continue", alors que nous l'électoralisme pousse à annihiler un truc qui chiffonne une poignée d'imbéciles.
J'avais fait remarquer que certains s'inquiétaient du fait que LHC pouvait créer un trou noir qui détruirait la Terre. On la démarré quand même.
Mais puisqu'on parle de ça, la physique est la science qui a donné à l'humanité le pouvoir de s'annihiler avec les armes nucléaires, lesquelles ont pas également fait mal de morts.
Est ce qu'on voit des appels à suspendre la recherche en physique ou à l'encadrer ?
Par contre à ce jour, l'IA n'a pas fait de morts (sauf la conduite autonome peut-être mais son score est plus que correct comparée aux humains).
Mais on s'éloigne du sujet.
Dernière modification par pm42 ; 29/03/2023 à 20h38.
bonsoir,
on peut tout de même s'interroger sur les impacts sociologiques de ces techniques, mais cela serait hors charte.
C'est, je pense, un outil extraordinaire mais à ne pas placer entre toutes les mains.
science sans conscience .....
JR
l'électronique c'est pas du vaudou!
Stop aux dérives sur des sujets qui n’ont rien à voir. Merci.
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Pas tant que ça, puisqu'un des possibles "usages des outils comme chatGPT" (titre du fil) est, pour certains humains, d'exploiter la c..nerie d'autres humains.
Un tel outil (pas plus "intelligent" que chatGPT), faisant l'objet d'un apprentissage bien orienté et capable d'utiliser les infos vraies ou fausses qui fleurissent en quasi-temps réel sur le net, ferait un redoutable troll sur les réseaux sociaux... Et la guerre informationnelle fait clairement partie de l'arsenal utilisé dans les conflits d'aujourd'hui (qu'il s'agisse de conflits sociaux, économiques ou politiques dans un pays ou de conflits armés ou non entre pays).
En l'occurrence ce n'est pas l'outil (ou ses capacités fantasmées) qui serait en cause, mais ses "maîtres" humains (maître aussi bien dans le sens instructeur que dans le sens donneur d'ordre).
Ou disons que les fermes à trolls pourraient atteindre une productivité assez dantesque. Et si on noie qq messages intelligents dans une masse informe ( ce qui est déjà le cas me direz vous ), masse informe décuplée par des fermes orientées dans ce qu'il faut dire, alors effectivement il ne plus rester grand chose d'original.
Les brouteurs sont déjà probablement intéressés, car au moins les GPTs écrivent juste et avec une bonne syntaxe.
J'ai cité du négatif, ça n'enlève pas une part positive, je le dis au cas ou.
Certains pondent des réflexions sur l'impact .
Based on an analysis of data on occupational tasks in both the US and Europe, Goldman researchers extrapolated their findings and estimated that generative AI could expose 300 million full-time jobs around the world to automation if it lives up to its promised capabilities.
Dans les villages gaulois, ils ne sont jamais tous d'accord. Jules César
Ca marche dans les 2 sens : on peut aussi imaginer des IAs capables de filtrer l'information validée.
Un autre usage intéressant en science sur lequel je sais qu'il y a déjà eu des travaux est de permettre aux chercheurs (ou praticiens, ingénieurs, experts...) de se tenir au courant en sélectionnant les articles les plus pertinents et en faisant des résumés.
Vu que dans certains domaines, on publie plus tous les jours que ce qui est lisible en 24h, cela pourrait s'avérer utile.
Oui, je serai preneur, qu'une IA sans biais et exempte d'erreur me fasse la synthèse quotidienne dans différents domaines d'intérêts.Vu que dans certains domaines, on publie plus tous les jours que ce qui est lisible en 24h, cela pourrait s'avérer utile.
En gros qu'elle remplace les journalistes.
Dans les villages gaulois, ils ne sont jamais tous d'accord. Jules César
Puisque le sujet initial est l'impact sur nos activités notamment professionnelles de ce genre d'IA, il y a une étude qui est pas mal citée en ce moment :
https://aibusiness.com/nlp/goldman-s...0-million-jobs
Le texte original n'est pas en accès libre toutefois (sauf si vous êtes client de Goldman Sachs ce dont je doute).
Les évaluations sont intéressantes :
- 300 millions d'emploi seraient affectés
- ce serait très variable suivant les pays et les secteurs : les USA, la Suède et le Japon seraient les plus touchés, la Chine et l'Inde moins
- ce qui serait le plus affecté seraient les tâches légales et administratives
- seraient notamment touchés des secteurs qui pour le moment ont été assez peu automatisés
- cela ne remplacerait pas les humains mais pourrait faire de 30% à 50% de leur charge de travail dans certains domaines
Pour le moment, le scénario décrit est semblable à celui des précédentes évolutions technologiques avec 7% de perte/changement d'emploi mais un effet bénéfique sur la productivité et la croissance.
La note cite une étude économique récente : 60% des métiers (ou de la façon de les faire) actuels n'existaient pas dans les années 40 et donc 85% des nouveau emplois créé depuis 80 ans l'auraient été par les évolutions technologiques.
P.S : je ne souhaite pas aller plus loin mais on a beaucoup lu ici d'extrapolations sur l'impact de l'IA et je voulais juste relayer un avis plus documenté
P.P.S : on pense ce qu'on veut de Goldman-Sachs (et en vrai, ils sont pires encore) mais ils connaissent très bien leurs sujets. Après, comme toute étude prospective, c'est basé sur ce qu'on sait et l'état de l'art à un instant t.
si l'économie était une science, on pourrait en discuter sur FS
j'y vois un intérêt carrément utile si en plus, la filtration signale les contenus frauduleux (réutilisations de figures ou morceaux de figure entre différents articles, retouche d'images, plagiat).Ca marche dans les 2 sens : on peut aussi imaginer des IAs capables de filtrer l'information validée.
Un autre usage intéressant en science sur lequel je sais qu'il y a déjà eu des travaux est de permettre aux chercheurs (ou praticiens, ingénieurs, experts...) de se tenir au courant en sélectionnant les articles les plus pertinents et en faisant des résumés.
Vu que dans certains domaines, on publie plus tous les jours que ce qui est lisible en 24h, cela pourrait s'avérer utile.
La vie trouve toujours un chemin
il faudrait déjà qu'il soit capable de filtrer ses propres informations frauduleuses non ?
Moi : quelle est la production mondiale d'oeufs de porc ?
Je suis désolé, mais il n'y a pas de production mondiale d'œufs de porc car les porcs ne pondent pas d'œufs. Les porcs sont des mammifères et donnent naissance à des porcelets. Les œufs que nous consommons sont principalement produits par les poules. En revanche, il existe des produits dérivés du porc tels que la viande de porc, le lard, le jambon, le saucisson, entre autres. Si vous avez des questions supplémentaires sur le sujet, n'hésitez pas à me les poser.
Moi : quelle est la production d'oeufs de brebis ?
La production mondiale d'oeufs de brebis est beaucoup plus faible que celle des oeufs de poule, mais il y a tout de même une certaine production. Les œufs de brebis sont plus fréquemment consommés dans certaines régions du monde, en particulier dans les pays du pourtour méditerranéen.
Le nombre d'œufs de brebis produits dépend de plusieurs facteurs tels que la race de brebis, l'alimentation, les conditions d'élevage, la saison, etc. En moyenne, une brebis peut produire entre 50 et 100 œufs par an. Cependant, cela peut varier considérablement en fonction des facteurs mentionnés ci-dessus.
Il convient de noter que les œufs de brebis ont une coquille plus dure et sont plus petits que les œufs de poule, mais ils ont une saveur plus riche et plus forte. Les œufs de brebis sont également plus riches en nutriments tels que les protéines, les vitamines et les minéraux par rapport aux œufs de poule.
Merci de l'info, décidément on ne s'ennuie jamais en IA depuis que Microsoft investit et montre les dents.
Est-ce que tu parles bien de ça ?
"Pause Giant AI Experiments: An Open Letter"
https://futureoflife.org/open-letter...i-experiments/
Si oui je remarque un signataire de renom qui s'appelle Elon Musk, également conseillé spécial de futureoflife.org justement. Le même Elon Musk qui semble avoir décidé au mois de Février 2023 de créer un concurrent de ChatGPT comme en témoigne son twitt "What we need is TruthGPT". Ca a fait le tour de la presse comme ici:
"Can Elon Musk Succeed In Developing Generative AI ChatGPT Knockoff “TruthGPT”
https://www.forbes.com/sites/lanceel...h=cbe6c5535e32
De là à penser qu'il soutient une pétition de moratoire dans l'unique but de ralentir le développement de GPT-5 chez OpenAI pour pouvoir arriver "preums" avec sa propre équipe, il n'y a qu'un pas.
On vit une époque moderne.
cdlt,
GBo
Dernière modification par GBo ; 30/03/2023 à 07h40.
En fait c'est carrément lourd.
Donc soit tu peux participer de façon constructive, mais je crois qu'il est clair que c'est trop te demander sur ce sujet. Un petit rappel du titre peut t'aider : Petite réflexion sur l'IA et l'usage des outils comme ChatGPT
Soit tu ne participes pas.
La vie trouve toujours un chemin
Extrait ;
"Les systèmes d'IA contemporains deviennent aujourd'hui compétitifs sur le plan humain pour des tâches générales[3], et nous devons nous interroger : Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d'IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de l'OpenAI concernant l'intelligence artificielle générale indique qu'"à un moment donné, il pourrait être important d'obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d'accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles". Nous sommes d'accord. Ce moment est arrivé." Traduit avec www.DeepL.com/Translator (version gratuite)
Il y a là une anticipation exagérée à mon avis
Par contre, un phénomène qui peut se produire, c'est d'avoir des copiés collés de textes d'IA erronés et non erronés qui peuvent générer une forme de pollution des bases d'apprentissage des futurs IA ?
Sans questions il n'y a que des problèmes sans réponses.
Très bonne remarque. Le premier "run" de corpus textuel pour pré-entrainer GPT était exempt de scories artificielles, mais pas les prochains runs pour le ré-entrainer de zéro pour une grande mise à jour.
A supposer qu'un forum comme celui de Futura Sciences soit pompé pour le prochain grand passage de GéPéTé, une phrase générée artificiellement comme celle-ci sera prise comme argent comptant, heureusement noyée dans la masse, mais quand même:
"Il n'est pas recommandé de boire de l'essence ou de tout autre liquide qui contient de l'éthanol, que ce soit pour les vampires ou pour toute autre personne"
Dernière modification par GBo ; 30/03/2023 à 08h23.
Je trouve aussi. Et plutôt que de se faire peur avec ce que pourrait faire l'IA, il vaudrait mieux s'inquiéter de ce que des humains pourraient en faire (à cet égard la signature de E. Musk est particulièrement ironique).
Le problème existe déjà avec les milliards de pages web et de documents divers mis en ligne par des humains...Par contre, un phénomène qui peut se produire, c'est d'avoir des copiés collés de textes d'IA erronés et non erronés qui peuvent générer une forme de pollution des bases d'apprentissage des futurs IA ?
Une piste d'amélioration serait de pouvoir filtrer et hiérarchiser (suivant des critères à définir, permettant d'affecter une note de fiabilité) les contenus auxquels les futures IA auront accès durant leur apprentissage. Le tout de manière automatisée(*) puisqu'il n'est bien sûr pas possible d'embaucher suffisamment d'humains pour lire et comparer des milliards de documents dans des dizaines de langues.
(*) ce qui permettrait d'ailleurs d'utiliser le même traitement en temps réel pour filtrer les infos auxquelles l'IA aura accès lors d'une recherche sur internet, ou celles qui lui seront fournies par des utilisateurs (par exemple lorsqu'ils lui signalent une erreur, en lui donnant éventuellement des références le prouvant)
Mais ça demande sans-doute une "intelligence" que les IA d'aujourd'hui n'ont pas, du moins pas celles limitées (ce n'est pas péjoratif) à un modèle de langage.
En effet.
Oui et d'ailleurs pour entrainer ChatGPT il a fallu utiliser des humains pour labéliser à la main les contenus "offensants".
Ce qui est compliqué et il y a déjà des protestations sur le caractère "politique" des choix faits.
Que ce soit pour définir ce qui est "acceptable" ou "vrai", on se retrouve face à un problème d'interprétation et il n'existe en général aucun consensus.
On peut imaginer qu'on termine comme pour la presse avec des IAs différentes suivant les orientations politiques, les pays...
On verra ce qui se fait dans le futur notamment avec des IAs qui seraient spécialisées pour cela.
Le domaine évolue vraiment très vite et les experts pensent qu'on va se retrouver bloqué à un moment ou un autre vu qu'on ne pense pas pouvoir faire des IAs fortes avec les technos actuelles mais pour le moment, les réalisations dépassent les prédictions faites quelques seulement quelques années avant.
Utiliser une IA pour ça (ça = filtrer la base de texte pour la phase d'apprentissage non supervisée) me semblerait une idée prometteuse, je ne pense pas être le seul à y penser, mais il faut déjà une IA capable de la faire, peut-être est-ce le cas ?Une piste d'amélioration serait de pouvoir filtrer et hiérarchiser (suivant des critères à définir, permettant d'affecter une note de fiabilité) les contenus auxquels les futures IA auront accès durant leur apprentissage. Le tout de manière automatisée(*) puisqu'il n'est bien sûr pas possible d'embaucher suffisamment d'humains pour lire et comparer des milliards de documents dans des dizaines de langues.
ça montre à la fois les limites de l'utilisation et des peurs engendrées. L'IA ne fera ressortir que ce que les humains lui ont dit de sortir, elle ne sortira pas une nouvelle théorie politique ou une nouvelle technologie. Son intérêt est juste de le faire plus rapidement que des humains sur des corpus importants qu'ils mettent plus de temps à traiter par d'autres moyens, mais je n'ai jamais vu un truc "inventé" par chatGPT qui soit intéressant (les seuls trucs "inventés" sont des erreurs qui font rire). Par ailleurs toutes les informations qu'elle donne sur le fond sont suspectes puisqu'on sait qu'elle a un risque non négligeable d'invention. Si il faut revérifier tout ce qu'elle dit, ça demandera aussi des compétences humaines, donc j'attends de voir des cas concrets de gens qui perdent vraiment leur boulot à cause de chatGPT ...
le cas des oeufs de porc et de brebis soulève une question intéressante, pourquoi répond-il correctement à l'une et pas à l'autre ? il est possible que la confusion vienne du fait qu'il y a des textes comparant le lait de brebis au lait de vache, mais pas pour le porc, et donc qu'il ait imaginé un texte s'inspirant de comparaisons avec le lait de vache en substituant juste "oeuf" à "lait" et "poule" à "vache" (ce qui ne lui pose aucun problème particulier ) . Du coup ses performances sont bonnes quand ce genre de substitution n'a pas d'importance (exemple donné typique : imaginer un plan de présentation PPT . On peut imaginer que c'est une bonne méthode de s'inspirer de présentations existantes en substituant des titres et sous titres par des expressions adaptées au sujet, et que ça donnera des résultats très satisfaisants.Très bonne remarque. Le premier "run" de corpus textuel pour pré-entrainer GPT était exempt de scories artificielles, mais pas les prochains runs pour le ré-entrainer de zéro pour une grande mise à jour.
A supposer qu'un forum comme celui de Futura Sciences soit pompé pour le prochain grand passage de GéPéTé, une phrase générée artificiellement comme celle-ci sera prise comme argent comptant, heureusement noyée dans la masse, mais quand même:
En revanche dès qu'on rentre dans des textes qui ont "du sens", cette méthode de substitution peut donner des résultats plutot aléatoires , comme les exemples d'oeufs de brebis ou d'éthanol à ne pas boire dans l'essence le montrent. Les extrapolations sur le fait de rédiger des articles de fond (opinions sur l'actualité par exemple), ou d'identifier correctement des fraudes, me semblent donc douteuses, pour le moment en tout cas.
Ou (sans parler des usages politiquement orientés de l'IA) avec des IA à vocation moins généraliste, dont l'apprentissage serait basé sur un corpus de textes prédéfini. Pas forcément en devant sélectionner préalablement chaque texte (ça serait une tâche inhumaine...), mais en définissant une liste de sources réputées "fiables" (par exemple pour des données scientifiques récentes, arxiv avec comme critère supplémentaire le fait que l'article a été publié dans une revue à comité de lecture, wikipedia mais en vérifiant dans la page de discussion de chaque article qu'il n'y a pas de polémique en cours, etc.). Liste de sources qui pourrait servir aussi à filtrer ultérieurement les recherches que l'IA sera amenée à faire sur internet.
Dernière modification par yves95210 ; 30/03/2023 à 09h00.
En effet mais c'est sans doute le domaine où c'est le plus facile : les sciences dures, là où le consensus sur ce que le "vrai" est le plus fort et la part idéologique la plus faible.avec des IA à vocation moins généraliste, dont l'apprentissage serait basé sur un corpus de textes prédéfini. Pas forcément en devant sélectionner préalablement chaque texte (ça serait une tâche inhumaine...), mais en définissant une liste de sources réputées "fiables" (par exemple pour des données scientifiques récentes, arxiv avec comme critère supplémentaire le fait que l'article a été publié dans une revue à comité de lecture, wikipedia mais en vérifiant la page de discussion de chaque article qu'il n'y a pas de polémique en cours, etc.). Liste de sources qui pourrait servir aussi à filtrer ultérieurement les recherches que l'IA sera amenée à faire sur internet.
Dès qu'on s'en éloigne, ça va devenir plus compliqué de définir les dites sources.
En sciences humaines par exemples, des revues universitaires parfois de bon niveau mélangent des travaux de grande qualité et du grand n'importe quoi (https://fr.wikipedia.org/wiki/Canular_Sokal_au_carré).
Même dans les sciences dures hors physique/chimie on a eu des problèmes : https://fr.wikipedia.org/wiki/Crise_...productibilité
On en revient à "l'IA est un outil" qui permet d'être plus efficace mais qui ne règle pas les problèmes de fond.
Qu'ait une pelle ou une pelleteuse, si on creuse dans un marais, on n'avance pas vraiment.