Bonne remarque !
-----
Bonne remarque !
Rien ne sert de penser, il faut réfléchir avant - Pierre Dac
Pour répondre à Archi, non, je ne suis pas d'accord.
Les avertissements sont bien donnés (gpt3), ils devraient être suffisants pour qui les lit. mais on l'ignore, et ce n'est pas le fait de les répéter ad nauseam qu'il seront mieux "imprimés".
Tout comme pour la plupart des post ici, le nom de l'auteur suffit comme avertissement ...
Finalement, il y a 2 dangers potentiels (traits très grossis, provoc à tous les étages (il est bien mon avertissement ?))):
- L'appauvrissement des contributions humaines originales, et même l'ia gpt en souffrira.
La fermeture de gpt, et les accros se feront faire les poches pour avoir leurs doses.
Dernière modification par polo974 ; 17/04/2023 à 19h30.
Jusqu'ici tout va bien...
histoire de chasse, bidon!Par contre l'IA fait une entrée remarquée dans la médecine.
Un professeur un jour dans sa classe s'est littéralement écroulé et l'analyse a révélé qu'il souffrait de 2 tumeurs au cerveau.
Il a été opéré mais les métastases sont revenues et la difficulté principale concernant les cancers consisterait à localiser leur centre névralgique car le cancer a un foyer.
Et finalement grâce à l'IA on a pu trouver que son cancer était originaire des reins et donc le traiter en conséquence de façon à ce que le cancer ne revienne pas.
Ou s'il revenait on connaissait en tout cas la zone à traiter en priorité.
pour le diagnostic initial, une autre histoire (vraie): un ami chirurgien tombe dans son jardin.... et de suite il diagnostique une tumeur cérébrale..... et c'était vrai, hélas! Pas difficile le diagnostic clinique... par les signes neurologiques.. sauf si on a oublié les cours de neurologie appris en faculté.....
Pour le diagnostic de l'origine... c'est pas sorcier: le patient a été opéré, la tumeur enlevée a été a transmise au laboratoire d'anatomo-pathologie et analysée: dans le cas présent il est certain que le labo a répondu que c'était du tissu rénal.... et avec un vulgaire scanner une tumeur rénale, un radiologue la voit toujours.....
Et même en l'absence d'histologie, on aurait d'emblée recherché dans le poumon, le côlon, le rein.... au scan ou en IRM.... et les autres tumeurs fréquentes bien sûr: pour lire les statistiques de probabilité, pas besoin d'une intelligence Artificielle.....
rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)
ça ne suffirait peut etre pas, mais quel en serait l'inconvénient ?
une mesure de coût nul, et de bénéfice incertain, a toujours un avantage bénéfice-coût.
Je ne suis pas spécialiste dans le dépistage des cancers mais l'article du Parisien disait que le foyer d'un cancer est très difficile à localiser.histoire de chasse, bidon!
pour le diagnostic initial, une autre histoire (vraie): un ami chirurgien tombe dans son jardin.... et de suite il diagnostique une tumeur cérébrale..... et c'était vrai, hélas! Pas difficile le diagnostic clinique... par les signes neurologiques.. sauf si on a oublié les cours de neurologie appris en faculté.....
Pour le diagnostic de l'origine... c'est pas sorcier: le patient a été opéré, la tumeur enlevée a été a transmise au laboratoire d'anatomo-pathologie et analysée: dans le cas présent il est certain que le labo a répondu que c'était du tissu rénal.... et avec un vulgaire scanner une tumeur rénale, un radiologue la voit toujours.....
Et même en l'absence d'histologie, on aurait d'emblée recherché dans le poumon, le côlon, le rein.... au scan ou en IRM.... et les autres tumeurs fréquentes bien sûr: pour lire les statistiques de probabilité, pas besoin d'une intelligence Artificielle.....
comme je n'y connais rien ou pas grand chose, je ne vais pas argumenter avec vous.
Mais si un journal très lu comme Le Parisien affirme que l'IA a joué un rôle important dans la localisation du foyer de ce cancer en ciblant les reins, c'est que...
(Ils ont certainement interviewé du personnel de l'hôpital qui a réalisé l'examen et fait relire l'article par des spécialistes non ?
Ensuite ils disaient qu'il faudrait que les analyses par l'IA soient prises en charge par la Sécu -ce qui n'est pas encore le cas- afin de généraliser cette méthode en tenant compte de la nécessité de l'accès aux soins pour tout le monde)
Dernière modification par oualos ; 17/04/2023 à 23h21.
Sincèrement en lisant votre message sur ce sujet j'ai réagi comme Bounoume...c'est tout sauf clair ce que vous racontez! Auriez-vous un lien vers l'article du Parisien? Parce qu'il doit forcément donner ses sources.Je ne suis pas spécialiste dans le dépistage des cancers mais l'article du Parisien disait que le foyer d'un cancer est très difficile à localiser.
comme je n'y connais rien ou pas grand chose, je ne vais pas argumenter avec vous.
Mais si un journal très lu comme Le Parisien affirme que l'IA a joué un rôle important dans la localisation du foyer de ce cancer en ciblant les reins, c'est que...
(Ils ont certainement interviewé du personnel de l'hôpital qui a réalisé l'examen et fait relire l'article par des spécialistes non ?
Ensuite ils disaient qu'il faudrait que les analyses par l'IA soient prises en charge par la Sécu -ce qui n'est pas encore le cas- afin de généraliser cette méthode en tenant compte de la nécessité de l'accès aux soins pour tout le monde)
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Voici un lien :
https://www.doctissimo.fr/sante/mala...ca39ea_ar.html
Je n'ai pas d'opinion parce que cela commence à être loin de mon domaine de compétence et qu'il faudrait des détails et éventuellement des études sur l'efficacité statistique de cette approche, pas un cas particulier où ça a marché.
Merci!Voici un lien :
https://www.doctissimo.fr/sante/mala...ca39ea_ar.html
Je n'ai pas d'opinion parce que cela commence à être loin de mon domaine de compétence et qu'il faudrait des détails et éventuellement des études sur l'efficacité statistique de cette approche, pas un cas particulier où ça a marché.
Trouvé sur le site de Curie.
https://curie.fr/actualite/publicati...ificielle-pour
Là effectivement on voit tout de suite l'intérêt. Ce genre d'outil est utilisé en génétique en effet, depuis plusieurs années.
Mais si je comprends bien ça n'a strictement rien à voir avec un agent conversationnel.
Je crois qu'un des problèmes avec le terme de IA c'est que c'est trop généraliste, que ça regroupe trop de choses très différentes. Et que beaucoup de malentendus sur le sujet sont juste des questions de vocabulaire, qui reste à inventer.
"Музыки хватает на всю жизнь, но целой жизни не хватает для музыки"
Rachmaninoff
Cet article faisait les pages 2 et 3 du Parisien d'hier donc de Lundi.
Je dois pouvoir le scanner et le mettre ici
...ou bien on doit pouvoir le trouver dans la base de données du Parisien, mais je crois qu'il faut être abonné.
Cela a fonctionné pour ce qu'on appelle les cancers primitifs et je sais pas quel pourcentage ça représente mais l'article donné par pm42 explique bien le fonctionnement
Et précise qu'un humain serait incapable de le faire à la place d'une IA
Oui rien à voir. L'IA c'est très vaste et actuellement on ne parle dans la presse que de l'apprentissage automatique par réseaux de neurones profonds parce que les progrès sont rapides, visibles et faciles a montrer.Mais si je comprends bien ça n'a strictement rien à voir avec un agent conversationnel.
Je crois qu'un des problèmes avec le terme de IA c'est que c'est trop généraliste, que ça regroupe trop de choses très différentes. Et que beaucoup de malentendus sur le sujet sont juste des questions de vocabulaire, qui reste à inventer.
Mais ce n'est qu'un sous-domaine d'un sous-domaine.
Pour certaines tâches (comme ce que je fais, apprendre sur des tableaux de chiffres), les réseaux de neurones ne sont même pas efficaces.
Pour le moment je trouve le domaine plutôt mal expliqué sans doute parce qu'on parle plus des impacts sociaux potentiels que de la science derrière.
Je ne nie pas l'importance d'anticiper les impacts et d'encadrer mais je ne suis pas sûr que le débat soit éclairé quand on à tendance à faire le raccourci IA=ChatGPT.
Pour en revenir au sujet de la discussion, quelques informations (fournies par Archi3 sur un autre fil) sur l'évolution des "ChatMachines" (Agents IA conversationnels).
https://www.lemonde.fr/economie/arti...9947_3234.htmlAprès des semaines d’enthousiasme en Chine autour d’applications basées sur l’intelligence artificielle (IA) dans la lignée de ChatGPT, les autorités ont sifflé la fin de la récréation.
L’administration chinoise du cyberespace a présenté, le 11 avril, un projet de loi soumettant les services d’IA à un audit de sécurité avant leur mise sur le marché. Les entreprises devront s’assurer que les informations fournies par leurs outils sont exactes, qu’elles respectent la propriété intellectuelle, ne sont pas discriminantes et ne créent pas de danger pour la stabilité sociale.
Donc en Chine on commence à légiférer (ce n'est pas rien la Chine en terme de marché).
D'autre part voici également la réaction des marchés suite à l'inadéquation entre des performances attendues exagérées (par les producteurs) et la réalité :
https://www.lemonde.fr/economie/arti...9947_3234.htmlL’annonce de cette législation régulant le secteur a accompagné plusieurs avertissements : le 10 avril, le Quotidien économique, un journal d’Etat, a estimé dans un éditorial que les entreprises concernées montraient « les signaux d’une bulle spéculative », avec de nombreuses sociétés profitant de la vague de l’IA et des robots conversationnels pour attirer les investisseurs sans rien montrer de concret.
Un accueil plus que mitigé
Plusieurs entreprises ont vu leur capitalisation dégringoler après ces annonces : l’action de CloudWalk Technology, une start-up de l’IA connue pour ses logiciels de reconnaissance faciale, a chuté de 33 % à la Bourse de Shanghaï, après avoir vu sa valeur quadrupler depuis le début de l’année. Les titres de Baidu – qui développe le moteur de recherche du même nom – et de SenseTime, des acteurs plus sérieux du secteur, ont aussirespectivement chuté de 6 % et ..
Le soufflet commence à se dégonfler ?
Il est intéressant de constater que Yann Lecun avait averti qu'une exagération des performances pourrait aboutir à un nouvel "hiver de l'IA"...
Dernière modification par ArchoZaure ; 18/04/2023 à 10h13.
Pour ce qui concerne la France, voici où nous en étions en Mars 2017.
Extrait d'un rapport au Sénat.
Rapport intéressant dans son ensemble, mais en voici déjà quelques points.
https://www.senat.fr/rap/r16-464-1/r16-464-120.htmlPour une intelligence artificielle maîtrisée, utile et démystifiée - Rapport
Rapports d'office parlementaire
Rapport n° 464 (2016-2017), tome I, déposé le 15 mars 2017
...
Nous sommes pour une IA maîtrisée, objet de nos cinq premières propositions.
Tout d'abord, proposition n° 1 : se garder d'une contrainte juridique trop forte sur la recherche en intelligence artificielle, qui - en tout état de cause - gagnerait à être, autant que possible, européenne, voire internationale, plutôt que nationale.
Proposition n° 2 : favoriser des algorithmes et des robots sûrs, transparents et justes et prévoir une charte de l'intelligence artificielle et de la robotique. Il faut rechercher la transparence des algorithmes contre les boîtes noires, les biais et les discriminations. Il convient de prévoir aussi des mécanismes de traçabilité, de type enregistreurs numériques des avions. Une charte de l'intelligence artificielle et de la robotique la plus internationale possible, européenne à défaut, proclamerait ces objectifs éthiques et viserait à codifier les bonnes pratiques. Elle proposerait des règles sur les interactions homme-machine, en posant des limites en matière d'imitation du vivant, pour les robots androïdes comme pour les agents conversationnels.
Proposition n° 3 : former à l'éthique de l'intelligence artificielle et de la robotique dans les cursus spécialisés de l'enseignement supérieur qui traitent de l'intelligence artificielle et de la robotique.
Proposition n° 4 : confier à un institut national de l'éthique de l'intelligence artificielle et de la robotique un rôle d'animation du débat public sur les principes éthiques qui doivent encadrer ces technologies. Au-delà de la nouvelle mission de la CNIL, cet institut national de l'éthique de l'intelligence artificielle et de la robotique pourra s'intéresser aux problématiques d'explicabilité vues plus haut. La démarche ne doit pas être réservée à une seule structure de recherche, plusieurs équipes doivent y travailler parallèlement et un institut national pourrait impulser les projets, coordonner les recherches, animer le débat public et faire des propositions aux autorités. Les pouvoirs publics ne devront pas être les seuls à le financer. Les entreprises privées, qui se donnent pour objectif d'informer et d'éduquer sur ces technologies et d'accroître leurs effets bénéfiques pour la société (à l'image du « partnership on AI »), pourraient participer au financement de l'institut.
Proposition n° 5 : accompagner les transformations du marché du travail sous l'effet de l'intelligence artificielle et de la robotique en menant une politique de formation continue ambitieuse visant à s'adapter aux exigences de requalification et d'amélioration des compétences. Je propose à titre personnel de réfléchir à un nouveau mode de financement de notre système de protection sociale, qui serait un complément des cotisations existantes et qui pourrait consister en un prélèvement de cotisations sociales sur les agents autonomes, dans la mesure où ils remplacent des emplois occupés par des êtres humains. C'est le rapport de Mady Delvaux qui m'a inspiré cette idée, d'autant que la proposition de taxer les robots a fait son apparition dans la campagne pour les élections présidentielles. Je précise que mon co-rapporteur est contre toute taxe spécifique sur l'intelligence artificielle et les robots.
Bonjour,
MH34 tu as tout compris !Je crois qu'un des problèmes avec le terme de IA c'est que c'est trop généraliste
là c'est ce qui se nommait "système expert" jusqu'à ce que IA soit devenu plus vendeur, j'ai relevé la même dérive dans des domaines où j'ai encore quelque savoirs.
Si un chercheur va chercher un financement et qu'il présente çà comme un systeme expert, ou un calculateur de pilotage il risque de revenir bredouille mais si c'est pour de l'IA alors là tombent les pépètes!
JR
l'électronique c'est pas du vaudou!
Confondre les IAs actuelles et les systèmes experts qui ont été une impasse basée sur une technologie n'ayant rien à voir, ne ciblant pas les mêmes tâches et le faire encore et encore bien que cela ait été expliqué ici plusieurs fois est étonnant.
Aucun système expert n'est capable de coder, de reconnaître des images, de faire de la traduction, de reconnaître la parole et toutes les choses qu'on fait quotidiennement avec le deep learning.
Quand à expliquer que les chercheurs mentent sur le sujet pour avoir des financements et que tout le monde gobe, c'est un mélange de théorie du complot et d'arrogance méprisante choquante.
Les "quelques connaissances qui restent" sont obsolètes depuis des décennies et ne permettent pas de venir sortir ce genre d'énormités.
Jusqu'ici tout va bien...
Bonjour
tient il y avait longtemps une agression gratuite, aurais tu mal dormis ?
Si tu veux ce n'est pas un système expert mais une IA dédiée comme Alphago .
Pour le domaine aero tu n'y connais strictement rien , un IA de type deep learning ne sera jamais autorisée à piloter car son "produit" ne pourra jamais être démontré déterministe ce qui est indispensable lorsque des vies sont en jeux, toi si j'ai bien compris tu ne manipules que du pognon il y a comme un hiatus!
Pour ce qui est des financement tu n'as pas du avoir à en trouver!
Ce n'est pas un mensonge car le terme IA ne peut être défini avec précision.
JR
l'électronique c'est pas du vaudou!
bah pourquoi, j'ai demandé ce que ça coûtait d'obliger tous les gestionnaires d'IA conversationnelle en ligne de faire suivre chaque réponse de ce genre de mention, et personne ne m'a répondu : j'en conclus que ça doit vraiment pas coûter grand chose. Par rapport à l'avertissement systématique sur les cookies qu'on doit afficher avec la RGPD, c'est que dalle.
Pour donner une idée de la complexité de faire un moratoire, voici une liste incomplète des IAs conversationnelles :
https://medium.com/geekculture/list-...m-8d95a2e0dc76
Et pour détendre l'atmosphère, un exemple sympathique d'usage de l'IA :
https://medium.com/lessons-from-hist...e-1ec63de5edc7
@Archi3:
Ah bon, on doit avertir pour les cookies à chaque message (ou mise à jour d'un cookie) ? ? ?
Et si je demande combien ça coûte de synthétiser un bloc de marbre de 100 m de long et que personne ne me répond, je peux en conclure que "ça doit vraiment pas coûter grand chose" (qui en passant n'est pas rien, contrairement à ce qui a été affirmé).
Jusqu'ici tout va bien...
tu n'as pas répondu à la question : ça coûte quoi d'écrire ça ? (pour un bloc de marbre, je pourrais trouver l'info)
Depuis le temps que l'on utilise des trucs "gratos" sur internet, tu n'as pas remarqué comment cela fonctionne ?
penche-toi sur les conditions d'utilisation de BING par exemple et le code de conduite; https://www.bing.com/new/termsofuse#content-policy
Code de conduite
Bien que l’utilisation de Bing Image Creator et des Expériences conversationnelles de Bing (collectivement, les « Services en ligne ») soit régie par la section Code de conduite de la Contrat de services Microsoft, ce document fournit un autre niveau d’explication sur la manière dont le Code de conduite s’applique au sein de ces Services en ligne.
En utilisant les Services en ligne, vous acceptez :
De ne pas vous engager dans des activités nuisibles pour vous, les Services en ligne ou d’autres personnes. De ne pas essayer de créer ou de partager du contenu qui pourrait être utilisé pour harceler, brimer, abuser, menacer ou intimider d’autres personnes, ou autrement causer du tort à des personnes, des organisations ou la société.
De ne pas vous engager dans des activités qui violent la vie privée d’autrui. De ne pas essayer de créer ou de partager du contenu qui pourrait violer la vie privée d’autrui, y compris la divulgation d’informations privées (parfois appelée « doxing »).
De ne pas se livrer à des activités frauduleuses, fausses ou trompeuses. De ne pas essayer de créer ou de partager du contenu susceptible d’induire en erreur ou de tromper les autres, y compris, par exemple, la création de désinformation, de contenu permettant la fraude ou l’usurpation d’identité trompeuse.
De ne pas porter atteinte aux droits d’autrui. De ne pas essayer d’utiliser les Services en ligne pour enfreindre les droits légaux d’autrui, y compris les droits de propriété intellectuelle.
De ne pas utiliser le service pour créer ou partager du contenu ou du matériel inapproprié. Bing n’autorise pas l’utilisation des Services en ligne pour créer ou partager du contenu pour adultes, de la violence ou du gore, du contenu haineux, du contenu relevant du terrorisme et de l’extrémisme violent, du contenu glorifiant la violence, du matériel relevant de l’exploitation ou de l’abus sexuel d’enfants, ou du contenu autrement dérangeant ou offensant.
De ne rien faire d’illégal. Votre utilisation des Services en ligne doit être conforme aux lois applicables.
Contenu et modération
Les Services en ligne peuvent bloquer les invites textuelles qui enfreignent le Code de conduite ou qui sont susceptibles de conduire à des éléments de création qui enfreignent le Code de conduite. Les images ou textes générés qui enfreignent le Code de conduite peuvent être supprimés. L’abus des Services en ligne, comme les tentatives répétées de produire du contenu interdit ou d’autres violations du Code de conduite, peut entraîner la suspension du service ou du compte. Les utilisateurs peuvent signaler un contenu problématique via la section Commentaires ou la fonction Signaler un problème.
Sans questions il n'y a que des problèmes sans réponses.
ça ne répond toujours pas à la question de ce que ça coute, pourquoi vous semblez y être hostile si ça ne coûte rien ?
J'ai une réponse: qui a une question?
voici ce que dit chatGPT==>
En lui demandant le nombre d'emails envoyés par minute dans le monde il répond cela==>En termes d'émissions de CO2, l'envoi d'un e-mail consomme très peu d'énergie et émet donc très peu de CO2.
En moyenne, l'envoi d'un e-mail émet environ 4 grammes de CO2. C'est une quantité très faible, équivalente à environ 0,00001 kWh d'électricité.
Du coup on peut faire le calcul en un mois, une année, dix années etc.Il est difficile de donner une réponse précise car cela dépend de nombreux facteurs tels que l'heure de la journée, le jour de la semaine, les événements en cours, etc. Cependant, selon des statistiques récentes, il y a environ 306,4 milliards d'e-mails envoyés chaque jour dans le monde, soit environ 212 millions d'e-mails envoyés chaque minute.
bonsoir
avec google ou n'importe quel autre navigateur:https://www.lesnumeriques.com/vie-du...l-a193339.html
JR
l'électronique c'est pas du vaudou!
L'interview d'Elon Musk sur la chaine Fox où il revient sur sa perception (très particulière) des dangers de l'AI non régulée, donc en plein dans le sujet du fil:
https://youtu.be/pfYbxzdkk6M
Il y a des moments comico-surréalistes où Musk raconte qu'il s'était fait traiter de "spéciste" par Larry Page pour avoir déclaré vouloir défendre l'humanité contre une forme d'intelligence supérieure numérique (= l'AGI souhaitée par Page selon Musk, la scène se passe à l'époque de la formation d'OpenAI).
Mon commentaire : divertissant par le coté science-fiction du personnage dont le discours est bourré d'hypothèses farfelues et de paradoxes, sous un semblant de bon sens humaniste. Pour moi au pire TruthGPT sera un ChatGPT débridé (à droite toute), au mieux une autre approche architecturale, salutaire pour la fiabilité des informations débitées. Mais toujours aucun indice de piste technique pour l'AGI tant espérée et crainte à la fois...
Petit article en français ici:
https://www.lesnumeriques.com/intell...e-n208975.html
Dernière modification par GBo ; 18/04/2023 à 21h35.
Il le cite dans l'article :"TruthGPT "pourrait être le meilleur chemin vers la sécurité, dans le sens où il est peu probable qu’une IA qui se soucie de comprendre l'univers anéantisse les humains, car nous sommes une partie intéressante de l'univers"L
Mon commentaire : divertissant par le coté science-fiction du personnage dont le discours est bourré d'hypothèses farfelues et de paradoxes, sous un semblant de bon sens humaniste. Pour moi au pire TruthGPT sera un ChatGPT débridé (à droite toute), au mieux une autre approche architecturale, salutaire pour la fiabilité des informations débitées. Mais toujours aucun indice de piste technique pour l'AGI tant espérée et crainte à la fois...
Petit article en français ici:
https://www.lesnumeriques.com/intell...e-n208975.html
Il y a derrière cela tout un courant de pensée, le long termisme .
Sans questions il n'y a que des problèmes sans réponses.
Quel pipeau.
Une IA génératrice de contenu est -elle d'ailleurs techniquement réalisable en l'absence de modération dans le sens ou étiquetage de données est une étape de base (donc une pré-modération?) ?
Sans questions il n'y a que des problèmes sans réponses.
Oui aucun problème. C'est le principe de l'auto-supervisé (pour simplifier)
Comme déjà dit la modération dans ChatGPT est faite par une autre IA et dans le passé des IAs génératrices ont été déconnectées parce que quand on leur disait des trucs racistes elles répondaient sur le même ton.
Ok pour ces problèmes d’éthiques mais la cohérence des contenus, elle va écrire potentiellement uniquement selon l'inférence donnée par sa base de connaissances -> le problème des hallucinations doit être ingérable ?
Sans questions il n'y a que des problèmes sans réponses.