Bonsoir
Un lien sur un article de PLS :https://www.pourlascience.fr/sd/info..._pls_hebdo_134
L'homme est fondamentalement mauvais!
JR
-----
Bonsoir
Un lien sur un article de PLS :https://www.pourlascience.fr/sd/info..._pls_hebdo_134
L'homme est fondamentalement mauvais!
JR
l'électronique c'est pas du vaudou!
C'est le même problème que le dopage dans le sport de haut niveau : si on sait le faire, qu'on sait que l'adversaire le fait, et que ça lui donne un avantage décisif, c'est très compliqué de ne pas le faire soi même. Le voeu d'un interdiction "éthique" suppose que tout le monde joue le jeu, ce qui est improbable.
A la limite, on pourrait plutot espérer l'évolution extrême inverse, c'est que ces armes deviennent tellement intelligentes qu'il n'y ait même plus besoin d'utiliser des humains, et que les guerres ne soient plus QUE des batailles entre ces armes
Bjr, Dégats colatéraux.......supprimés .....totalement ???? (pas forcément morts d'humains= destructions infracstrutures qui méneront à ....)
Bonne journée
Probablement que non, les infrastructures seraient aussi visées et touchées par ces armes, mais le bilan humain en serait quand même amélioré, peu de gens habitent dans une centrale électrique. A moins bien sûr qu'une puissance ennemie cherche volontairement à frapper une population civile en la terrorisant ...
quand meme une question technique, est ce qu'il n'y a pas des moyens de brouiller l'électronique des robots par exemple en leur envoyant des faisceaux intenses de micro-ondes ? on parle des dommages que pourrait produire une explosion solaire intense arrivant sur la Terre sur toute l'électronique embarquée, ou une exposition thermonucléaire en altitude, donc il doit y avoir moyen de produire le même genre d'effets artificiellement et de manière plus localisée ?
La limite d'un robot de combat c'est la quantité de munitions qu'ils peuvent transporter, comme l'humain.
Il suffit donc de placer des leurres qui font tirer le "robot IA" pour rien.
Donc vous capturez ou achetez un des robots ennemi en plus ou moins bon état et vous analysez ses réponses face à une cible pour déterminer quels sont "ses bugs".
Il en a forcément dans son système de détection visuel, c'est je dirais mathématique.
Vous placez vos leurres en carton sur le terrain et le robot "devient fou".
Ensuite faut pas se leurrer, l'emploi d'une machine ou pas sur le terrain est une question de rapport efficacité/coût et c'était déjà vrai chez les romains.
PLS
Quand on remarque quand même temps les chercheurs censurent leurs collègues russes, voir le fil fermé sur le CERN, il est inutile de lire plus loin.La résurgence des conflits pousse les états vers le déploiement d’armes autonomes autorisées à tuer sans supervision humaine. Les chercheurs et la communauté internationale doivent unir leurs forces pour faire interdire ces « robots tueurs ».
La limite ne viendra pas des chercheurs mais des décideurs qui se méfieront de la création d'une IA autonome armée qui pourrait nuire à leur pouvoir.
Le précédent romain est moins oublié qu'on ne le croit.
Dans les villages gaulois, ils ne sont jamais tous d'accord. Jules César
On est heureux de savoir que les experts en tout ont trouvé en quelques secondes la solution pour défaire les armements les plus modernes.
C'est très impressionnant.
L'Ukraine recrute si jamais vous avez aussi la solution pour les missiles hypersoniques à coup de brouillage ou de fausses cibles (qui sont utilisées mais semble malgré tout avoir du mal à renverser complètement le cours de la guerre comme cela a d'ailleurs toujours été le cas).
Tester vos "yakafokon" en conditions réelles serait assez intéressant
Bonjour,
La vidéo mise en lien dans l'article fait froid dans le dos : https://www.youtube.com/watch?v=9CO6M2HsoIA
Sans questions il n'y a que des problèmes sans réponses.
Moi en tous cas je ne suis pas un pseudo-expert, je ne fais que citer les vrais experts.
https://www.capital.fr/economie-poli...-guerre-169945L'IA peut commettre des erreurs qu'aucun humain ne ferait
Le responsable de Thales a précisé qu'il est possible "de leurrer des systèmes de reconnaissance d'images en modifiant des pixels situés à la périphérie de l'image". Il a ensuite donné un exemple simple : "vous avez une image avec un chat en plein milieu, le logiciel vous dit que c'est un chat à 100%. Vous commencez à modifier des pixels aux bords de l'image, même pas sur le chat lui-même. Et le système vous dit, c'est un chat à 90%, 80%... et enfin, c'est une grenouille. C'est là où c'est affolant, car je n'ai même pas modifié les pixels qui constituent le chat."
En fait, le système de reconnaissance d'images prend en compte le contexte, l'environnement dans lequel se trouve le chat. "Si je trafique une image où on voit une vache et on la met dans la mer, le système va dire que c'est un phoque, à cause du contexte, alors que n'importe quel humain vous dirait qu'il s'agit d'une vache dans la mer", a indiqué Christophe Meyer. Les IA peuvent donc commettre des erreurs "bêtes" qu'aucun humain ne ferait. Cela amène ceux qui développent des IA à prendre en considération le fait que "ces systèmes aussi performants soient-ils peuvent eux aussi être leurrés", a-t-il ajouté.
Pour lutter contre cela, il faut utiliser plusieurs systèmes de reconnaissance d'images en même temps, qui vont voter pour dire s'il s'agit d'un char militaire ou non, d'un soldat ou non par exemple.
Vous c'est quoi au fait vos références techniques pour vous permettre de ricaner du spécialiste IA armement de Thales ?
Ça serait bien d'entendre un peu de concret.
Le rapport avec le sujet SVP.Envoyé par pm42L'Ukraine recrute si jamais vous avez aussi la solution pour les missiles hypersoniques à coup de brouillage ou de fausses cibles (qui sont utilisées mais semble malgré tout avoir du mal à renverser complètement le cours de la guerre comme cela a d'ailleurs toujours été le cas).
Tester vos "yakafokon" en conditions réelles serait assez intéressant
Et expliquez-nous donc aussi votre logique en quoi lutter contre le ravageur B mas pas contre le ravageur A fait de la lutte contre le ravageur B une imbécilité.
Oui mais les drones actuels, les chars d'assaut et le reste sont déjà très sympa. A titre indicatif, les arcs ont tués plus de monde dans l'histoire de l'humanité que la bombe atomique.La vidéo mise en lien dans l'article fait froid dans le dos : https://www.youtube.com/watch?v=9CO6M2HsoIA
On peut jouer à se faire peur mais curieusement, la technologie ne rend pas les guerres plus meurtrières en proportion de la population. Même le XXème siècle n'a pas été sur le podium de ce coté là.
Quoi ?
Elle est où votre preuve de cause à effet ?
Vous avez vu une étude qui compare des choses comparables ou qui dit simplement qu'en moyenne on a de moins en moins de conflits etc ?
Et vous comparez comment ? Vous ne savez pas qu'une technologie appelle à l'apparition d'une contre-mesure et que ça dépend de tout un tas de facteurs... ?
Votre dogme s'applique à la moyenne des conflits ? Ou alors entre conflits à niveau technologique inégaux ?
Dans une guerre tribale, la machette fait plus de morts que si les belligérants sont armés de kalachnikov ? (Bon après c'est vrai que le gars qui vient découper un autre désarmé ne bénéficie de pas de la technologie de la machette...)
Mais qui peut croire une absurdité pareille.
D'autant qu'on peut citer des tonnes de contre-exemples assez récents dans les conflits.
Et au passage les victimes des guerres c'est pas juste les morts.
Ah ben oui c'est plutôt comme ça que vous "calculez" :
Et attention, les moustiques sont les rois de la tuerie !!!Envoyé par pm42A titre indicatif, les arcs ont tués plus de monde dans l'histoire de l'humanité que la bombe atomique.
Dernière modification par ArchoZaure ; 12/03/2023 à 10h57.
C'est simple : je lis au lieu de faire des affirmations gratuites sur des sujets que je ne connais pas.
Un petit graphique pour commencer et sinon, le sujet est largement documenté : https://ourworldindata.org/war-and-p...s-not-peaceful
il ne me semble pas qu'on parlait de missiles hypersoniques qui, une fois qu'ils sont lancés sur une cible, sont évidemment pratiquement impossibles à arrêter, mais d'armes "intelligentes" qui faisaient de la reconnaissance d'images pour cibler les humains à abattre, c'est évidemment un problème tout à fait différent, c'est pas des missiles hypersoniques qui feront ça. J'imagine plutot des genres de drones tueurs qui auront besoin quand meme de prendre des images et de les analyser avant d'agir. Et je posais juste une question sur les capacités de les désorienter, je n'affirme rien - j'imagine cependant que comme dans la lutte de la cuirasse et du boulet, chaque type d'arme suscitera le développement d'un système de défense adapté.On est heureux de savoir que les experts en tout ont trouvé en quelques secondes la solution pour défaire les armements les plus modernes.
C'est très impressionnant.
L'Ukraine recrute si jamais vous avez aussi la solution pour les missiles hypersoniques à coup de brouillage ou de fausses cibles (qui sont utilisées mais semble malgré tout avoir du mal à renverser complètement le cours de la guerre comme cela a d'ailleurs toujours été le cas).
Tester vos "yakafokon" en conditions réelles serait assez intéressant
Le problème des armes reste leur capacité à contrôler les populations, les dictatures se nourrissent de la terreur.
La science permet de développer des technologies fantastiques mais le problème restera toujours dans les mains de l'utilisateur : violent ou pas.
Sans questions il n'y a que des problèmes sans réponses.
Là aussi, les démocraties se sont développées en même temps que la Révolution Industrielle et des dictateurs et de la terreur, c'est plutôt l'histoire de l'humanité avant.
Coté violence, on se débrouillait bien aussi : https://fr.wikipedia.org/wiki/Bataille_de_Bagdad_(1258)
Sinon, à titre indicatif, le taux de mortalité violente des chasseurs/cueilleurs est de 30 à 50%, plusieurs ordres de magnitude plus élevé que celui de nos sociétés et les conflits se terminent en général avec l'extermination totale des vaincus, là aussi très loin de ce qui se passe dans une guerre moderne.
Comme je disais, tout cela est vraiment documenté avec de nombreux articles qu'on trouve en un clic.
Mais les phrases toutes faites sans aucune référence de gens qui en demandent quand on les contredit et le café du commerce, ça marche aussi.
oui bon le débat n'était pas de comparer les sociétés modernes aux chasseurs cueilleurs non plus ....La question est de savoir si des armements intelligents pourraient donner une supériorité énorme à ceux qui les utiliseraient. Il y a des conséquences concrètes indéniables sur les populations de la possible suprématie militaire d'une armée (cf l'utilisation des drones dans le conflit entre l'Arménie et l'Azebaïdjan par exemple).
Le problème des armes reste leur capacité à contrôler les populations, les dictatures se nourrissent de la terreur.
on vient de causer seulement sur les robots armés autonomes ......
ces merveilles () ne sont que l'une des implémentations de ce qu'on nomme couramment 'intelligence artificielle'......
Ces robots armés ne sont pas les seules entités destructrices et nuisibles aux vies, au bien être et à la vie/santé humaines.......
Il y a aussi tout ce qui permet le contrôle des systèmes vitaux... anciennement c'était les saboteurs, les traîtres, les agents de propagande....etc...
Ils agissaient directement sur biens et personnes ....
maintenant il existe les systèmes d'information modernes*, cibles de malveillances, et les leviers de manipulation accessibles aux IA malveillantes ........
les évènements récents (depuis la dernière élection aux USA au moins) ont dévoilé les premiers essais de mise en oeuvre....
En interdire l'utilisation est aussi irréaliste que d'interdire les simples armes autonomes.....
même si il faudra un certain temps** pour que les petits chat-gpt acquièrent certaines capacités nécessaires pour organiser parfaitement leurs productions perverses....
*dans "systèmes d'information", j'inclus et la communication verbale (conceptuelle, des idées, des faits réels ou supposés..) entre humains ET les systèmes de communications techniques, industriels (entre producteurs, transporteurs, utilisateurs d'électricité par exemple), économiques, etc.... et es systèmes embarqués aussi bêtes que.... l'électronique 'intelligente' d'une voiture ou d'un camion, ou d'une locomotive: tout ça est piratable par une entité suffisamment intelligente....
**et dès à présent, ces petites bêtes, au mains d'un propriétaire malveillant qui saurait bien les trafiquer, ça pourrait faire mal....
rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)
juste un détail, faudrait arrêter de prendre "chat-gpt" comme un symbole de l'IA "intelligente"; C'est un outil pour produire du texte qui semble humain, mais en réalité il ne fonctionne pas du tout de la façon qu'il faudrait pour gérer un environnement complexe en temps réel, les systèmes qui équipent les voitures autonomes par exemple sont bien plus proches de ce dont à besoin un "drone tueur", même si ils ne parlent pas sur tous les sujets ...
Ce que je veux dire c'est qu'un dictateur sans armes fait moins peur qu'un avec et ce quelque soit l'époque. Dés lors qu'une technologie arrive, ses usages potentiellement dangereux sont à étudier.Là aussi, les démocraties se sont développées en même temps que la Révolution Industrielle et des dictateurs et de la terreur, c'est plutôt l'histoire de l'humanité avant.
Coté violence, on se débrouillait bien aussi : https://fr.wikipedia.org/wiki/Bataille_de_Bagdad_(1258)
Sinon, à titre indicatif, le taux de mortalité violente des chasseurs/cueilleurs est de 30 à 50%, plusieurs ordres de magnitude plus élevé que celui de nos sociétés et les conflits se terminent en général avec l'extermination totale des vaincus, là aussi très loin de ce qui se passe dans une guerre moderne.
Comme je disais, tout cela est vraiment documenté avec de nombreux articles qu'on trouve en un clic.
Mais les phrases toutes faites sans aucune référence de gens qui en demandent quand on les contredit et le café du commerce, ça marche aussi.
Sans questions il n'y a que des problèmes sans réponses.
Faudrait pas confondre C-3PO avec R2-D2 ...juste un détail, faudrait arrêter de prendre "chat-gpt" comme un symbole de l'IA "intelligente"; C'est un outil pour produire du texte qui semble humain, mais en réalité il ne fonctionne pas du tout de la façon qu'il faudrait pour gérer un environnement complexe en temps réel, les systèmes qui équipent les voitures autonomes par exemple sont bien plus proches de ce dont à besoin un "drone tueur", même si ils ne parlent pas sur tous les sujets ...
C'est marrant mais j'imaginais que vous alliez nous la sortir celle-là.C'est simple : je lis au lieu de faire des affirmations gratuites sur des sujets que je ne connais pas.
Un petit graphique pour commencer et sinon, le sujet est largement documenté : https://ourworldindata.org/war-and-p...s-not-peaceful
Tout le monde connait ces statistiques.
Mais aucune étude sérieuse ne tire votre conclusionUn peu de sérieux.Envoyé par pm42On peut jouer à se faire peur mais curieusement, la technologie ne rend pas les guerres plus meurtrières en proportion de la population
Sinon moi aussi je peux vous en sortir une bonne :
La taille moyenne de la population mondiale a augmentée, ce qui explique la baisse de la moyenne du nombre de morts dans les conflits armés relativement à la population mondiale.
Je pense que vous ne connaissez juste pas le biais cognitif "effet cigogne" :
https://www.quaidessavoirs.fr/-/espr...ffes-de-projetUn exemple de biais cognitif ?
Il existe des centaines de biais cognitifs, parmi lesquels nous pouvons retrouver l’effet cigogne qui est une tendance à confondre corrélation et causalité.
Il y a des siècles, en Alsace, les habitants ont observé que les naissances étaient plus nombreuses à la fin de l’hiver lorsque les cigognes revenaient d’Afrique. Ils en ont déduit que les cigognes « apportaient » les bébés. Les Alsaciens ont confondu corrélation et causalité. Si les naissances sont plus nombreuses au printemps, c’est qu’à cette époque-là, déjà, les mariages avaient lieu au printemps et les bébés naissaient naturellement neuf mois plus tard... L’esprit humain aime définitivement faire des liens là où il n’y en a pas !
Dernière modification par ArchoZaure ; 12/03/2023 à 13h08.
En cherchant un peu la crainte principale évoquée à travers les armes autonomes semble se situer dans de possibles phénomènes de "déshumanisation numérique", c'est le terme qui revient souvent.
Sans questions il n'y a que des problèmes sans réponses.
Oui mais on a ce genre de phrase pour chaque évolution technique quelle qu'elle soit.
L'IA implique des changements sociétaux peut-être inédits ? Le rapport que l'on a avec l'information change et le fait que l'on ne puisse pas expliquer l'information produite par une IA ne donne pas de prise à un rejet rationnel de cette information.
Sans questions il n'y a que des problèmes sans réponses.
Lire ou relire "superiority" de A.C Clark (en anglais)La question est de savoir si des armements intelligents pourraient donner une supériorité énorme à ceux qui les utiliseraient.
L'article de PLS, c'est pour la police et le contrôle des foules civiles, pas pour faire la guerre à quelqu'un qui maitrise aussi bien voir mieux le sujet que vous.
Les drones et autres montrent tous leurs limites sur le champs de bataille restreint actuel, mais on ne peut pas en discuter ici.
Pour les morts des guerres, c'est la famine, les maladies et autres contraintes induites qui tuent plus que les armes.
Dans les villages gaulois, ils ne sont jamais tous d'accord. Jules César
Effectivement (je ne sais pas ce qu'on a le droit de discuter ici ou pas), sur cette vidéo sur l'Ukraine, ils mentionnent autour de la minute 12 que les russes utilisent des installations de brouillage massif contre les drones et que c'est assez efficace. Il est quand même probable que des armées équipées auront des défenses contre ces armes, les risques sont plus dans les conséquences d'utilisation civiles ou des actes terroristes isolés.
Non je pense plus simplement que n'importe qui peut se rendre compte à partir d'exemples de la vie courante qu'on va vers un emploi des drones de plus en plus douteux.
Alors si on y ajoute de l'IA, on peut imaginer ce que des individus malintentionnés pourraient réaliser.
C'est ce que montre la vidéo et c'est j'imagine aussi pourquoi le professeur Stuart Russel sonne l'alerte (histoire de légiférer un minimum j'imagine).
Pour info :
https://fr.wikipedia.org/wiki/Stuart...Stuart_RussellStuart Russell a été co-lauréat, en 1995, d'un IJCAI Computers and Thought Award, le premier prix international en intelligence artificielle pour les chercheurs de moins de 35 ans2. En 2003 il a été intronisé en tant que « compagnon » dans l'Association for Computing Machinery3 et en 2011 il devient un compagnon de l'Association américaine pour l'avancement des sciences4.
En 2005 il est récompensé par le ACM Karl V. Karlstrom Outstanding Educator Award5. En 2012, il est lauréat de la chaire internationale de Recherche Blaise Pascal, attribué à « des scientifiques étrangers de renommée internationale dans toutes les disciplines », ainsi que de la chaire d'excellence de l'Agence nationale de la recherche.
Au côté de Peter Norvig, il est l'auteur de Artificial Intelligence: A Modern Approach (en). Il est membre du conseil consultatif scientifique pour le Future of Life Institute6 et du conseil consultatif du Centre pour l'étude des risques existentiels7.
Après on peut aussi jouer au Bisounours et penser que c'est pas un sujet puisque quasiment toutes les nouvelles technologies apportent aussi leur cortège de calamités (logique bizarre mais bon on n'est pas tous des sommités de l’intelligence artificielle).
Mais on peut aussi prendre les devants au lieu d'attendre bêtement l'accident.
D'où virtuellement l’intérêt d'une IA embarquée.Effectivement (je ne sais pas ce qu'on a le droit de discuter ici ou pas), sur cette vidéo sur l'Ukraine, ils mentionnent autour de la minute 12 que les russes utilisent des installations de brouillage massif contre les drones et que c'est assez efficace. Il est quand même probable que des armées équipées auront des défenses contre ces armes, les risques sont plus dans les conséquences d'utilisation civiles ou des actes terroristes isolés.
Mais bon faut aussi voir le coût, même en production en série.
Pas sûr que ça vaille "le coût'.