C'est plus probablement 99% sur une cible spécifique (ennemie) et 1% sur un "dommage collatéral", en général pas vraiment ami s'il se trouve à proximité de la cible...
Tu crois vraiment que sur les champs de bataille les armées en sont à ce "détail" près ?
Pour le moral des troupes vous voulez dire ?
Frankenstein sors de ce corps !
Dernière modification par ArchoZaure ; 13/03/2023 à 14h39.
Je ne pensais pas à ce type d'usage d'une arme autonome (exterminer tous les ennemis dans un territoire donné), mais plutôt au ciblage d'individus (ou équipements) spécifiques.
Pour une armée assez avancée technologiquement pour utiliser l'IA dans le scénario que tu décris, ça ne doit pas être bien compliqué ni trop coûteux d'équiper ses soldats ou ses véhicules d'un dispositif (crypté) permettant à l'IA de les identifier à coup sûr (du moins tant que les signaux ne sont pas brouillés; et s'ils le sont ça peut être un critère de décision pour ne pas tirer).ne fait de pas "friendly fire", etc,
Accessoirement, une armée disposant de ces moyens aurait probablement besoin de moins de personnel sur le terrain (au moins tant qu'il n'aurait pas été "nettoyé" par les armes autonomes), ce qui limiterait le risque de "friendly fire"...
Bref, je ne vois malheureusement rien de vraiment bloquant (= qui fasse qu'une armée s'interdirait d'utiliser ce type de moyens) dans un futur proche.
On commence à être loin de notre domaine d'expertise à tous les deux et je n'aime pas parler de choses que je ne maitrise que très partiellement mais de mémoire, les armées n'aiment pas trop ce genre de solutions qui permettent de localiser, brouiller, se faire passer pour...J
Pour une armée assez avancée technologiquement pour utiliser l'IA dans le scénario que tu décris, ça ne doit pas être bien compliqué ni trop coûteux d'équiper ses soldats ou ses véhicules d'un dispositif (crypté) permettant à l'IA de les identifier à coup sûr (du moins tant que les signaux ne sont pas brouillés; et s'ils le sont ça peut être un critère de décision pour ne pas tirer).
Sur un champ de bataille moderne, cela implique d'augmenter son empreinte radio ce qui est vraiment une mauvaise idée.
Il y a également eu des précédents lors d'un guerre isréaelo-arabe où les avions isréaliens sont passé sans aucune difficulté à travers les défenses anti-aériennes parce qu'ils se faisaient identifier comme "avions amis" justement.
https://dicod.hosting.augure.com/Aug...%C3%A9taux.pdf
Position officielle. Si tout le monde fait pareil, c'est "bien"...on verra dans l'avenir ce qu'il en reste.
D'où l’intérêt de cataloguer, c'est à dire de déjà parler de ce qui existe actuellement, prendre des exemples, d'autant que c'est vaste le domaine de l'armement
Sinon au lieu de parler science on se limite à des généralités de niveau discussion de comptoir.
Oui bien sûr c'est évident, et tout le monde sera d'accord avec ça, ou pas, mais c'est un détail.Envoyé par yves5210Pour une armée assez avancée technologiquement pour utiliser l'IA dans le scénario que tu décris, ça ne doit pas être bien compliqué ni trop coûteux d'équiper ses soldats ou ses véhicules d'un dispositif (crypté) permettant à l'IA de les identifier à coup sûr (du moins tant que les signaux ne sont pas brouillés; et s'ils le sont ça peut être un critère de décision pour ne pas tirer).
Accessoirement, une armée disposant de ces moyens aurait probablement besoin de moins de personnel sur le terrain (au moins tant qu'il n'aurait pas été "nettoyé" par les armes autonomes), ce qui limiterait le risque de "friendly fire"...
A ce niveau de la discussion, moi non plus.Envoyé par yves95210Bref, je ne vois malheureusement rien de vraiment bloquant (= qui fasse qu'une armée s'interdirait d'utiliser ce type de moyens) dans un futur proche.
Tout est possible, tout est imaginable.
merci pour avoir apporté une des rares contributions pertinentes pour la question posée au départ .https://dicod.hosting.augure.com/Aug...%C3%A9taux.pdf
Position officielle. Si tout le monde fait pareil, c'est "bien"...on verra dans l'avenir ce qu'il en reste.
Cela m'intéresse ; c'est quoi la question posée au départ ?? Perso en l'absence de question je suis resté sur le côté généraliste du titre qui ouvre des questionnements selon deux axes à creuser, le caractère "obscur" des informations générées par l'IA et l'interprétation possiblement obscure de ces infos par l'humain : s'agissant de deux obscurités clairement différentes mettre en lumière leur nature aurait permis d'y voir plus clair.
Sans questions il n'y a que des problèmes sans réponses.
Le document date de 2021 => caduc.
L'IA guerrière est déjà là, j'ignore si la prise de décision est automatique pour le champ de bataille conventionnel. Pour le stratégique je renvois à Система « Периметр », et l'éventuelle décision automatique de riposte russe.
L'IA pertinente fait de bonne analyse, elle sert donc aujourd'hui à trouver les canons qui viennent de tirer par le bruit qu'ils ont fait et le signale au système de lutte, j'ignore si le système désigne par autre IA quel est le moyen de riposte le plus en mesure de réagir et encore moins si elle met à feu.
Elle dépatouille les innombrables ondes électromagnétiques venant de différents radars aux fréquences différentes pour dire qu'il y a un truc pas ami qui vole et que c'est probablement ça d'après la forme calculée et ce qu'elle a en base de donnée. Pareil je ne sais pas si la décision d'engager lui appartient, où si on perd du temps à trouver une "unité de carbone base" pour le faire.
Et sans doute un tas d'autre choses inconnues du grand public.
Maintenant un drone automatique qui butte par reconnaissance faciale un type dans la manif d'opposition, ne changera pas grand chose, il y déjà les tireurs d'élites des forces de l'ordre, juste quelques règles d'engagement à changer.
Le vrai coté obscur serait la disponibilité d'IA létale pour le grand public.
Dans les villages gaulois, ils ne sont jamais tous d'accord. Jules César
Pas forcément dans la distinction qu'il établit entre systèmes d'armes létaux autonomes (SALA) et systèmes d'armes létaux "intégrant de
l’autonomie mais demeurant sous maîtrise de l’humain" (SALIA), et dans les recommandations (pas seulement basées sur l'éthique) qu'il fait.
Sans aucun doute, mais aujourd'hui il ne s'agit pas de "SALA" - qui relèvent peut-être encore un peu de la SF, mais dans ce domaine la réalité risque de rattraper rapidement la fiction.L'IA guerrière est déjà là,
C'est ce que je disais, les Etats qui en ont la volonté (et pas trop de contraintes politiques l'empêchant de l'appliquer) en ont déjà les moyens, armes autonomes ou pas.Maintenant un drone automatique qui butte par reconnaissance faciale un type dans la manif d'opposition, ne changera pas grand chose, il y déjà les tireurs d'élites des forces de l'ordre, juste quelques règles d'engagement à changer.
Je suis d'accord.Le vrai coté obscur serait la disponibilité d'IA létale pour le grand public.
Pourquoi? et au niveau international, c'est idem; voir l'OTAN par ex.
Si ça fait référence à ce que j'ai dit plus haut, il ne s'agit pas de buter un opposant, mais juste qu'il sache qu'il peut être identifié, donc l'inciter à ne pas manifester pour ne pas avoir d'ennuis. En tout cas cela fait partie des questions éthiques posées par les instances gouvernementales, n'en déplaise à certains.Maintenant un drone automatique qui butte par reconnaissance faciale un type dans la manif d'opposition, ne changera pas grand chose, il y déjà les tireurs d'élites des forces de l'ordre, juste quelques règles d'engagement à changer.
Vous y croyez vraiment? Essayez d'acheter un missile en tant que" grand public"...Le vrai coté obscur serait la disponibilité d'IA létale pour le grand public.
C'est sur l'aspect "légaliste" qu'il est caduc en 2023, techniquement les définitions ne bougent pas.Pas forcément dans la distinction qu'il établit entre systèmes d'armes létaux autonomes (SALA) et systèmes d'armes létaux "intégrant de
l’autonomie mais demeurant sous maîtrise de l’humain" (SALIA), et dans les recommandations (pas seulement basées sur l'éthique) qu'il fait.
Dans le genre prise de décision "tout seul", en fait dans le programme embarqué, il y a un déjà vieux (XXème) type de missile anti navire qui est tiré en salve.
Quand suffisamment de missiles ont acquis le but principal, les autres se verrouillent sur ce qui l'accompagne.
(10) Sont qualifiables de SALA des systèmes d'armes létaux programmés pour être capables de faire évoluer, au-delà du cadre d'emploi fixé initialement, leurs règles de fonctionnement, pour être capables d'utiliser cette programmation pour calculer une décision en vue d’une action sans appréciation de situation1 par le commandement.Un missile est tiré avec un but principal, genre se diriger vers un objectif genre infrastructure, mais ses prédécesseurs ayant activé la défense aérienne, celle ci c'est démasquée, mais ne va pas rester longtemps visible, voire va déguerpir, le missile bascule vers la position trouvée.12) Autrement dit, un SALIA est un système d’armes létal dont les fonctions de décision (au sens de l’autonomie décisionnelle robotique) sont dépendantes d’un cadre d’action précis. Le SALIA ne peut prendre d’initiatives létales qui l’amèneraient à modifier son domaine de fonctionnement.
Question : S'il le fait tout seul c'est un SALA, s'il le fait parce qu'il reçoit l'info d'un autre système automatique c'est un SALIA ?
Dans les villages gaulois, ils ne sont jamais tous d'accord. Jules César
La France n'est pas seule au monde.Vous y croyez vraiment? Essayez d'acheter un missile en tant que" grand public"...
Dans les villages gaulois, ils ne sont jamais tous d'accord. Jules César
Et vos chiffres à vous ils sont où ?
La contre-argumentation de type caca nerveux n'est pas constructive.
Et en se renseignant un peu, on peut facilement constater que la proposition de pm42 est partagée par les spécialistes en la question.
Exemple : https://books.google.fr/books?hl=fr&...zation&f=falseHeureusement que c'est facile à constater, parce que toujours pas de réponse à ma question....
Il n'est pas spécialiste du sujet, et même si son livre a le mérite de "casser" l'image du gentil sauvage, il a été aussi critiqué, après vous dites que cela fait consensus, je veux bien vous croire, mais avez vous autre chose qu'un livre pour appuyer vos dires? Je n'ai aucun avis sur le sujet, mais ça m'intéresse. Ensuite on pourra éventuellement se demander le taux de 30 à 50% évoqué...
Je me demande si c'est pas une affirmation en l'air...
Sans questions il n'y a que des problèmes sans réponses.
Cessez de faire le clown. Ce monsieur n'est peut être pas un spécialiste de ce sujet précis, mais il est néanmoins anthropologue, ce qui je crois n'est pas votre cas, et a eu le mérite de rassembler des informations sous forme d'un livre. C'est une source (on a toujours le droit de discuter de la pertinence d'une source, le savez vous ?, mais uniquement de façon argumentée et factuelle) que j'ai apportée à la discussion. De votre côté vous n'avez rien apporté de factuel sur ce sujet à part un antagonisme vide. Donc, encore une fois, avez vous autre chose que vos dires pour appuyer vos dires ?
Ce sera ma dernière réponse sur ce fil car je n'ai ni envie de promouvoir le hors sujet ni envie de poursuivre ce type d'échange. Je vous invite à faire de même.
La vie trouve toujours un chemin
Là c'est du ressort de la psychologie. Quand je lis la phrase en exergue en-dessous du titre,
... le sujet de l'article me semble assez clair.La résurgence des conflits pousse les états vers le déploiement d’armes autonomes autorisées à tuer sans supervision humaine. Les chercheurs et la communauté internationale doivent unir leurs forces pour faire interdire ces « robots tueurs ».
Pas grand-chose à voir avec
En l'occurrence, le problème est que l'IA n'aurait pas besoin de générer d'informations à destination des humains (ni ceux-ci de les interpréter) et prendrait des décisions de manière autonome en fonction non pas des informations qu'elle génèrerait mais de celles qu'elle recueillerait sur le terrain, et de la manière (possiblement obscure) dont elle les interpréterait.le caractère "obscur" des informations générées par l'IA et l'interprétation possiblement obscure de ces infos par l'humain
Un peu de respect, la charte donc la demande de courtoisie s'applique aussi à vous ok?Cessez de faire le clown. Ce monsieur n'est peut être pas un spécialiste de ce sujet précis, mais il est néanmoins anthropologue, ce qui je crois n'est pas votre cas, et a eu le mérite de rassembler des informations sous forme d'un livre. C'est une source (on a toujours le droit de discuter de la pertinence d'une source, le savez vous ?, mais uniquement de façon argumentée et factuelle) que j'ai apportée à la discussion.
Oui il est anthropologue et alors? il est pas spécialiste de ces questions, comme si un physicien spécialisé en mécanique des fluides et qui fait un bouquin sur la physique quantique, vous lui accorder quel crédit?? surtout si son bouquin a été critiqué par des gens qui sont eux du domaine?? Donc non ça ne rassemble pas les informations qui feraient consensus. Vous apportez une "source" très discutable, et vous me demandez de la réfuter de façon argumentée et factuelle....c'est le monde à l'envers...
Encore un renversement de la charge de la preuve?? bravo! Sinon, ma 1ère intervention qui vous a irrité, a juste eu pour but de dire à pm42 que la critique qu'il faisait sur certaines affirmations valait aussi pour la sienne, tout en critiquant son affirmation (taux de mortalité de 30 à 50% de morts aux temps des chasseurs cueilleurs), qui est non argumentée, mais pour vous c'est un antagonisme vide...De votre côté vous n'avez rien apporté de factuel sur ce sujet à part un antagonisme vide. Donc, encore une fois, avez vous autre chose que vos dires pour appuyer vos dires ?
Il vaut mieux, franchement, pour un scientifique je m'attendais à un peu plus de droiture même si vous pouvez pas me saquer, la science devrait être votre ligne de conduite et je vous ai déjà dit, envoyez moi vos sources scientifiques par mp pour éviter le HS...puisqu'elles sont soit disant si faciles à trouver...Ce sera ma dernière réponse sur ce fil car je n'ai ni envie de promouvoir le hors sujet ni envie de poursuivre ce type d'échange. Je vous invite à faire de même.
Dernière modification par Avatar10 ; 14/03/2023 à 08h20.
Je pense qu'il y a au moins deux éléments à prendre en compte pour une absence d'information vers l'humain.En l'occurrence, le problème est que l'IA n'aurait pas besoin de générer d'informations à destination des humains (ni ceux-ci de les interpréter) et prendrait des décisions de manière autonome en fonction non pas des informations qu'elle génèrerait mais de celles qu'elle recueillerait sur le terrain, et de la manière (possiblement obscure) dont elle les interpréterait.
Le temps: La décision de l'IA d'attaquer immédiatement, c'est parce que le délai d'intervention humaine va rendre l'attaque impossible, voire conduire à son échec.
La discrétion: Envoyer une information, c'est émettre et quand on émet on devient visible.
Rien ne me semble interdire à l'IA d'avoir aussi des critères pour rendre compte, demander ou pas à Sapiens ce qu'il en pense quand elle trouve quelques chose.
En particulier un même système sert en temps de paix, de crise ou hostilité ouvertes, par "économie" le mode de fonctionnement est différent suivant la situation.
Les systèmes de combat travaillent suivant ce mode, tir sur ordre ou automatique avec véto, c'est s'affranchir du véto qui semble interpeller.
Dans les villages gaulois, ils ne sont jamais tous d'accord. Jules César
Ou le risque de ne pas pouvoir envoyer une information ou recevoir un ordre (brouillage des signaux radio).Je pense qu'il y a au moins deux éléments à prendre en compte pour une absence d'information vers l'humain.
Le temps: La décision de l'IA d'attaquer immédiatement, c'est parce que le délai d'intervention humaine va rendre l'attaque impossible, voire conduire à son échec.
La discrétion: Envoyer une information, c'est émettre et quand on émet on devient visible.
Bien sûr, à part le point ci-dessus (qui préoccupe pas mal les militaires, à juste titre). Reste à voir quels sont les critères de décision de l'IA (ceux que ses concepteurs ont programmés) dans ce cas.Rien ne me semble interdire à l'IA d'avoir aussi des critères pour rendre compte, demander ou pas à Sapiens ce qu'il en pense quand elle trouve quelques chose.
Dans le cas d'armes de guerre, oui. Mais imposer un veto est contradictoire avec le besoin que tu indiquais plus haut, "La décision de l'IA d'attaquer immédiatement, c'est parce que le délai d'intervention humaine va rendre l'attaque impossible, voire conduire à son échec"...En particulier un même système sert en temps de paix, de crise ou hostilité ouvertes, par "économie" le mode de fonctionnement est différent suivant la situation.
Les systèmes de combat travaillent suivant ce mode, tir sur ordre ou automatique avec véto, c'est s'affranchir du véto qui semble interpeller.
Dans les cas de détournement possible (terrorisme, meurtre de masse), ce n'est pas que l'absence de veto qui pose problème, puisque la volonté est justement de faire le plus de dégâts possible. Reste à voir si le scénario d'horreur décrit par l'auteur de l'article à l'origine de cette discussion est crédible :
Mais si la technologie existe, il n'y a pas de raison qu'elle ne devienne pas (relativement) bon marché - autant que les drones civils bricolés qu'utilisent les Ukrainiens. Ils ne sont "que" télécommandés, pas encore autonomes, ce qui les rend vulnérables au brouillage.« on peut s’attendre à des armes déployées par millions, dont l’efficacité et la létalité laisseront les humains totalement sans défense ». Ce raisonnement est illustré dans une vidéo de 2017 promouvant le contrôle des armements, que j’ai publiée avec le Future of Life Institute. Elle présente le concept des slaughterbots, des essaims de microdrones bon marché utilisant l’IA et la reconnaissance faciale pour assassiner des opposants politiques. Comme aucune supervision humaine n’est nécessaire, une seule personne serait capable de lancer un nombre quasi illimité de tels drones pour anéantir des populations entières.
Pour les rendre autonomes dans un objectif de meurtre de masse, il suffirait qu'ils embarquent un peu d'électronique (un micro-ordinateur tenant sur une carte de quelques cm; le GPS et la caméra dont est déjà équipé le drone pour se repérer sur le terrain, et un capteur infrarouge pour être capable de détecter - sans discernement, mais dans cet objectif ce n'est pas un problème - des cibles vivantes), et un logiciel "intelligent" rudimentaire.
Même pas sûr qu'il y ait besoin d'une IA pour cela, puisque l'intérêt de l'IA serait justement de pouvoir faire preuve de discernement (par ex. en utilisant la reconnaissance faciale). En revanche l'IA aurait évidemment un rôle dans l'autre scénario évoqué par l'auteur de l'article, l'assassinat (ciblé) d'opposants politiques (ou autres).
Pour résumer Lorsqu'on a de l'IA on a des armes SALIA (supervisées) ou des armes SALA (autonomes).
Ce sont donc les armes SALA qui font débat et il n'y a pas à ce niveau de consensus à l'échelle mondiale.
En France, d'après ce que souligne le document de travail, l'emploi des SALA va à l'encontre de l'éthique de l'armée et elles ne sont pas censées être utilisés.
On peut par contre les étudier et donc aussi les produire à titre préventif (pour ne pas se laisser distancer en terme de technologie par ceux qui en feraient usage).
La question de l'emploi ou non de ce type d'armes (dont on peut discuter de l'efficacité "tous terrains" mais ce n'est pas le sujet) n'est donc pas une question de science mais une question d'éthique.
C'est pour ça que j'ai tenu à donner quelques exemple de SALIA d'aide au tir à l'infanterie, pour montrer à quel point la frontière entre les SALA et les SALIAS est ténue.
Dans ce cas en effet le système SALIA ne donne aucune garantie quant à l'usage respectant les règles internationales du conflit armé.
Ça rend le tir plus rapide, plus mortel aussi probablement, et aussi plus aléatoire quant au ciblage à destination. Il est plus facile de se tromper et ainsi tuer par exemple un civil qui passe par là. Ce qui est interdit.
Mais... c'est éthique. Puisque le fin mot de l'histoire, les précautions qui permettent de contrer les erreurs, ça se passe dans la tête du soldat. En cas de doute, au cas où la situation prête à confusion, il peut CHOISIR d'employer l'arme, et de tirer ou non.
Dernière modification par ArchoZaure ; 14/03/2023 à 10h09.
Ca marche dans les 2 sens : les drones et l'IA sont des technologies abordables donc si on peut s'en servir pour assassiner l'opposant politique, celui ci peut s'en servir pour cibler le pouvoir en place, etc.
On peut imaginer une grande variété de scénarios allant de la catastrophe totale à quelque chose qui finalement fait baisser la violence avec affrontement via proxies autonomes et donc moins grande pertes de vie humaine : on n'aurait plus que des armées de métier mécanique et une pression assez faible sur les populations civiles ce qui est ce qui s'est produit pendant une grande partie de l'histoire. On a des cas documentés de civils du coin qui vont voir une bataille comme un spectacle jusqu'au XIXème siècle notamment pendant la Guerre de Sécession.
Le problème, c'est comme on est dans le peur de la nouveauté, seuls vont être présentés les scénarios à l'appui de la thèse du "on va tous mourir ou pire" sans mesure de leur probabilité, sans réflexion sur les possibilités d'adaptations/contre-mesures, les mécanismes sociaux de contrôle et surtout sans tentative de valider/invalider les affirmations par une comparaison avec des cas connus.
Et ce n'est pas ce qui manque parce que des évolutions militaires qui ont amené à ce genre de peur ont été nombreuses.
Dans le sens inverse, Samuel Colt pensait que son arme, le revolver allait donner à tout le monde le moyen de se défendre et donc allait assurer une société paisible.
si vis pacem, para bellum.....
p't'être ben que oui, p't'être ben que non.... disait le vieux Normand.... c'était un ancien Viking, bien sûr....
rien ne sert de penser, il faut réfléchir avant.... (Pierre Dac...)
Pour les drones civils en emploi militaire, le Sapiens a compris rapidement qu'il suffisait de suivre le retour du drone vers son camp (par un drone éventuellement) pour trouver autre chose de plus intéressant à casser qu'un peu de plastique.
Le véto permet d'éviter l'erreur jusqu'à un certain point, d'autre part le "mode auto" a une tendance à vider les munitions bien trop rapidement, tirer sur tout ce qui n'est pas reconnu hostile est coûteux.Mais imposer un veto est contradictoire avec le besoin que tu indiquais plus haut
L'IA permet sans doute d'augmenter la certitude de la nature des cibles.
C'est ce que j'évoquais plus haut "comme le nucléaire", la primauté de l'emploi ne garantie pas le succès.Ca marche dans les 2 sens : les drones et l'IA sont des technologies abordables donc si on peut s'en servir pour assassiner l'opposant politique, celui ci peut s'en servir pour cibler le pouvoir en place, etc.En revanche l'IA aurait évidemment un rôle dans l'autre scénario évoqué par l'auteur de l'article, l'assassinat (ciblé) d'opposants politiques (ou autres).
Avoir chez soi un masque en latex à l'effigie du dirigeant en place.
C'est pour cela que j'ai écrit plus haut que le document de 2021 est caduc sur le plan "légaliste" en 2023.a question de l'emploi ou non de ce type d'armes (dont on peut discuter de l'efficacité "tous terrains" mais ce n'est pas le sujet) n'est donc pas une question de science mais une question d'éthique.
C'est pour ça que j'ai tenu à donner quelques exemple de SALIA d'aide au tir à l'infanterie, pour montrer à quel point la frontière entre les SALA et les SALIAS est ténue.
Dans ce cas en effet le système SALIA ne donne aucune garantie quant à l'usage respectant les règles internationales du conflit armé.
Dans les villages gaulois, ils ne sont jamais tous d'accord. Jules César
Non pas du tout.
Colt se foutait royalement de la paix sociale comme tout bon fabricant d'armes, c'était un commercial, un industriel averti, pas un altruiste.
Un peu de lecture sur ce bonhomme:
iste_techinn21v6n4_5.pdf (openscience.fr)
Oui mais s'il avait dit ça il aurait eu raison puisqu'il parait qu'augmenter le niveau technologique des armes diminue le nombre de morts violentes.Non pas du tout.
Colt se foutait royalement de la paix sociale comme tout bon fabricant d'armes, c'était un commercial, un industriel averti, pas un altruiste.
Un peu de lecture sur ce bonhomme:
iste_techinn21v6n4_5.pdf (openscience.fr)
Bon après c'est vrai qu'un chasseurs cueilleur qui de base chasse et égorge sa proie avec un silex sera moins tatillon pour s'en prendre à son prochain qu'un primo meurtrier outillé du Colt qui achète sa barquette de dinde au supermarché du coin et qui d’évanouie à la vue d'une goutte de sang.
Dernière modification par ArchoZaure ; 14/03/2023 à 15h52.