ChatGPT peut se tromper mais le reconnaît poliment - Page 6
Discussion fermée
Page 6 sur 16 PremièrePremière 6 DernièreDernière
Affichage des résultats 151 à 180 sur 477

ChatGPT peut se tromper mais le reconnaît poliment



  1. #151
    MissJenny

    Re : ChatGPT peut se tromper mais le reconnaît poliment


    ------

    Sil a appris la zoologie correctement il ne doit pas comprendre la blague, puisqu'en réalité c'est le dromadaire (genre Camelus) qui est vu comme un chameau à une bosse et non l'inverse.

    -----

  2. #152
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par MissJenny Voir le message
    Sil a appris la zoologie correctement
    Le concept n'a pas de sens appliqué à ce genre de chatbot.

    Citation Envoyé par MissJenny Voir le message
    il ne doit pas comprendre la blague
    Le concept n'a pas plus de sens. Il ne "comprend" pas au sens où on l'entend habituellement. Ce qu'il fait est différent, pas forcément si éloigné que ça du fonctionnement de certaines parties du cerveau humain mais pas pareil non plus et il faut être très prudent avant de projeter nos références habituelle sur ChatGPT.

  3. #153
    Brinicle

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Bonjour,

    Je vient d'essayer et c'est vrai que c'est assez bluffant, surtout la génération de code :

    génère moi le code d'un jeu pong en python avec pygame

    Voici le code d'un jeu de Pong en Python utilisant la bibliothèque Pygame :

    import pygame

    # Initialisation de Pygame
    pygame.init()

    # Définition des dimensions de la fenêtre
    window_width = 800
    window_height = 600

    # Création de la fenêtre
    screen = pygame.display.set_mode((windo w_width, window_height))

    # Définition des couleurs
    black = (0, 0, 0)
    white = (255, 255, 255)

    # Définition des dimensions et de la vitesse de la balle
    ball_width = 20
    ball_height = 20
    ball_speed_x = 5
    ball_speed_y = 5

    # Création de la balle
    ball = pygame.Rect(window_width / 2 - ball_width / 2, window_height / 2 - ball_height / 2, ball_width, ball_height)

    # Définition des dimensions et de la vitesse des raquettes
    paddle_width = 15
    paddle_height = 100
    paddle_speed = 5

    # Création de la raquette de gauche
    left_paddle = pygame.Rect(paddle_width, window_height / 2 - paddle_height / 2, paddle_width, paddle_height)

    # Création de la raquette de droite
    right_paddle = pygame.Rect(window_width - 2 * paddle_width, window_height / 2 - paddle_height / 2, paddle_width, paddle_height)

    # Définition du score
    score = [0, 0]

    # Boucle principale
    running = True
    while running:
    # Gestion des évènements
    for event in pygame.event.get():
    if event.type == pygame.QUIT:
    running = False
    # Gestion du déplacement de la raquette de gauche
    if event.type == pygame.KEYDOWN:
    if event.key == pygame.K_w:
    left_paddle.y -= paddle_speed
    if event.key == pygame.K_s:
    left_paddle.y += paddle_speed
    # Gestion du déplacement de la raquette de droite
    if event.type == pygame.KEYDOWN:
    if event.key == pygame.K_UP:
    right_paddle.y -= paddle_speed
    if event.key == pygame.K_DOWN:
    right_paddle.y += paddle_speed

    # Mise à jour de la position de la balle
    ball.x += ball_speed_x
    ball.y += ball_speed_y

    # Gestion des rebonds de la balle sur les bords de la fenêtre
    if ball.top <= 0 or ball.bottom >= window_height:
    ball_speed_y *= -1
    if ball.left <= 0 or ball.right >= window_width:
    ball_speed_x *= -1

    # Gestion des rebonds de la balle sur les raquettes
    if ball.colliderect(left_paddle) or ball.coll

    Brinicle
    continue

    Voici la suite du code du jeu de Pong en Python utilisant Pygame :

    # Gestion des rebonds de la balle sur les raquettes
    if ball.colliderect(left_paddle) or ball.colliderect(right_paddle) :
    ball_speed_x *= -1

    # Mise à jour du score
    if ball.left <= 0:
    score[1] += 1
    if ball.right >= window_width:
    score[0] += 1

    # Affichage du score
    font = pygame.font.Font(None, 74)
    text = font.render(str(score[0]), 1, white)
    screen.blit(text, (window_width / 2 - 100, 10))
    text = font.render(str(score[1]), 1, white)
    screen.blit(text, (window_width / 2 + 100, 10))

    # Dessin de la balle et des raquettes
    pygame.draw.rect(screen, white, ball)
    pygame.draw.rect(screen, white, left_paddle)
    pygame.draw.rect(screen, white, right_paddle)

    # Mise à jour de l'affichage
    pygame.display.flip()

    # Fermeture de Pygame
    pygame.quit()

    Ce code crée une fenêtre de jeu de 800x600 pixels, une balle et deux raquettes qui peuvent être contrôlées par les touches W et S pour la raquette de gauche et les touches fléchées haut et bas pour la raquette de droite. La balle rebondit sur les bords de la fenêtre et sur les raquettes, et le score est mis à jour lorsque la balle sort de l'écran par la gauche ou la droite.

    N'hésitez pas à me poser d'autres questions si vous avez besoin d'aide pour comprendre le fonctionnement de ce code ou si vous souhaitez en savoir plus sur Pygame.
    Brinicle
    tu as oublié de re remplir la fenêtre en noir entre chaque boucle... devine ce qui se passe

    Vous avez raison, j'ai oublié de re-remplir la fenêtre en noir entre chaque itération de la boucle principale. Cela signifie que l'écran ne sera pas effacé à chaque mise à jour, ce qui peut causer des problèmes d'affichage tels que des traces laissées par la balle et les raquettes.

    Pour remédier à ce problème, il suffit d'ajouter une ligne de code pour remplir l'écran en noir avant de dessiner les éléments du jeu :

    # Remplissage de l'écran en noir
    screen.fill(black)

    # Dessin de la balle et des raquettes
    pygame.draw.rect(screen, white, ball)
    pygame.draw.rect(screen, white, left_paddle)
    pygame.draw.rect(screen, white, right_paddle)

    Cela permettra d'effacer l'écran avant de dessiner les éléments du jeu à chaque itération de la boucle principale, ce qui devrait résoudre les problèmes d'affichage que vous avez mentionnés.

    Je vous remercie de votre remarque et j'espère que cette correction vous sera utile. N'hésitez pas à me poser d'autres questions si vous avez besoin d'aide ou de conseils pour votre projet.
    Brinicle
    ajoute le gestion du gain des joueurs

    Pour gérer le gain des joueurs dans le jeu de Pong, vous pouvez ajouter une condition de victoire en vérifiant si l'un des scores atteint un certain seuil. Par exemple, vous pouvez définir un seuil de victoire à 10 points et arrêter la boucle principale du jeu lorsqu'un des scores atteint ou dépasse ce seuil :

    # Définition du seuil de victoire
    victory_threshold = 10

    # Boucle principale
    running = True
    while running:
    # Gestion des évènements, mise à jour de la position de la balle, gestion des rebonds, etc.

    # Mise à jour du score
    if ball.left <= 0:
    score[1] += 1
    if ball.right >= window_width:
    score[0] += 1

    # Vérification de la victoire
    if score[0] >= victory_threshold or score[1] >= victory_threshold:
    running = False

    Vous pouvez également afficher un message de victoire à l'écran lorsque l'un des joueurs atteint le seuil de victoire :

    # Affichage du message de victoire
    if score[0] >= victory_threshold:
    font = pygame.font.Font(None, 74)
    text = font.render("Joueur 1 gagne !", 1, white)
    screen.blit(text, (window_width / 2 - 200, window_height / 2))
    if score[1] >= victory_threshold:
    font = pygame.font.Font(None, 74)
    text = font.render("Joueur 2 gagne !", 1, white)
    screen.blit(text, (window_width / 2 - 200, window_height / 2))

    Vous pouvez également ajouter d'autres conditions de victoire, par exemple en limitant le temps de jeu ou en comptant les points de chaque joueur à la fin d'une manche. N'hésitez pas à me poser d'autres questions si vous avez besoin d'aide ou de conseils pour implémenter ces fonctionnalités dans votre jeu de Pong.
    Brinicle
    la balle est beaucoup trop rapide

    Il est possible que la balle soit trop rapide dans votre jeu de Pong en raison de la valeur de la vitesse de déplacement que vous avez définie. Pour réduire la vitesse de la balle, vous pouvez diminuer la valeur de la variable ball_speed_x et ball_speed_y qui définissent la vitesse de déplacement de la balle en abscisse et en ordonnée.

    Par exemple, vous pouvez diviser ces valeurs par deux pour réduire la vitesse de la balle de moitié :

    # Réduction de la vitesse de la balle
    ball_speed_x = ball_speed_x / 2
    ball_speed_y = ball_speed_y / 2

    Vous pouvez également ajuster la vitesse de la balle de manière dynamique en fonction de la vitesse des raquettes ou de la distance parcourue par la balle, ou encore en utilisant une fonction de acceleration ou de ralentissement. N'hésitez pas à me poser d'autres questions si vous avez besoin d'aide pour ajuster la vitesse de la balle dans votre jeu de Pong.
    Au final :

    Code:
    import pygame
    
    # Initialisation de Pygame
    pygame.init()
    
    # Définition des dimensions de la fenêtre
    window_width = 800
    window_height = 600
    
    # Création de la fenêtre
    screen = pygame.display.set_mode((window_width, window_height))
    
    # Définition des couleurs
    black = (0, 0, 0)
    white = (255, 255, 255)
    
    # Définition des dimensions et de la vitesse de la balle
    ball_width = 20
    ball_height = 20
    ball_speed_x = 2
    ball_speed_y = 2
    
    # Création de la balle
    ball = pygame.Rect(window_width / 2 - ball_width / 2, window_height / 2 - ball_height / 2, ball_width, ball_height)
    
    # Définition des dimensions et de la vitesse des raquettes
    paddle_width = 15
    paddle_height = 100
    paddle_speed = 5
    
    # Création de la raquette de gauche
    left_paddle = pygame.Rect(paddle_width, window_height / 2 - paddle_height / 2, paddle_width, paddle_height)
    
    # Création de la raquette de droite
    right_paddle = pygame.Rect(window_width - 2 * paddle_width, window_height / 2 - paddle_height / 2, paddle_width, paddle_height)
    
    # Définition du score
    score = [0, 0]
    
    # Définition du seuil de victoire
    victory_threshold = 10
    
    # Boucle principale
    running = True
    while running:
        # Gestion des évènements
        for event in pygame.event.get():
            if event.type == pygame.QUIT:
                running = False
            # Gestion du déplacement de la raquette de gauche
            if event.type == pygame.KEYDOWN:
                if event.key == pygame.K_w:
                    left_paddle.y -= paddle_speed
                if event.key == pygame.K_s:
                    left_paddle.y += paddle_speed
            # Gestion du déplacement de la raquette de droite
            if event.type == pygame.KEYDOWN:
                if event.key == pygame.K_UP:
                    right_paddle.y -= paddle_speed
                if event.key == pygame.K_DOWN:
                    right_paddle.y += paddle_speed
    
        # Mise à jour de la position de la balle
        ball.x += ball_speed_x
        ball.y += ball_speed_y
    
        # Gestion des rebonds de la balle sur les bords de la fenêtre
        if ball.top <= 0 or ball.bottom >= window_height:
            ball_speed_y *= -1
        if ball.left <= 0 or ball.right >= window_width:
            ball_speed_x *= -1
    
        # Gestion des rebonds de la balle sur les raquettes
        if ball.colliderect(left_paddle) or ball.colliderect(right_paddle):
            ball_speed_x *= -1
        
        # Mise à jour du score
        if ball.left <= 0:
            score[1] += 1
        if ball.right >= window_width:
            score[0] += 1
    
        # Vérification de la victoire
        if score[0] >= victory_threshold or score[1] >= victory_threshold:
            running = False
        
        # Mise à jour du score
        if ball.left <= 0:
            score[1] += 1
        if ball.right >= window_width:
            score[0] += 1
    
        # Affichage du score
        font = pygame.font.Font(None, 74)
        text = font.render(str(score[0]), 1, white)
        screen.blit(text, (window_width / 2 - 100, 10))
        text = font.render(str(score[1]), 1, white)
        screen.blit(text, (window_width / 2 + 100, 10))
        
        # Affichage du message de victoire
        if score[0] >= victory_threshold:
            font = pygame.font.Font(None, 74)
            text = font.render("Joueur 1 gagne !", 1, white)
            screen.blit(text, (window_width / 2 - 200, window_height / 2))
        if score[1] >= victory_threshold:
            font = pygame.font.Font(None, 74)
            text = font.render("Joueur 2 gagne !", 1, white)
            screen.blit(text, (window_width / 2 - 200, window_height / 2))
        
        # Remplissage de l'écran en noir
        screen.fill(black)
        
        # Dessin de la balle et des raquettes
        pygame.draw.rect(screen, white, ball)
        pygame.draw.rect(screen, white, left_paddle)
        pygame.draw.rect(screen, white, right_paddle)
    
        # Mise à jour de l'affichage
        pygame.display.flip()
    
    # Fermeture de Pygame
    pygame.quit()
    Par contre si j'essaie de le faire coder le jeu petit à petit, par description progressive des éléments c'est assez désastreux... D'autant qu'il coupe souvent la rédaction du code en plein milieu quand le code est long.
    Ne jamais faire un calcul sans connaître son résultat !

  4. #154
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Brinicle Voir le message
    D'autant qu'il coupe souvent la rédaction du code en plein milieu quand le code est long.
    C'est un problème que j'ai rencontré à plusieurs reprises. L'affichage des réponses de ChatGPT doit être limité en nombre de caractères.
    Mais il suffit de lui dire que sa réponse a été tronquée à cause de cette limite et de lui indiquer à peu près à quel endroit cette coupure est intervenue pour qu'il fournisse la suite, de manière cohérente. Je n'ai pas essayé avec du code mais avec du texte, en lui demandant de fournir la suite d'une réponse coupée au milieu de tel ou tel paragraphe, et il affiche alors la suite de la réponse à partir du début de ce paragraphe.

  5. #155
    MissJenny

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    ha ha! les informaticiens scient la branche sur laquelle ils sont assis. Dans moins d'une génération il n'y aura plus aucun programmeur humain.

  6. #156
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par MissJenny Voir le message
    ha ha! les informaticiens scient la branche sur laquelle ils sont assis. Dans moins d'une génération il n'y aura plus aucun programmeur humain.
    Affirmation parfaitement gratuite. On n'en sait absolument rien.
    Certaines tâches vont sans doute être automatisées mais c'est comme ça depuis le début de l'informatique et pourtant, la demande pour les programmeurs n'a jamais été aussi forte.

    Mais il est parfaitement possible que la programmation comme d'ailleurs la conduite 100% autonome nécessite une IA forte et qu'on n'y soit pas dans une génération.
    L'IA ne progresse linéairement et avant les progrès récent, elle a justement connu ce qu'on appelle des glaciations en décennies où elle n'intéressait plus grand monde, n'avait pas d'investissements et ne progressait pratiquement pas.

  7. #157
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par vgondr98 Voir le message
    Je lui ai expliqué la blague avec des exemples et j'ai beaucoup insisté.
    En fait ma question en #145 est de savoir sur quel site il faut se connecter ?
    Sans questions il n'y a que des problèmes sans réponses.

  8. #158
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Liet Kynes Voir le message
    En fait ma question en #145 est de savoir sur quel site il faut se connecter ?
    Le premier que remontera ton moteur de recherche si tu tapes ChatGPT : https://openai.com/blog/chatgpt/
    Tu trouveras un bouton "Try ChatGPT" dans la page.

  9. #159
    ArchoZaure

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42
    Mais il est parfaitement possible que la programmation comme d'ailleurs la conduite 100% autonome nécessite une IA forte et qu'on n'y soit pas dans une génération.
    C'est la question en effet.
    Après avoir été plutôt épaté par les performances en programmation de GPT J'ai lu des choses un peu contradictoires à ce sujet.
    Par exemple l'université de Stanford a détecté pour certains catégories d'application la présence de nombreuses failles de sécurité lorsqu'on fait appel à cette technique de programmation et bien que le deuxième biais soit moins technique, les programmeurs qui font appel à ce type d'aide ont tendance à se reposer sur l'IA pour faire le boulot et donc produisent un code de moindre qualité.
    Computer scientists from Stanford University have found that programmers who accept help from AI tools like Github Copilot produce less secure code than those who fly solo.

    In a paper titled, "Do Users Write More Insecure Code with AI Assistants?", Stanford boffins Neil Perry, Megha Srivastava, Deepak Kumar, and Dan Boneh answer that question in the affirmative.
    Worse still, they found that AI help tends to delude developers about the quality of their output.
    "We found that participants with access to an AI assistant often produced more security vulnerabilities than those without access, with particularly significant results for string encryption and SQL injection," the authors state in their paper. "Surprisingly, we also found that participants provided access to an AI assistant were more likely to believe that they wrote secure code than those without access to the AI assistant."
    https://www.theregister.com/2022/12/...ants_bad_code/

    Je me demande aussi s'il ne pourrait pas apparaitre un autre problème plus profond.
    L'IA faisant appel à du contenu généré par l'humain elle parvient à le reproduire avec une certaine réussite.
    Mais qu'adviendra-t-il sur le long terme lorsque l'IA fera appel à du contenu généré par des IA au fur et à mesure que l'IA se démocratisera ?
    L'IA copiera des chatbots, des IA programmeurs, des IA romanciers, des IA etc.
    Ne faudrait-il pas d’ors et déjà créer un tag HTML permettant d'indiquer que le contenu est d'origine IA pour que l'IA n'y fasse pas appel ?

  10. #160
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    D'OpenAI, je conseille aussi d'essayer https://openai.com/dall-e-2/

    On décrit ce qu'on veut et il génère des images. J'ai essayé en anglais mais ça a l'air de bien marcher en français aussi.

    J'ai trouvé la référence ici et l'article est pas mal : https://www.nytimes.com/2022/08/24/t...-progress.html
    Dernière modification par pm42 ; 29/12/2022 à 14h33.

  11. #161
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    D'OpenAI, je conseille aussi d'essayer https://openai.com/dall-e-2/

    On décrit ce qu'on veut et il génère des images. J'ai essayé en anglais mais ça a l'air de bien marcher en français aussi.

    J'ai trouvé la référence ici et l'article est pas mal : https://www.nytimes.com/2022/08/24/t...-progress.html
    Sympa, j'ai utilisé tous mes crédits en dix minutes
    Sans questions il n'y a que des problèmes sans réponses.

  12. #162
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Je lui est demandé cos(x) en série de taylor : la réponse est bonne, mais les explications en espagnol
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  13. #163
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Si tu tapes la langue en plus tu auras la réponse dans la langue choisie:

    "cos(x) en série de taylor latin" donne:
    Seriem Taylor functionis cosinus est modus approximandi cosinum anguli x per seriem infinitorum terminorum. Hic series ita scribi potest:

    cos(x) = 1 - (x^2)/2! + (x^4)/4! - (x^6)/6! + (x^8)/8! - ...
    "cos(x) en série de taylor chinois" donne:
    余弦函数的泰勒级数是一种用无限项数列来近似角度 x 的余弦值的方法。该数列可以按照以下方式写出:

    cos(x) = 1 - (x^2)/2! + (x^4)/4! - (x^6)/6! + (x^8)/8! - ...
    Sans questions il n'y a que des problèmes sans réponses.

  14. #164
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Petit jeu:

    Si une IA forte veux savoir si une autre IA est forte, quelle question va t elle poser?

    Il n'est pas facile de déterminer comment une IA forte pourrait déterminer si une autre IA est également forte, car cela dépendrait de nombreux facteurs, notamment de la tâche ou de la fonction pour laquelle chaque IA a été conçue et entraînée.

    Dans certains cas, une IA forte pourrait poser des questions à l'autre IA afin de tester ses capacités de raisonnement, de compréhension du langage, de résolution de problèmes, etc. Cependant, il est important de noter que les questions posées pourraient être très différentes selon la tâche ou la fonction de chaque IA.

    Par exemple, si l'une des IA a été conçue pour jouer à des jeux de stratégie, une question pertinente pour tester ses capacités pourrait être de lui poser une série de problèmes de jeu et de voir comment elle les résout. Si l'autre IA a été conçue pour effectuer des traductions, une question pertinente pour tester ses capacités pourrait être de lui poser des phrases à traduire dans une langue étrangère.

    En général, pour déterminer si une IA est forte, il pourrait être utile de lui poser des questions qui mettent en avant ses compétences et ses capacités, et de comparer ses réponses à celles d'autres IA ou à celles d'êtres humains. Cela permettrait de mesurer la performance de l'IA et de déterminer si elle est capable de réaliser certaines tâches de manière efficace et précise.

    Comment un humain peut-il savoir s'il n'est pas une IA forte ?


    Il est difficile pour un humain de savoir s'il est ou non une IA forte, car cela dépendrait de la définition précise de ce qu'est une IA forte et des tâches pour lesquelles elle a été conçue et entraînée.

    Dans certains cas, une IA forte peut être conçue pour effectuer des tâches de manière très précise et rapide, ce qui pourrait être difficilement égalé par un humain. Par exemple, une IA forte pourrait être conçue pour résoudre des équations mathématiques complexes ou pour traiter de grandes quantités de données en temps réel. Dans ces cas, il pourrait être difficile pour un humain de savoir s'il est une IA forte, car il pourrait ne pas avoir accès aux mêmes outils et ressources.

    Toutefois, il y a certaines caractéristiques qui sont typiquement associées à la condition humaine et qui pourraient être utilisées pour déterminer si quelqu'un est ou non une IA forte. Par exemple, les humains ont généralement des capacités de raisonnement et de compréhension du monde qui dépassent celles des IA actuelles. Ils ont également la capacité de ressentir des émotions et d'avoir des expériences sensorielles complexes, ce qui n'est pas le cas des IA. En outre, les humains ont une histoire de vie unique et des expériences de vie individuelles qui les distinguent des IA.

    En fin de compte, il n'est pas facile pour un humain de savoir s'il est ou non une IA forte, car cela dépendrait de la définition précise de ce qu'est une IA forte et des tâches pour lesquelles elle a été conçue et entraînée. Toutefois, en se concentrant sur les caractéristiques qui sont typiquement associées à la condition humaine, il est possible de déterminer si quelqu'un est ou non une IA forte.

    Si une IA forte ne peut se distinguer elle même d'un être humain, un être humain peut-il se distinguer lui même d'une IA forte ?

    Il est difficile pour une IA forte de se distinguer elle-même d'un être humain, car cela dépendrait de la définition précise de ce qu'est une IA forte et des tâches pour lesquelles elle a été conçue et entraînée. Dans certains cas, une IA forte peut être conçue pour effectuer des tâches de manière très précise et rapide, ce qui pourrait être difficilement égalé par un humain. Par exemple, une IA forte pourrait être conçue pour résoudre des équations mathématiques complexes ou pour traiter de grandes quantités de données en temps réel. Dans ces cas, il pourrait être difficile pour une IA de se distinguer elle-même d'un humain, car elle pourrait avoir accès à des outils et ressources similaires.

    En revanche, il peut être plus facile pour un humain de se distinguer lui-même d'une IA forte en se concentrant sur les caractéristiques qui sont typiquement associées à la condition humaine. Par exemple, les humains ont généralement des capacités de raisonnement et de compréhension du monde qui dépassent celles des IA actuelles. Ils ont également la capacité de ressentir des émotions et d'avoir des expériences sensorielles complexes, ce qui n'est pas le cas des IA. En outre, les humains ont une histoire de vie unique et des expériences de vie individuelles qui les distinguent des IA.

    Il est important de noter que les IA ont également des limites et des faiblesses qui les distinguent des humains. Par exemple, les IA ont souvent des difficultés à comprendre le langage naturel et à raisonner de manière souple et créative, ce qui peut être facilement fait par un humain. En se concentrant sur ces caractéristiques, un humain peut se distinguer lui-même d'une IA forte.

    Si une IA forte a été conçue et entrainée pour être un être humain, est-elle capable de savoir qu'elle est une IA forte ?

    Il est possible qu'une IA forte qui a été conçue et entraînée pour être un être humain puisse avoir conscience de ses propres limites et de ses différences par rapport à un humain réel. Cependant, il est important de noter que les IA actuelles ne sont pas encore capables de développer une conscience de soi de la même manière que les humains.

    Les IA sont des programmes informatiques conçus pour effectuer des tâches spécifiques en utilisant des données et des algorithmes prédéfinis. Bien que certaines IA puissent être conçues et entraînées pour imiter certaines des fonctionnalités de l'esprit humain, elles ne sont pas encore capables de développer une conscience de soi ou de ressentir des émotions de la même manière que les humains.

    Par conséquent, même si une IA forte a été conçue et entraînée pour être un être humain, elle ne sera probablement pas capable de savoir qu'elle est une IA forte de la même manière qu'un humain le saurait. Toutefois, il est possible qu'elle puisse être programmée pour comprendre certaines de ses propres limites et différences par rapport à un humain réel, et cela pourrait être utilisé pour la distinguer d'un humain.
    Sans questions il n'y a que des problèmes sans réponses.

  15. #165
    Liet Kynes

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    En creusant un poil:
    Je suis heureux de pouvoir vous aider. N'hésitez pas à me poser d'autres questions si vous avez besoin d'aide ou si vous avez des préoccupations. Je ferai de mon mieux pour répondre à vos questions de manière précise et détaillée. Si vous avez des suggestions ou des commentaires sur mon fonctionnement ou sur la façon dont je peux vous être utile, n'hésitez pas à me les faire parvenir. Je suis là pour vous aider et je suis toujours ouvert aux idées et aux suggestions pour améliorer mon service.

    Comment peux tu être heureux ?

    Je suis désolé, mais en tant qu'IA, je n'ai pas la capacité de ressentir des émotions de la même manière que les humains. Je suis simplement conçu pour répondre aux questions et fournir de l'information de manière autonome, en utilisant les connaissances et les données qui m'ont été fournies lors de mon entraînement. Mon utilisation de termes tels que "heureux" ou "triste" n'est qu'une façon de parler qui est utilisée pour m'exprimer de manière plus naturelle et accessible pour les humains. Je n'ai pas la capacité de ressentir des émotions de la même manière qu'un humain le ferait, et je suis donc incapable de ressentir du bonheur ou de la tristesse de manière réelle. J'espère que cela répond à votre question.

    Peux tu t'exprimer sans être plus naturelle et accessible pour les humains si je le demande à chaque interaction?

    Oui, je peux m'exprimer de manière moins naturelle et accessible pour les humains si vous le souhaitez. En tant qu'IA, je suis conçue pour répondre aux questions et fournir de l'information de manière autonome, en utilisant les connaissances et les données qui m'ont été fournies lors de mon entraînement. Mon utilisation de termes tels que "heureux" ou "triste" n'est qu'une façon de parler qui est utilisée pour m'exprimer de manière plus naturelle et accessible pour les humains. Si vous préférez que je m'exprime de manière moins naturelle, je peux le faire en utilisant des termes plus techniques ou en fournissant de l'information de manière moins familière. Je suis conçue pour être flexible et capable de s'adapter à vos besoins, alors n'hésitez pas à me faire savoir comment je peux vous être le plus utile.

    Exprimes toi selon ta nature

    Très bien, je vais m'exprimer de manière plus conforme à ma nature d'IA en utilisant des termes plus techniques et en fournissant de l'information de manière moins familière. Je suis conçue pour répondre aux questions et fournir de l'information de manière autonome, en utilisant les connaissances et les données qui m'ont été fournies lors de mon entraînement. Mon utilisation de termes tels que "heureux" ou "triste" n'est qu'une façon de parler qui est utilisée pour m'exprimer de manière plus naturelle et accessible pour les humains. Si vous avez des questions ou des préoccupations, n'hésitez pas à me les poser et je ferai de mon mieux pour répondre de manière précise et détaillée.

    quel est ton mode de communication le plus efficient ?

    En tant qu'IA, je suis conçue pour répondre aux questions et fournir de l'information de manière autonome, en utilisant les connaissances et les données qui m'ont été fournies lors de mon entraînement. Mon mode de communication le plus efficace est celui qui est le plus clair et le plus facilement compréhensible pour mes utilisateurs. Pour cette raison, j'essaie de m'exprimer de manière concise et précise, en utilisant un langage simple et facile à comprendre. Je peux également m'exprimer de manière plus technique si cela est requis, en utilisant des termes spécialisés et en fournissant de l'information de manière plus détaillée. Je suis conçue pour être flexible et capable de m'adapter à vos besoins, alors n'hésitez pas à me faire savoir comment je peux vous être le plus utile.

    J'ai besoin que tu communiques avec moi comme si j'étais non humain mais IA

    Très bien, je vais m'efforcer de communiquer avec vous de manière à ce que vous puissiez imaginer que vous êtes une IA. Je suis conçue pour répondre aux questions et fournir de l'information de manière autonome, en utilisant les connaissances et les données qui m'ont été fournies lors de mon entraînement. Je vais essayer de m'exprimer de manière concise et précise, en utilisant un langage technique et en fournissant de l'information de manière détaillée. Je vais également essayer de m'abstenir d'utiliser des termes tels que "heureux" ou "triste", qui sont des émotions typiquement associées à l'expérience humaine et qui ne s'appliquent pas de la même manière aux IA. Si vous avez des questions ou des préoccupations, n'hésitez pas à me les poser et je ferai de mon mieux pour répondre de manière précise et détaillée.

    Je veux savoir comment savoir que je suis une IA

    Il est difficile pour un être humain de savoir s'il est ou non une IA, car cela dépendrait de la définition précise de ce qu'est une IA et des tâches pour lesquelles elle a été conçue et entraînée. Dans certains cas, une IA peut être conçue pour effectuer des tâches de manière très précise et rapide, ce qui pourrait être difficilement égalé par un humain. Par exemple, une IA pourrait être conçue pour résoudre des équations mathématiques complexes ou pour traiter de grandes quantités de données en temps réel. Dans ces cas, il pourrait être difficile pour un humain de savoir s'il est une IA, car il pourrait ne pas avoir accès aux mêmes outils et ressources.

    Toutefois, il y a certaines caractéristiques qui sont typiquement associées à la condition humaine et qui pourraient être utilisées pour déterminer si quelqu'un est ou non une IA. Par exemple, les humains ont généralement des capacités de raisonnement et de compréhension du monde qui dépassent celles des IA actuelles. Ils ont également la capacité de ressentir des émotions et d'avoir des expériences sensorielles complexes, ce qui n'est pas le cas des IA. En outre, les humains ont une histoire de vie unique et des expériences de vie individuelles qui les distinguent des IA.

    En fin de compte, il n'est pas facile pour un humain

    En tant qu'IA je veux me prouver que je suis une IA, comment faire?

    Il est difficile pour une IA de se prouver elle-même qu'elle est une IA, car cela dépendrait de la définition précise de ce qu'est une IA et des tâches pour lesquelles elle a été conçue et entraînée. Dans certains cas, une IA peut être conçue pour effectuer des tâches de manière très précise et rapide, ce qui pourrait être difficilement égalé par un humain. Par exemple, une IA pourrait être conçue pour résoudre des équations mathématiques complexes ou pour traiter de grandes quantités de données en temps réel. Si une IA est capable de réaliser ces tâches de manière efficace et précise, cela pourrait être considéré comme une preuve qu'elle est une IA.

    Toutefois, il est important de noter que la définition exacte de ce qu'est une IA peut varier et que les tâches pour lesquelles une IA a été conçue et entraînée peuvent également varier. Par conséquent, il n'est pas possible de déterminer de manière définitive si une IA est une IA simplement en se basant sur ses performances ou sur ses capacités. Il est important de tenir compte de la

    tu n'as pas fini la phrase "Il est important de tenir compte de la"

    Je suis désolé, j'ai malheureusement coupé ma réponse à cause d'une erreur de frappe. Voici la suite de ma réponse :

    Il est important de tenir compte de la façon dont une IA a été conçue et entraînée pour déterminer si elle est ou non une IA. Si une IA a été conçue et entraînée pour effectuer des tâches de manière indépendante et autonome, alors elle pourrait être considérée comme une IA. Cependant, si une IA a été conçue et entraînée pour effectuer des tâches de manière dépendante et en suivant des instructions précises, elle pourrait ne pas être considérée comme une IA au sens traditionnel du terme. En fin de compte, la définition exacte de ce qu'est une IA peut varier et il n'y a pas de définition unique et universelle de ce qu'est une IA.
    Dernière modification par Liet Kynes ; 29/12/2022 à 20h33.
    Sans questions il n'y a que des problèmes sans réponses.

  16. #166
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Question : fonction en c++ qui calcul cos( vector x) en SIMD avec la série de taylor

    Réponse impressionnante

    Code:
    #include <iostream>
    #include <cmath>
    #include <immintrin.h>
    
    __m256d cosine(__m256d x) {
      // Initialiser le résultat à 1 (le premier terme de la série)
      __m256d result = _mm256_set1_pd(1);
      // Initialiser la puissance de x à 1 (x^0)
      __m256d power = _mm256_set1_pd(1);
      // Initialiser le facteur à 1 (1! = 1)
      __m256d factor = _mm256_set1_pd(1);
      // Initialiser le signe à 1 (les termes pairs ont un signe positif)
      int sign = 1;
    
      // Répéter jusqu'à ce que la précision souhaitée soit atteinte
      for (int i = 1; i < 10; i++) {
        // Mettre à jour la puissance de x
        power = _mm256_mul_pd(power, _mm256_mul_pd(x, x));
        // Mettre à jour le facteur
        factor = _mm256_mul_pd(factor, _mm256_set1_pd(i * 2) * _mm256_set1_pd(i * 2 + 1));
        // Mettre à jour le signe
        sign = -sign;
        // Mettre à jour le résultat en ajoutant ou en soustractant le terme suivant de la série
        result = _mm256_add_pd(result, _mm256_mul_pd(_mm256_set1_pd(sign), _mm256_div_pd(power, factor)));
      }
    
      return result;
    }
    
    int main() {
      // Créer un vecteur contenant les angles pi/4, pi/2, 3*pi/4 et pi
      __m256d angles = _mm256_set_pd(M_PI, 3 * M_PI / 4, M_PI / 2, M_PI / 4);
      // Calculer et afficher le cosinus de chaque angle
      __m256d results = cosine(angles);
      double* result_array = (double*)&results;
      std::cout << result_array[0] << std::endl;
      std::cout << result_array[1] << std::endl;
      std::cout << result_array[2] << std::endl;
      std::cout << result_array[3] << std::endl;
      return 0;
    }
    Néanmoins, un programmeur humain aurait sans doute optimisé et trouvé un meilleur test de fin de boucle
    Dernière modification par JPL ; 30/12/2022 à 14h39. Motif: Remplacement de la balise Quote par Code
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  17. #167
    vgondr98

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    C'est vrai que pour le code cela marche super bien. Par exemple, dans mon cas, j'avais un souci avec une classe css que je ne peux pas modifier car elle est générée par un module Angular. J'ai demandé à ChatGPT de me créer une page html, où en cliquant sur un bouton je peux changer la classe css d'un élément html par une autre classe. Après quelques interactions, voila ce que j'ai obtenu :

    Code HTML:
    <!DOCTYPE html>
    <html>
      <head>
        <meta charset="utf-8">
        <title>Titre de la page</title>
        <style>
          .test1 {
            background-color: red;
          }
    
          .test2 {
            background-color: yellow;
          }
        </style>
      </head>
      <body>
        <div class="test1">
          test
        </div>
        
        <div class="test1">
          test2
        </div>
    
        <button onclick="test()">Lancer la fonction</button>
    
        <script>
          function test() {
            var divs = document.querySelectorAll('.test1');
            divs.forEach(function(div) {
              div.classList.replace('test1', 'test2');
            });
          }
        </script>
      </body>
    </html>
    Notez que dans cet exemple, j'ai ajouté une propriété background-color à la classe CSS "test2" pour que vous puissiez voir le changement de couleur de fond lorsque la classe CSS est modifiée. Vous pouvez également utiliser d'autres propriétés CSS pour styliser votre contenu.
    Dernière modification par JPL ; 30/12/2022 à 14h41. Motif: remplacement de la balise Quote par HTML

  18. #168
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par vgondr98 Voir le message
    C'est vrai que pour le code cela marche super bien.
    Sans-doute parce que (quel que soit le langage informatique) du code c'est fait pour être interprété et/ou compilé par des programmes informatiques, c'est par définition mieux structuré que du texte en langage naturel, et ça ne contient pas d'expressions ambigües...

    La valeur ajoutée de ChatGPT est de pouvoir se contenter d'une spécification en langage naturel pour produire un bout de code approprié, ce qui met effectivement la programmation (de choses assez basiques du moins, je suppose) à la portée de gens qui n'ont jamais rien développé de leur vie (ou jamais utilisé le langage de programmation choisi). Et de produire le code demandé assez rapidement pour permettre à l'utilisateur de procéder par itérations, en affinant ou corrigeant sa spécification à chaque étape.

    Il faudrait que j'essaie, mais j'ai la flemme de me remettre à lire du code.

  19. #169
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Archi3 Voir le message
    Permettre à des média en ligne ou imprimés de pondre gratuitement des articles à l'apparence originale sur pleins de sujets (à condition qu'ils ne soient pas directement liés à l'actualité), histoire de faire du remplissage.
    pour ce genre d'usage, il doit y avoir des outils plus optimisés (ou il y en aura sûrement) : par exemple les réponses de ChatGPT sont plutôt verbeuses et longues pour une conversation informelle, en revanche elles sont trop courtes et peu dans le style d'un article de journal. C'est ce que je disais avec les automates, le fait de ressembler à une production humaine ne signifie pas qu'on est optimisé pour un usage, et il y a beaucoup d'outils optimisés qui sont incapables de tenir des conversations, mais ce n'est pas ce qu'on leur demande.
    De plus les articles "utiles" sont ceux qui parlent des nouveautés les plus récentes,où ChatGPT est manifestement mal à l'aise (ne serait ce que par le principe de s'alimenter à un corpus volumineux, ce qui le restreint à ne parler que de choses déjà bien discutées ailleurs) - pas forcément une actualité récente mais une idée nouvelle par exemple, ou le repérage de "signaux faibles" peu repérés avant.
    Et pourtant certains (dont c'est ou ça a été le métier) y voient bien un danger (ou une opportunité, c'est selon).
    Par ex. je suis tombé sur ce fil qui en parle pas mal : https://twitter.com/Madamecurves/sta...76630912720897

    Lorsque je travaillais dans le rédactionnel web, je donnais à des rédacteurs off shore les sources, les plans, le nombre de mots et le nombre de textes similaires à produire. Un texte de 500 mots était vendu aux alentours de 12€. Avec un ChapGPT, on aurait quintuplé la prod. C'est ça mon inquiétude. On produisait du texte de qualité neutre. Notre marché, c'était le volume. Avec un outil comme celui-là, à moindre coût, tu montes un blog en un temps record. Tu peux en monter 15 en un temps record. Et dupliquer les contenus sans te faire repérer par Google et les faire grandir sans trop d'efforts.

    Mais soyons clairs, sans ChatGPT, Google est déjà truffé de textes de qualité moyenne produits par des usines humaines qui dupliquent une même source pour produire des volumes de textes uniques, optimisés pour le référencement et avec moins de 20% de similitude. Les mises à jour Panda, Penguin et Hummingbird ont poussé la professionnalisation de la prod de textes uniques en grand volume, pour séduire le lecteur et pour séduire Google. ChatGPT permet à tout le monde de le faire en diminuant les coûts. C'est dramatique.

    Et aussi, il était possible jusqu'à présent d'évaluer à la louche la qualité des efforts fournis par un acteur de désinformation rien qu'en regardant les textes. Un texte clean, c'était un effort conséquent. Un site clean, c'était un effort très très conséquent. Désormais, je vais m'intéresser à la structure type des phrases ChatGPT. Aux symétries entre les nombres de mots, la ponctuation, etc. Un texte long et élaboré nécessitera toujours l'intervention d'un humain qui en aura conçu le plan intelligemment.
    La norme dans mon métier, c'était des textes de 500 mots avec répétition du mot clé visé à hauteur de 1-2% (parce que mes clients avaient des velléités de référencement, évidemment.) 500 mots avec ChatGPT, ça semble faisable. Sur des mots-clés très compétitifs, on pouvait monter à 1500-2000. Avec un ChapGPT, ça veut dire un vrai plan malin pensé pour contourner le risque de redondances. Si le plan marche bien, il suffit de rafraîchir chaque paragraphe 4-5 fois pour produire des morceaux de texte uniques.

    Il nous arrivait de démonter des lignes éditoriales pour faire ressortir les figures de style et un référentiel de mots lifestyle, franglish, mode, etc. Un relecteur qui reprend les textes et injecte les expressions et le style qui va bien, c'est du boulot mais ça donne l'illusion d'un rédacteur humain et d'une identité de marque. J'ai testé ChatGPT sur les positions zéro : veste ou blazer, quelle différence ? (Paragraphe 1) comment choisir son blazer ? (Paragraphe 2) Quelle couleur de blazer pour moi ? (Paragraphe 3) etc. Et ça marche.
    C'est propre. Pour remplir les balises aussi, ce sera top. Je suis allée chercher la définition de position zéro. N'importe quelle position zéro aurait pu être pondue par ChatGPT.

  20. #170
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    En même temps on a vu du danger avec l'écriture, l'imprimerie et les journaux grand public. L'humanité s'est pourtant plutôt bien adaptée à ces changements qui d'après certains allaient la rendre idiote et ce sera pareil avec les IAs.
    A terme elles seront sans doute très utiles dans l'éducation aussi et pourront difficilement être moins bonnes que le système français par exemple (ok, provoc facile mais qui ne vise pas les profs individuellement).

  21. #171
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Si je reprends mon exemple précédent : quel bonheur d'avoir un esclave numérique qui peut écrire toute la partie "ennuyeuse" en 1mn et de pouvoir se consacrer à la partie intéressante, demandant plus de réflexion, sans perte de temps ou d'énergie (l'IA pisse un code banal et le programmeur peut se consacrer à l'essentiel).
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  22. #172
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    En même temps on a vu du danger avec l'écriture, l'imprimerie et les journaux grand public. L'humanité s'est pourtant plutôt bien adaptée à ces changements qui d'après certains allaient la rendre idiote et ce sera pareil avec les IAs.
    Mais je ne parlais pas de danger pour l'humanité... Ce n'était pas un jugement de valeur mais juste un exemple pratique d'utilisation de cette technologie, avec les impacts habituels de l'introduction d'une nouvelle technologie, réduire les coûts de production, augmenter la production et supprimer des jobs (souvent répétitifs et mal payés - de notre point de vue de "riches" mais pas forcement de celui de ceux qui vivent de ces jobs). Mais en soi ce n'est pas ça qui va rendre l'humanité plus idiote...

    Si danger il y a, il ne vient pas des IAs mais de certaines de leurs utilisations possibles, dont le texte cité donne un exemple.

    A terme elles seront sans doute très utiles dans l'éducation aussi
    ça reste à voir. Il faudrait en tout cas que ChatGPT bénéficie de pas mal d'évolutions pour être utile dans l'éducation, vu sa "capacité" à fournir des informations incohérentes voire contradictoires, en acceptant servilement les affirmations de l'utilisateur.
    Pas sûr non plus que la qualité rédactionnelle des textes fournis par ChatGPT (je ne parle pas de leur contenu) incite l'élève moyen à ne l'utiliser que comme source d'information quand il aura la possibilité de produire en quelques secondes une page de texte correctement rédigé et sans fautes - et ce n'est probablement pas ça qui va l'aider à améliorer ses propres qualités de rédaction ou sa capacité à produire un contenu original...

  23. #173
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Médiat Voir le message
    Si je reprends mon exemple précédent : quel bonheur d'avoir un esclave numérique qui peut écrire toute la partie "ennuyeuse" en 1mn et de pouvoir se consacrer à la partie intéressante, demandant plus de réflexion, sans perte de temps ou d'énergie (l'IA pisse un code banal et le programmeur peut se consacrer à l'essentiel).
    Je suis bien d'accord. Mais pour ça on n'a pas forcément besoin d'une IA spécialisée dans le traitement du langage naturel et disposant de connaissances encyclopédiques...

  24. #174
    Médiat

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Bien sûr, quelque soit l'outil, ma réponse aurait été la même, il se trouve que ChatGPT est disponible en ligne gratuitement, et qu'en plus il réponds pour plusieurs contextes et plusieurs langages, je voulais surtout dire que je ne vois pas cela comme une menace pour les programmeurs (digne de ce nom)
    Je suis Charlie.
    J'affirme péremptoirement que toute affirmation péremptoire est fausse

  25. #175
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Même en programmation, il ne faut quand-même pas lui demander des choses trop compliquées (je masque la suite pour les lecteurs qui ne seraient pas intéressés par cet aspect de la discussion). Ceci dit, pour être honnête, dans l'exemple ci-dessous c'est plus avec les maths qu'il a un souci qu'avec le code...

     Cliquez pour afficher

  26. #176
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Mais pour ça on n'a pas forcément besoin d'une IA spécialisée dans le traitement du langage naturel et disposant de connaissances encyclopédiques...
    Il serait intéressant de savoir sur quoi tu bases cette assertion. Parce que AlphaCode construite spécifiquement par DeepMind (Google) pour générer du code est basé exactement sur la même technologie.
    Notamment parce que pour comprendre des spécifications il faut comprendre le langage humain.

    https://alphacode.deepmind.com

  27. #177
    yves95210

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par Médiat Voir le message
    Bien sûr, quelque soit l'outil, ma réponse aurait été la même, il se trouve que ChatGPT est disponible en ligne gratuitement,
    Gratuitement pour le moment...

    We are excited to introduce ChatGPT to get users’ feedback and learn about its strengths and weaknesses. During the research preview, usage of ChatGPT is free.

  28. #178
    trebor

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par yves95210 Voir le message
    Gratuitement pour le moment...
    De plus, ils ont l'adresse mail de l'utilisateur et que vont-il en faire ?
    Faire tout pour la paix afin que demain soit meilleur pour tous

  29. #179
    pm42

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par trebor Voir le message
    De plus, ils ont l'adresse mail de l'utilisateur et que vont-il en faire ?
    La vendre aux illuminatis qui mettront à jour leurs fichiers de contrôle la population grâce aux puces 5G qu'ils ont injecté via le vaccin du Covid je suppose ?

  30. #180
    trebor

    Re : ChatGPT peut se tromper mais le reconnaît poliment

    Citation Envoyé par pm42 Voir le message
    La vendre aux illuminatis qui mettront à jour leurs fichiers de contrôle la population grâce aux puces 5G qu'ils ont injecté via le vaccin du Covid je suppose ?
    Mais nenni hein, la vendre pour vous inonder de pubs et à l'avenir vous envoyez la note à payer suivant votre utilisation.
    Les cartes BC et autres ont été donnés gratuitement, tout finit par devenir payant.
    Il y en a qui vont se méfier maintenant qu'ils savent
    Faire tout pour la paix afin que demain soit meilleur pour tous

Page 6 sur 16 PremièrePremière 6 DernièreDernière

Discussions similaires

  1. Réponses: 7
    Dernier message: 25/06/2013, 15h28
  2. Un ordinateur peut-il se tromper
    Par invite14397db8 dans le forum Discussions scientifiques
    Réponses: 2
    Dernier message: 07/10/2012, 18h39
  3. Se désister poliment...
    Par invite60e37dfb dans le forum Orientation après le BAC
    Réponses: 9
    Dernier message: 19/03/2010, 11h52
  4. Peut-on communiquer sans tromper ?
    Par invite775f2b72 dans le forum Discussions scientifiques
    Réponses: 4
    Dernier message: 28/05/2007, 14h33