Salutations, amis terriens.
Je viens vous trouver ce jour, car je m'interroge sur la nécessité de programmer en langage logique pour la robotique. Loin de vouloir révolutionner le domaine (je n'en connais que le strict minimum), mais je me suis posé une question et comme je ne trouvais pas de réponses, j'ai pensé à vous demander votre avis.
— Le jour où nous arriverons à ce que des robots se mettent à penser, ne rentreront-ils pas en conflit avec eux-même quand ils "s'apercevront" que les modèles logiques qu'ils utilisent sont faux ? Car on pourrait se demander alors à quoi bon avoir utilisé ces algorithmes, s'ils sont erronés ? (du moins, je pars du principe que rien dans ce monde n'est absolu, vu qu'on a toujours quelque chose de nouveau à ajouter au fur et à mesure des découvertes que nous faisons, venant modifier de façon plus ou moins importante notre perception de notre univers et de ses lois) étant donné que les règles mathématiques et/ou logiques ne sont pas absolues malgré ce qu'elles semblent dire, comment peut-on alors imaginer même un robot doué de raison étant donné qu'une grande part de la nôtre est fondée sur des approximations et des doutes ?
-----