Bonjour à tous.
En faisant quelques travaux concernant mon TIPE sur les codes correcteurs d'erreur (en particulier le code de Hamming [7,4,3]), je suis arrivé à des résultats qui m'étonnent quelque peu, et j'espère que vous pourrez m'éclairer
Le principe est simple : j'ai un message en binaire, que je décompose en blocs de longueur fixe (4), puis je simule des perturbations qui correspondent au bruit présent lors de la transmission.
Chaque bit de chaque bloc a une probabilité identique au préalablement fixée d'être modifié.
J'ai ainsi fait des simulations en grand nombre avec différentes tailles de messages ( de 2 à 100 blocs ), et je regarde la présence ou non d'erreur à la sortie ( et non pas le nombre ou l'emplacement, uniquement s'il y a une erreur dans le message de sortie ou non ).
Vraisemblablement le nombre de blocs devrait influer sur le résultat, puisque plus le nombre de bloc est élevé, plus faible sera la probabilité que le code réussisse à tout corriger et qu'aucune erreur ne subsiste.
Mais mes résultats de simulations (Maple) montrent des résultats vraiment très proches pour des simulations différentes longueur de blocs pour une probabilité d'erreur fixée; par exemple à 10% d'erreur j'ai en sortie 153 erreurs pour 2 blocs, 168 pour 10 blocs, 166 pour 25 blocs, 144 pour 50 blocs et 152 pour 100 blocs.
J'aimerais vos avis sur cette question, effectivement je trouve cela un peu étrange, et s'il y a une raison j'aimerais bien la connaître. Peut-être le code de Hamming est-il capable de faire en sorte que les résultats soient équilibrés ? Peut-être est-ce Maple qui a des problèmes de fonctionnement (par exemple comment il effectue les random, ...) ? Peut-être est-ce un immense hasard ?
Merci de votre aide !
Bonne soirée. Dydo.
-----