Salut, premier message sur ce forum.
Avant tout merci pour votre indulgence, je dois à tous les coups poster au mauvaise endroit...
Ma question concerne la manière dont on établit la variance d'une série.
Ce problème est venu d'un evenement anodin.
J'ai fais un pari tout bête avec mon frère concernant les résultats aux presidentielles.
L'enjeu est une sortie au quick tout de meme
Le principe est que chacun de nous, avons établi une liste des scores que nous attendions pour les 4 candidats que nous attendons en tête de l'election. (Je ne les citerais pas pour ne pas froisser les sensibilités des lecteurs)
Celui qui gagnerait serait celui qui aurait les résultats les moins dispersés autour des resultats officiels à paraitre dimanche prochain lors du premier tour.
J'ai vaguement réflechi à la manière de calculer cela (bien grand mot) et j'en suis venu à me dire qu'une basique variance suffirait.
Le dilemne est alors survenu...
La variance représente bien la somme des carrés des écarts à la moyenne des valeurs de la série.
Mais pourquoi ne prendrais-je pas pu la somme des valeurs absolues des écarts aux résultats officiels tout bêtement?
J'en suis venu à généraliser le propos:
Pourquoi établit-on que le calcul d'une variance doit être établi quadratique là où vraisemblablement une somme de valeurs absolues suffirait?
Merci de répondre à ce problème que déjà je m'étais posé il y a quelques temps dans les jeunes classes.
Amicalement
-----