Bonjour,
Lorsque l'on fait de l'analyse numérique, il y a besoin de quantifier l'erreur d'une méthode numérique (cf ci-dessous).
On définit l'ordre de la méthode approchée de la manière suivante :
On dit que l'erreur de la méthode approchée est d'ordre s'il existe une constante telle que
Dans beaucoup de livres, on trouve alors la notation grand O(x).
Dans ma jeunesse, je n'avais appris seulement la notation petit o(x) que l'on retrouve lorsque l'on regarde des relations de prépondérances entre deux fonctions ou dans les développements limités. Par contre, je n'avais pas appris ce grand O(x).
Pouvez-vous me renseigner sur les élements suivants par rapport au grand O(x) :
- comment est-ce qu'on peut l'interpréter,
- est-ce que la définition donnée ci-dessous est correcte,
- enfin et surtout, qu'elles sont les liens entre o(x) et O(x), à titre d'exemple est-ce o(x) implique forcement O(x) ?
f est négligeable devant g ou g est prépondérante devant la fonction f ce qui se note lorsque :
g domine la fonction f ce qui se note lorsque :
P.S: je suis plus interessé avec des réponses qui appuient sur le coté pratique (pour la physique ou les sciences de l'ingénieur) que des développements mathématiques trop formelles.
Merci d'avance pour vos aides.
-----