Bonjour à tous,
J'ai un léger problème sur une application des lemmes de Jordan.
On se donne une fonction f de C dans C holomorphe pour R assez grand.
On veut montrer que son intégrale sur un arc de cercle de centre l'origine tend vers 0 quand R (le rayon de l'arc) tend vers l'infini.
Le corrigé donne (pr une certaine fonction f que je ne précise pas) :
on a z*f(z) tend vers 0 quand |z| tend vers l'infini
ce qui implique R*M(R) tend vers 0 quand R tend vers l'infini (où M(R) est le sup de |f| sur l'arc de cercle).
J'ai du mal à voir facilement cette implication bien qu'elle ait été écrite de manière évidente.
J'ai posé f(z) = f(R, têta)
puis considéré la famille de fonction f(R , .),
z*f(z) tend vers 0 qd |z| tend vers l'infini donc
|z|*|f(z)| tend vers 0 qd |z| tend vers l'infini donc
R*|f(R, têta)| tend vers 0 simplement qd R tend vers l'infini,
mais je ne vois pas pourquoi on aurait convergence uniforme...
Voilà,
Je vous remercie d'avance
-----