Bonjour à tous,

Les gens idéalisent tellement sur les Etats-Unis. J'espère que tu n'as pas l'image des médecins dans Greys Anatomy car l'image des médecins y est totalement fausse. Comme dit précédemment aux Etats-Unis c'est la loi du "Paye ou crève", seuls les gens ayant de l'argent peuvent s'offrir des soins médicaux. Quand j'entends les gens se plaindre du prix d'une consultation en France ça me fait rire, le prix est BEAUCOUP plus cher là-bas. Certes les Etats-Unis font rêver mais l'image donnée à la télé n'est pas le reflet de la réalité, loin de là... Les inégalités sociales y sont beaucoup plus importantes qu'en France, le racisme y est plus fréquent. De plus, j'aimerai te dire qu'il ne faut pas faire le métier de médecin pour l'argent, sinon tu ne tiendras pas le coup durant tes études. Bref, réfléchit bien à tout cela avant de t'engager.