Je ne dis pas cela dans #139, mais ok je comprend le point avec cet ajout. C'est vrai, prendre en compte le contexte dans la traduction serait une avancée majeure, et à vrai dire c'était particulièrement bien ciblé de poser cette question. Mais ce n'est pas parce que ce serait une avancée impressionnante que je serais prêt à parier cher qu'elle ne sera pas faite rapidement... d'autant que, pour cette question en particulier, les performances de Watson (qui n'est pas un traducteur) ressemblent beaucoup à ce qu'on attendrait d'une IA capable de prendre en compte du contexte. De manière plus générale, des performances qui m'impressionnent en IA, c'est un phénomène très récurent dans les dernières années.
Tu dis des énormités (l'IA n'a pas de base mathématique... il faut vraiment n'avoir jamais rien lu en IA) qui ne peuvent pas s'expliquer par un défaut d'intelligence (n'importe quel crétin devrait être capable de se rendre compte que Google ou Apple sont des réussites). Tu as sur ces questions des positions idéologiques, ce qui te rend non seulement hors charte, mais surtout particulièrement peu intéressant à lire -genre vieux bougon qui radote sur le bon vieux temps dans son fauteuil berçant. Si tu n'es pas capable d'éviter ce biais, merci d'arrêter de poster.Envoyé par HULK28
Plus précisément la traduction de l'anglais vers le français leur prend 0,5 seconde par phrase (GPU donc PC de base), 0,22 seconde par phase (CPU donc carte vidéo) et 0,06 secondes par phrase (TPU donc processeur spécialisé pour les réseaux profonds). On pourrait probablement descendre encore avec un coeur encore plus spécialisé (spécialisé pour cet algorithme plutôt que pour les algorithmes de réseaux profonds en général), mais je doute que le gain justifie l'investissement... à partir du moment où le logiciel peut traduire plus vite qu'on peut écrire...
-----