opteron 170 ou 64 x2 4400+??
Répondre à la discussion
Page 1 sur 2 1 DernièreDernière
Affichage des résultats 1 à 30 sur 49

opteron 170 ou 64 x2 4400+??



  1. #1
    invite5b00f620

    opteron 170 ou 64 x2 4400+??


    ------

    Bonjour tout le monde voilà je m'aprête à acheter mon processeur pour ma config ...et je souhaiterai faire l'aquisition d'un opteron 170 afin d'o/c ...
    initialement j'avais prévu un athlon 64x2 4400+mais vu les possibilités de l'opteron j'ai vite changez d'avis ... sauf ...
    sauf que certaines caractéristiques techniques me laissent dans l'expectative :
    - le bus processeur 133mhz pour l'opteron contre 200mhz pour le x2
    - la gestion des instructions sse 3 non gérées par l'opteron
    etant donné l'orientation plutot tournée vers les jeux (voire meme carrément) que je souhaite donner a ma config est ce que ce la vaut vraiment le coup???
    et est ce que j'aurai oublié qqchose?
    le prix etant équivalent

    -----

  2. #2
    invitea3fc981a

    Re : opteron 170 ou 64 x2 4400+??

    Pour une configuration jeux, je conseillerais plutôt un Athlon64 qu'un Opteron, ce dernier étant plus réservé au marché des serveurs.

    D'autre part, si c'est surtout pour faire des jeux, et que tu n'as pas l'utilité d'exécuter plusieurs programmes lourds en même temps, le Dual-Core ne t'apportera rien.

  3. #3
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Salut,
    Je pense que tu devrais opter pour l'athlon X2, car même si l'opteron s'overclock mieux tu as un handicap de 200MHz. Et puis l'O/C est une science inexacte...

    De plus AMD aime pas trop voir son opteron sortir du domaine professionnel, résutat : de gros problème d'approvisionnement. C'est surement pour çà que tu trouves que des vieux opterons SSE2 parce que les révisions E6 ont le SSE3 et le bus est à 166 je crois.
    Si jamais tu veux un opteron SSE3 regarde plutôt sur les sites allemand ou suisse.

  4. #4
    inviteeb70be2e

    Re : opteron 170 ou 64 x2 4400+??

    Si tu en trouves, moi je te conseilles plutot l'opty 170, voir le 165 qui est bien moins cher... Ils montent quasiment tous à 2.5GHz minimum, ce qui est largement suffisant aujourd'hui...

  5. A voir en vidéo sur Futura
  6. #5
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par nikal
    ...faire l'aquisition d'un opteron 170 afin d'o/c ...initialement j'avais prévu un athlon 64x2 4400+...

    etant donné l'orientation plutot tournée vers les jeux (voire meme carrément) que je souhaite donner a ma config est ce que ce la vaut vraiment le coup???
    et est ce que j'aurai oublié qqchose?
    le prix etant équivalent
    Le X2 4400+ est composé de 2 cores de 2.2GHz 1024Ko L2 , autrement dit 2 fois d'un simple 3700+.
    A titre d'information pour comprendre les tests comparatifs:
    X2 3800+ = 2 cores 3200+ (2.0GHz 512ko L2)
    X2 4200+ = 2 cores 3500+ (2.2GHz 512ko L2)
    X2 4400+ = 2 cores 3700+ (2.2GHz 1024ko L2)
    X2 4600+ = 2 cores 3800+ (2.4GHz 512ko L2)
    X2 4800+ = 2 cores 4000+ (2.4GHz 1024ko L2)
    ..FX-60.. = 2 cores FX57 (2.6GHz 1024ko L2)
    http://www.clubic.com/article-30771-...-chez-amd.html
    http://www.presence-pc.com/tests/Ath...on-3400-336/8/
    http://www.xbitlabs.com/articles/cpu...u-games_3.html
    Et pour finin, les prix
    http://www.prixdunet.com/liste/Proce...=&f_578%5B%5D=

    Mon conseil:
    Reste en simple core. Oublie les promesses des futurs jeux optimisés pour le X2. Souviens toi par exemple de la sortie imminente de HL2 à l'époque et qu'il fallait s'équiper d'une machine top. On s'était tous équipé de la machine top, puis on a attendu, puis attendu, puis encore attendu...
    Actuellement, de nombreux jeux comportent des bugs avec des dual cores, et dont la solution consiste à....désactiver un core !

    Prend un simple 4000+, plus puissant que le 3700+, et donc aussi souvent plus puissant que le X2 4400+ tout en étant moins cher.
    Et avec 150€ de différence, tu peux acheter une carte graphique d'une grosse gamme au dessus, par exemple 7800GT au lieu d'une 6800 non GT --> performance garantie.
    Tu peux aussi acheter plus de mémoire, 2Go au lieu de 1Go --> performance garantie sur certains jeux, BF2 par exemple.

    La décision finale revient à toi.

  7. #6
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Je ne sais pas du même avis que Wizz.
    Les éditeurs de jeux vont devoir programmer pour du multicore puisque toutes les consoles nextgen sont ou seront multicore. De plus, tous les fondeurs s'orientent vers du multicore massif : AMD devrait sortir un quadcore pour la fin de l'année, intel début 2007 et les prochains PowerPC d'IBM seront largement inspirés du Cell.
    Sans parler de nVidia et ATI qui sortent des pilotes optimisés pour le dualcore.

  8. #7
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Ce n'est pas parce que le hardware est disponible que le software le sera aussi !
    Maintenant les dual cores sont disponibles mais ne réprésente pas la majorité des ventes, et encore moins dans la proportion des PC encore en fonctionnement.
    Créer un jeu de A à Z, ça prend beaucoup de temps. Il faut créer le jeu ET son moteur graphique (le moteur de HL ou Quake3 par exemple pour les jeux ancien et très connus).
    Lorsqu'on crée un jeu "partiellement", on reprend le moteur graphique d'un jeu existant et on se contente de construire l'histoire. Le moteur graphique de Quake3 a servi à une multitude de jeux. Ça permet financièrement d'amortir le développement du premier jeu.
    Contrairement aux consoles où il n'y a qu'une seule version harware (plus les "bridages" pour les différentes zones géographiques), le monde PC est composé d'une multitude de configurations différentes, et qui n'ont pas le même mode de fonctionnement optimum (Intel/AMD, Ati/Nvidia, DX7, DX8, DX9, etc....). Ça veut dire qu'écrire les lignes de programmation d'un jeu PC est un vrai casse tête. Il faut que ça marche sur toutes ces configs. Il y a beaucoup d'étape de vérification puis le choix de la ligne de commande adéquate selon le matériel.
    En 2005, la proportion de dualcore ne représente qu'une infime partie de tous les PC existant. Donc pour les éditeurs, ça ne vaut pas le coup de dépenser plus d'argent pour créer leur jeu pour optimiser avec le dualcore, alors que ça marche déjà en utilisant un seul des 2 cores.
    Développer un jeu, ça prend du temps et ça coute très cher. Ça veut dire que les jeux qui sont ENTIEREMENT optimisés pour le multicore ne sortira pas avant 1 an ou 2.

    Que veut dire ENTIEREMENT optimisé, en avoir pour son argent ???? Suivez bien mon raisonnement.

    Supposons qu'un 3200+ (2.0GHz 512koL2) peut zipper un fichier de 100Mo en 1 minutes.
    Donc pour zipper un fichier (bien entendu de même composition) de 200Mo, il lui faut donc 2 minutes.
    Un X2 3800+ est composé exactement de 2 cores 3200+.
    Si une application est VRAIMENT optimisée pour le dualcore, elle devra faire ceci:
    - couper le fichier de 200Mo en 2 "sous ensembles" de 100Mo chacun
    - donner à chaque core un sous ensemble de 100Mo pour zipper
    - récupérer les 2 sous ensembles qui ont été zippés séparement et reconstituer le fichier final EXACTEMENT comme si ça avait été zippé par un seul core.

    On déduit que le temps nécéssaire devrait être 1 minute pour zipper les 2 sous ensembles par les 2 cores. Et si on doit ajouter le temps nécéssaire pour "couper" puis "recoller" les sous ensembles, on devrait être au final à 1 minute et quelques secondes seulement. Donc le gain ne sera jamais à 100% mais assez proche de cette valeur. Virtuellement, on devrait avoir la performance d'un simple core à 4.0GHz.

    Est ce que vous comprennez tous le principe de raisonnement?

    Toujours sur la base comparative directe entre un 3200+ et un X2 3800+,
    - voici une application bien optimisée, le temps presque divisé par 2
    - voici une application pas du tout optimisée, et même néfaste (moins bien)
    - voici une application pas du tout optimisée, neutre mais sans plus. ou encore ici sur BF2
    - voici une application à peine optimisée, ou encore ici sur Serious Sam 2, ou encore ici sur Quake 4

    Dans les jeux qui se proclament optimisés pour le X2, qui je rappelle est 2 fois plus cher que le simple core, le gain est de l'ordre 10 à 20%. Et si je prends un 4000+ qui était au même prix à peu près qu'un X2 3800+, je constate que le 4000+ est toujours meilleur que le X2 3800+.

  9. #8
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Suite....
    Pour avoir un dualcore de chez AMD, il faut débourser un supplément de 150€ (X2 3800+ vs 3200+) à 400€ (X2 4800+ vs 4000+), tout ça pour un gain (actuellement) de 10 à 20% dans le meilleur des cas....
    Mais cette différence de prix, c'est aussi:
    150€, c'est la différence entre une 6600GT et une 6800Ultra.
    350€, c'est la différence entre une 6800GT et une 7800GTX
    350€, c'est aussi la différence entre une 6600GT avec 512Mo de ram et une 7800GT mais avec 2Go de ram
    ....
    Au jour d'aujourd'hui, acheter un processeur dualcore, de chez AMD ou Intel, est un choix très discutable vu le peu de gain de performance et le nombre d'applications disponibles vraiment utiles pour monsieurs tout le monde.
    Ce n'est pas un pilote ou un patch qui permet une optimisation totale avec les dual cores. Il faut réécrire entièrement le programme.
    Dernière modification par wizz ; 23/02/2006 à 19h56.

  10. #9
    invite0190fadb

    Re : opteron 170 ou 64 x2 4400+??

    Bonjour,

    Tout a fait d'accord avec Wizz.
    Même si les jeux tournent très bien avec mon X2 4400 et une 7800GT, ils tournent manifestement sur un seul coeur. Je n'en attendais pas moins d'ailleurs.
    Le seul avantage c'est de pouvoir faire tourner des softs en parallèle pendant que tu joues. Des soft comme teamspeak, ventrilo... Même si un mono-coeur performant s'acquittera très bien de cette tache lui aussi. Si tu est "taquin" comme je le suis, tu pourra compresser un fichier vidéo, par exemple, pendant que tu joue en 1600*1280, "full details", a 100 FPS, sur un jeu récent... Mais en pratique l'intérêt reste limité.

    Et comme Wizz le précise les jeux optimisés doubles coeurs ne seront pas disponibles avant très très longtemps (à l'échelle de la vitesse d'évolution du matériel, on s’entend).

    De plus les applications optimisées double coeur restent très rare. Par exemple le codec DivX double coeur (hélium) est sortit il y a 2 mois seulement...

    Met l'argent dans une 7800GT, il sera bien mieux utilisé.
    Ou alors dans un vrais proc de "Gamer" FX55, FX57 suivant le budget. Mais une fois encore il vaut mieux un 4000+ avec une 7800GT qu'un FX57 avec une 6600GT.


    Cordialement,

    PS: Sinon Wizz, la ou mon X2 prend sa pleine mesure c'est avec BOINC (et la ça ne rigole plus). D'ailleurs rejoignez l'équipe Futura sur:
    http://forums.futura-sciences.com/thread1019.html

    Et faut reconnaître qu'au niveau confort d'utilisation ça change la vie, avec un disque dur SCSI U320 15000tr/min, 2Go de RAM Corsair "extreme low latency". Plus jamais de "Freeze" quelque soient les tortures que vous tentez de lui faire subire.

    PS2 : Je m’excuse pour le nombre de termes en Anglais mais difficile de faire autrement sur le sujet.

  11. #10
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Donc, Wizz tu es en train de lui dire d'acheter un processeur qui sera largué dans 1 ou 2 ans, je sais pas si c'est un achat utile...

    Je te rappelle que cette année sort l'unreal engine 3 qui lui est entièrement écrit pour du multicore, c'est le genre de moteur qui va servir dans beaucoup d'autres jeux. Le gain ne se limitera pas à 10 ou 20% comme dans FEAR ou Quake 4.

    Et puis va dire ça à Intel, AMD, IBM, microsoft et sony que le dualcore c'est pas encore bon, qu'il faut attendre 1 ou 2 ans...
    Si les jeux ne sont pas vraiment optimisés pour les Xbox360, PS3 et révolution, bref pour les CPU multicores, qui va vouloir acheter ces consoles ? C'est leur seule argument de vente. Et vu la perte qu'ils ont sur chaque console, ils ont plutôt intérêt à ceux que les gens se vendent bien.

    De toute façon je vois pas où est le problème, puisque Nikal hésitait entre un athlon X2 4400+ et un opteron 170 lui aussi dualcore.
    Il n'est donc point question de monocore.

  12. #11
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Je n'ai jamais dit que les jeux ne sont pas optimisés pour le dual core.
    J'ai dit que les jeux ne sont pas actuellement optimisés pour le dual core sur PC.

    Les XBOX, PS3, etc... sont toutes différentes entre elles, donc la programmation d'un jeu pour une XBOX sera différente que celle d'une PS3.
    Mais TOUTES les Xbox sont IDENTIQUES dans le monde. Exactement le même hardware (plus les bridages pour les zones géographiques). Même processeur, même quantité de mémoire, même machin truc bidule. Donc on écrit son programme que d'une seule manière et il n'y a aucune étape de vérification pour la compatibilité hardware.
    Donc la programmation pour une console multicores est "très facile".
    Core #1, tu fais IA et tu prends tant de mémoire
    Core #2, tu t'occupes du graphisme et tu prends tant de mémoire
    Core #3, tu fais ceci et tu prends tant de mémoire
    Core #4, tu fais cela et tu prends tant de mémoire.

    Pour les PC c'est plus casse tête.
    Si winXP, alors....
    Si win98, alors....
    Si win2000, alors....

    Si processeur AMD64, alors .....
    Si processeur P4, alors.....
    Si processeur celeron, alors.....

    Si config 512Mo, alors....
    Si config 1024Mo, alors.....
    Si config 2048Mo, alors....

    Si carte graphique FX5200, alors....
    Si carte graphique 7800GT, alors....
    Si carte graphique X800pro, alors....

    Si affichage 800*600, alors....
    Si affichage 1024*768, alors....
    Si affichage 1600*1200, alors....

    Si no antialiasing, alors....
    Si antialiasing 2x, alors....
    Si no aniso, alors.....

    Donc on arrive au multicores.
    Si monocore, alors tout pour lui (normal).
    Si 4 cores, alors blablabla qui ressemble à l'exemple de la console ci-dessus.
    Si dualcore, alors IA et calcul images brutes pour core #1, puis ceci et cela pour le core #2.

    Mais il n'y a pas que le jeu qui tourne sur un PC. il y a aussi windows et ses multiples applications propres, l'antivirus, et plein d'autres logiciel que l'utilisatuer décide ou non de lancer. Donc ça devient encore plus compliqué.
    Si 4 cores mais que 1 core est un peu occupé par autre chose (par exemple antivirus en tache de fond), alors partager les taches de cette manière.
    Si 4 cores mais que 1 core est beaucoup occupé par autre chose (par exemple antivirus analysant la machine), alors partager les taches de cette manière ci.
    Si 4 cores mais que 2 cores sont beaucoup occupé par autres choses (par exemple antivirus analysant la machine sur 1 core et encodage vidéo sur 1 autre core), alors partager les taches de cette manière là.

    Ceci est nécéssaire pour partager le boulot équitablement sur les différents cores. Ne pas par exemple attribuer IA sur le core qui est en train d'encoder. Sinon, les 3 autres cores auront rapidement fini leur boulot et attendront le résultat de IA.

    Voilà un petit aperçu du boulot qu'il faut fournir pour créer un jeu. Ce n'est pas seulement yaka optimiser pour le multicore.

    Et puis va dire ça à Intel, AMD, IBM, microsoft et sony que le dualcore c'est pas encore bon, qu'il faut attendre 1 ou 2 ans...
    Théoriquement , le multicore est meilleur que le monocore, de même que plusieurs caisses pour un supermarché est préférable à une seule caisse. Mais si 90% des gens font la queue à une seule caisse, 10% sur le 2e, rien sur les autres suivantes, alors avoir plusieurs caisses ne servent à pas grand chose. Il faut répartir les clients de manière équitable sur toutes les caisses. Et si jamais nue caisse est plus lente que les autres, il faut tout de suite répartir autrement cette file d'attente sur d'autres caisses....

    L'utilité du multicore ne dépend pas uniquement de Intel, AMD, IBM, microsoft et sony. C'est aussi, et principalement des éditeurs de logiciels: EA Games, Infograme, Adobe, etc...
    Il en est de même pour les cartes graphiques et leur circuits intégrés. Ce n'est pas parce que cette carte supporte le DX8 ou 9, PixelShader3...qu'elle est meilleur
    qu'une autre qui n'en a pas. Si personne ne l'utilise alors il n'y aura pas de différence, à part la puissance brute bien entendu!
    Souvenez vous lors de l'introduction de la norme DX9. Microsoft établit la norme DX9 (qui est un mode de fonctionnement) et la communique aux constructeurs de matériel et aux éditeurs de logiciels. La 1ere carte graphique DX9 est venue. On a attendu 2, 3 mois et arriva Farcry. Puis on a attendu encore plus de 6 mois avant qu'un autre jeu utilise les instructions du DX9. Et epndant ce temps là, tous les jeux qui sortaient étaient tous en DX8. Les éditeurs n'allaient pas retarder la sortie de leur produit de 2 ans pour réécrire le jeu pour l'adapter au DX9, ou éditer plus tard une deuxième version "entierement compatible DX9"...
    Et lors de l'arrivée du DX8, c'était encore pire. Pendant plus de 6 mois, la seule application qui exploitait les instruction du DX8 pour "utiliser les CG à fond" était le bench 3Dmarks2001. Utilité réelle=ZERO.
    Donc, Wizz tu es en train de lui dire d'acheter un processeur qui sera largué dans 1 ou 2 ans, je sais pas si c'est un achat utile...
    2 ans, c'est énorme de nos jours.
    Dans 2 ans, le plus puissant dualcore aujourd'hui, qui coute la peau du cul mais qui ne sera exploité qu'à 50% pendant encore 1 an, sera considéré comme un gentil petit processeur pour faire de la bureautique ou pour faire tourner d'anciens jeux pour les nostagiques.
    Dans 2 ans, un kit SLI 7800GTX (1300€ au moins) vaudra moins qu'un futur petit 9800LE (merci de ne pas confondre avec l'ancienne 9800 de chez ATI ) et proposer pour 150€ en entrée de gamme.

    Vue la vitesse d'évolution du matériel et de leur rapport prix/performance, acheter du matos surpuissant et/ou inutilisé en pensant qu'il sera bon dans 2 ans est une très grave erreur.

  13. #12
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par wizz
    L'utilité du multicore ne dépend pas uniquement de Intel, AMD, IBM, microsoft et sony. C'est aussi, et principalement des éditeurs de logiciels: EA Games, Infograme, Adobe, etc...
    Ben justement si :
    Quand Intel à sorti le MMX ou la FPU pipeline avec son pentium, les éditeurs ont bien du s'adapter en sortant des programmes tirant parti de cette architecture.
    Regarde AMD qui n'avait pas de FPU pipeline sur ses K6, les perfs en 3D étaient ridicules, non pas car leur FPU était mauvaise, mais parce ce qu'elle ne répondait pas au standard Intel.
    ils ont bien sorti le 3DNow! qui diminue le nombre de cycle d'horloge, mais voilà AMD c'est un nain économique : donc très peu de programmes étaient optimisés pour.

    Puis Intel à sorti le P4 et son Netburst. Là aussi au début les perfs étaient ridicules car c'était une nouvelle architecture. Pourtant, Intel a vite sorti un compilateur 'x86-P4' et les programmeurs ont vite suivis.

    Dans un autre domaine, nVidia nous a gratifié de la série des Geforce FX. Mais elle avait un gros problème au niveau du single texturing et donc des performances vraiment moyennes. Pourtant les éditeurs ont joués le jeu et écrit une version spécifique pour les FX, parce qu'à l'époque nVidia était clairement le leader.

    Puis Intel à sorti l'Hyperthreading et tu remarqueras que les logiciels (création3D, encodage, compression) en ont vite tirés partis pourtant ça se rapproche pas mal d'un dualcore : gérer des threads simultanément.

    Tu remarqueras qu'AMD et son 64 bits mets beaucoup plus de temps pour l'imposer... (serait-ce un problème de moyens financiers ?)

    Maintenant le problème qui ce pose c'est que les fondeurs n'arrivent plus à monter en fréquence, donc plus de gain de performances. Donc la solution de facilité est venu avec le multicore.
    C'est donc au développeurs de se débrouiller comme ils l'ont toujours fait.

    Pour moi ce sont les moyens financiers qui imposent aux développpeurs leur façon de programmer. Ils n'ont pas les moyens de dire 'oh non, c'est pénible ont continu de coder pour du monocore.'

    De toute façon c'est le seule moyen pour exploiter la puissance des nouvelles cartes graphiques. Une Geforce 7800 GTX ou une X1900 XT est loin d'être exploitée à 100% par un A64 4000+. Et l'écart entre puissance fournie et puissance demandée ne cesse de croître.

  14. #13
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par wizz
    Les XBOX, PS3, etc... sont toutes différentes entre elles, donc la programmation d'un jeu pour une XBOX sera différente que celle d'une PS3.
    Ca fait pourtant longtemps que les jeux sont multi-plateformes pour diminuer le coût de développement : les jeux sortent souvent sur Xbox,PS2,Gamecube et PC.

    Visiblement c'est plus rapide d'adapter un jeu PC pour les consoles (ou l'inverse) que de partir d'une feuille blanche.

    En partant de ce constat, puisque toutes les consoles nextgen sont multicore, beaucoup de jeux vont être adapter pour le PC, donc le nombre de jeu PC exploitant le multicore va vite augmenter.

  15. #14
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par wizz
    2 ans, c'est énorme de nos jours.
    Ben dèjà moi je citais ta fourchette de 1 à 2ans, toi tu gardes que les 2 ans, c'est un peu facile

    parce qu'un 4000+ c'est quand même 350 euros. Si je me sers de ton estimation basse :1 an (pour moi ce serait plutôt 6 mois mais bon) moi j'aimerais bien pouvoir mettre 350 euros dans un processeur et devoir le changer dans un an (et même dans 2... )
    Pour moi, oui un CPU doit durer plus de 2 ans, désolé d'être pauvre

    En ce qui concerne l'utilité d'un dualcore, nvidia vient d'annoncer que son G80 (shaders 4) ne serait pas totalement unifiés et de plus les développeurs de la xbox ne semblent pas emballer pas cette unification et préfèrent faire passer les calculs des vertex sur un des cores du processeur.

    Pour conclure évidemment si tu as les moyens de prendre le meilleur produit à un instant t, bien sur que c'est ce qu'il faut faire. Les autres doivent anticiper un minimum (t+1).

  16. #15
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Ne me fais pas dire ce que je n'ai pas dit....
    Ben justement si :
    Quand Intel à sorti le MMX ou la FPU pipeline avec son pentium, les éditeurs ont bien du s'adapter en sortant des programmes tirant parti de cette architecture.
    Regarde AMD qui n'avait pas de FPU pipeline sur ses K6, les perfs en 3D étaient ridicules, non pas car leur FPU était mauvaise, mais parce ce qu'elle ne répondait pas au standard Intel.
    ils ont bien sorti le 3DNow! qui diminue le nombre de cycle d'horloge, mais voilà AMD c'est un nain économique : donc très peu de programmes étaient optimisés pour.

    Puis Intel à sorti le P4 et son Netburst. Là aussi au début les perfs étaient ridicules car c'était une nouvelle architecture. Pourtant, Intel a vite sorti un compilateur 'x86-P4' et les programmeurs ont vite suivis.

    Dans un autre domaine, nVidia nous a gratifié de la série des Geforce FX. Mais elle avait un gros problème au niveau du single texturing et donc des performances vraiment moyennes. Pourtant les éditeurs ont joués le jeu et écrit une version spécifique pour les FX, parce qu'à l'époque nVidia était clairement le leader.

    Puis Intel à sorti l'Hyperthreading et tu remarqueras que les logiciels (création3D, encodage, compression) en ont vite tirés partis pourtant ça se rapproche pas mal d'un dualcore : gérer des threads simultanément.

    Tu remarqueras qu'AMD et son 64 bits mets beaucoup plus de temps pour l'imposer... (serait-ce un problème de moyens financiers ?)
    Le hardware ne servira à rien si le software n'est pas là pour l'exploiter. Et comme tu l'as justement fait remarqué: non décollage du 64bits, ainsi que les exemple du 3Dnow etc... Donc ça dépend aussi et surtout des éditeurs de logiciels ! On peut avoir de bonnes choses en hardware mais que personne ne l'exploite, et on peut avoir de la daube et que tout le monde l'exploite comme les GF FX. Il fut un temps où ATI faisait des cartes graphiques très performantes mais que ses drivers étaient lamentables....
    Le hardware dualcore est disponible.
    Donc les éditeurs de logiciels auront le choix entre retarder la sortie de leur logiciel pour le réécrire (et predre du pognon en attendant) ou sortir leur logiciel tel quel selon le projet initial monocore. Et le produit suivant sera bien entendu entierement optimisé pour le dual core, mais ce produit ne sera pas sorti avant 1 ou 2 ans...

    Quant à l'Hyperthreading du P4, il y a 2 choses différentes.
    L'encodage, compression, etc... sont des logiciels qui utilisent les instructions SSE3 et qui dépendent beaucoup de la fréquence du processeur et non de leur architecture. On voit parfois sur certains types d'applications que le celeron 3GHz fait mieux qu'un P4 2.6GHz. Alors les anciens AMD dépourvus de l'instruction SSE3 stagnant à 2GHz ne font pas le poids face à cela.

    l'Hyperthreading ne s'approche du dual core que très partiellement, valable uniquement que pour du multi taches MAIS pas pour utiliser les 2 cores ( physique et virtuel) sur la MÊME tache.
    Si tu fais un encodage vidéo en même temps que jouer à Farcry, alors l'apport de l'Hyperthreading permet un gain fort appréciable face au même processeur avec l'Hyperthreading désactivé.
    Mais si tu fais UNE seule application, l'apport de l'Hyperthreading ne change pas grande chose. Le core virtuel est quasiment inutilisé. Et c'est ce qui se passe avec les vrais dual cores lorsque le logiciel n'a pas été optimisé totalement.
    Windows, norton et cie, vous allez tous sur le core #1 (et qui représente 10% de charge cpu). Farcry, tu vas sur le core #2 et qui représente 100% de charge cpu. Donc gain grace au dual core=10% avec des logiciels "conventionnels".
    Avec un vrai logiciel optimisé pour le dual core, les consignes seront: 40% de Farcry vont sur le core #1 avec windows et cie, et 60% de Farcry reste sur le core #2. Donc les 2 cores boostent à fond. Gain = presque doublé. Le core #2, goulet d'étranglement, pourra mettre toute sa puissance sur seulement 60% du travail initial....

    En fin, comme tu l'as dit, la puissance des dernières cartes graphiques est telle que les processeurs ne pouvaient suivre, donc augmenter la puissance de ce dernier passe forcement par LE PARTAGE du travail exigé sur plusieurs cores de MANIERE EGALE pour ne pas qu'un des cores retarde les autres parce qu'il a plus de travail que les autres suite à un partage noin équitable.
    Or au jour d'aujourd'hui, les logiciels capables de partager la charge de travail de manière égale sont une infime minorité. Et les autres ne seront pas ici avant un an ou deux.

  17. #16
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par zilog
    Ca fait pourtant longtemps que les jeux sont multi-plateformes pour diminuer le coût de développement : les jeux sortent souvent sur Xbox,PS2,Gamecube et PC.

    Visiblement c'est plus rapide d'adapter un jeu PC pour les consoles (ou l'inverse) que de partir d'une feuille blanche.

    En partant de ce constat, puisque toutes les consoles nextgen sont multicore, beaucoup de jeux vont être adapter pour le PC, donc le nombre de jeu PC exploitant le multicore va vite augmenter.
    Tu confonds 2 choses.
    Un jeu est composé de 2 parties de développement.
    -le scénario
    -le fonctionnement par rapport au hardware.

    Le scénario:
    Un jeu peut être identique sur PC, Mac, Linux, PS2, Xbox... Il arrive aussi que l'éditeur a décidé de modifier un peu l'histoire. MOHAA est un peu différent sur la version console par rapport à la version PC.
    Donc sortir un jeu multiplateformes permet d'amortir le cout du scénario.

    Fonctionnement par rapport au hardware:
    Un CD de jeu PC ne fonctionnera si on le met das une console PS2. Cela va de soi. Ni même sur un Mac. Parce que la programmation du logiciel est totalement différente. Parce que les fonctionnements sont totalement différents.
    Il faut donc réécrire le jeu pour les Mac, puis pour Linux, puis pour Xbox, puis pour PS2, etc....
    Cette deuxième partie ne peut pas être amortie.

    Et pour revenir sur l'utilité du dual core, je suis entièrement d'accord avec toi (parce qu'il faut etre aveugle pour croire le contraire), que le nombre de jeu PC exploitant le multicore,( je dirai même plus, exploiter entièrement à 100% tous les cores !) va rapidement augmenter.
    Mais avant de s'enthousiasmer trop rapidement, il ne faut pas oublier que sortir un jeu demande un an, deux voire trois an de travail. Ça veut dire que ces jeux seront en vente en 2007 au plutot, et pour les nouveaux jeux (scénario et moteur graphique) ce sera plutot 2008.
    A ce moment, sur le dos du boitier de jeu, il sera indiqué config minimal X2 6000+. On aura l'air crétin avec nos X2 4400+ acheté à prix d'or 500€ en 2006, en pensant qu'on allait le faire durer plus de 2 ans.
    A ce moment, un X2 6000+ en entrée de gamme couterait disons 200€ 300€...

  18. #17
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par zilog
    Ben dèjà moi je citais ta fourchette de 1 à 2ans, toi tu gardes que les 2 ans, c'est un peu facile

    parce qu'un 4000+ c'est quand même 350 euros. Si je me sers de ton estimation basse :1 an (pour moi ce serait plutôt 6 mois mais bon) moi j'aimerais bien pouvoir mettre 350 euros dans un processeur et devoir le changer dans un an (et même dans 2... )
    Pour moi, oui un CPU doit durer plus de 2 ans, désolé d'être pauvre

    En ce qui concerne l'utilité d'un dualcore, nvidia vient d'annoncer que son G80 (shaders 4) ne serait pas totalement unifiés et de plus les développeurs de la xbox ne semblent pas emballer pas cette unification et préfèrent faire passer les calculs des vertex sur un des cores du processeur.

    Pour conclure évidemment si tu as les moyens de prendre le meilleur produit à un instant t, bien sur que c'est ce qu'il faut faire. Les autres doivent anticiper un minimum (t+1).
    Comparons ce qui est comparable !
    Pourquoi j'ai pris l'exemple du 4000+ ?
    Parce que le plus petit dualcore était le X2 3800+
    Parce qu'il y a encore peu de temps avant la baisse du prix des X2 chez AMD, un 4000+ est au même prix qu'un X2 3800+, et qui vaut 2 fois le prix d'un 3200+.

    Pour le même prix, le 4000+ est plus performant que leX2 3800+
    Pour la même performance, le 3200+ coute 2 fois moins qu'un X2 3800+.

    Donc justement, au contraire de ce que tu dis, lorsqu'on n'a pas les moyens, on ne peut se permettre d'acheter du matériel qui n'est pas utilisé à fond, on ne peut pas se permettre d'acheter un processeur qui coute 2 fois plus cher mais qui n'apporte pas plus de performance.

    Au jour d'aujourd'hui, lorsqu'on n'a pas les moyens, et surtout lorsqu'on est clairvoyant, il vaut mieux acheter un simple 3200+, et dans 1 an ou 2, lorsque les applications utiles seront dispo, de changer le processeur.

    A sa sortie il y a quelques mois déjà, combien coutait le X2 3800+ et combien y avait il d'applications dualcores, optimisés à 100% ou seulement 10%?

    Aujourd'hui,combien coute le X2 3800+, et combien y a t il d'applications optimisés dualcores, peu importe de combien ils sont optimisés?

    Dans un an ou 2, combien coutera le X2 3800+ (s'il existe toujours, sinon il sera remplacé par d'autres équivalent ou meilleur), et combien y aura t il d'applications dualcores, cette fois ci vraiment optimisé parce qu'ils auront été programmés pour le dualcore.

  19. #18
    invitec12bc20e

    Re : opteron 170 ou 64 x2 4400+??

    Salut, au risque de m’immicer dans le débat ….
    Citation Envoyé par « wizz »
    Le hardware ne servira à rien si le software n'est pas là pour l'exploiter.
    Or, déjà, lorsque tu veux encoder, télécharger, aider la recherche ou d’autres institution avec un petit programme qui tourne en fond, ou même faire de l’acquisition d’un côté et de l’autre te détendre par un bon petit FPS … J’avoue que tout le monde ne fait pas cela tout le temps. Cependant, il arrive souvent qu’on lance une application lorsqu’on est disponible, car c’est le seul moment où on utilise son ordinateur…. Et puis, côté facture électrique … laisser un ( voir deux, trois, quatre …. ) PC tourner la nuit, ce n’est pas le top ! Pour moi, je trouve que c’est déjà un argument en faveur du dual core.

    Citation Envoyé par « wizz »
    Et comme tu l'as justement fait remarqué: non décollage du 64bits, ainsi que les exemple du 3Dnow etc... Donc ça dépend aussi et surtout des éditeurs de logiciels !
    … Là je crois que ça dépend surtout du chèque qu’on fournit mais on s’écarte un peu du sujet … Quoique … quelles sont les grosses entreprises qui dominent le marché : comme le disait Zilog ce sont bien IBM, Intel, M$ et Sony ( et le petit poucet AMD au « petit budget » en comparaison ). Sérieusement si les éditeurs ont si vite accepté le Netburst, c’est bien qu’il y avait un avantage financier pour eux … En l’occurrence le Multi Core ce n’est pas spécifique qu’à Intel mais à toutes ces énormes multinationales qui ont un plan budgétaire pré-établi … et qui ne vont accepter que leur produit sur lequel elles mises de gros bénefices soit en retard …

    Citation Envoyé par « wizz »
    On peut avoir de bonnes choses en hardware mais que personne ne l'exploite, et on peut avoir de la daube et que tout le monde l'exploite comme les GF FX.
    Comme je le dis les masses monétaires sont tellement colossales pour un produit voulu par toutes les grandes multinationales du hardware souhaitent se développer qu’il n’y a pas de place pour un flop … Et je ne crois pas que Ubisoft malgré l’empleur de l’entreprise soit capable de rivaliser face aux géants du hardware !!!

    Citation Envoyé par « wizz »
    Donc les éditeurs de logiciels auront le choix entre retarder la sortie de leur logiciel pour le réécrire (et predre du pognon en attendant) ou sortir leur logiciel tel quel selon le projet initial monocore.
    Donc pour toi, le multi-core c’est quelque chose qui arrive comme un cheveux sur la soupe ; totalement inattendu … : à tel point imprévu que Unreal Engine 3 sort bientôt et fera sûrement office de moteur référentiel …. Sérieusement, je crois que les éditeurs et les fabricants hardware ont intérêt à s’entendre sinon les deux perdront de l’argent. Je ne crois pas qu’ils aient attendus cette réflexion pour discuter éco entre eux !!

    Citation Envoyé par « wizz »
    Tu confonds 2 choses.
    Un jeu est composé de 2 parties de développement.
    -le scénario
    -le fonctionnement par rapport au hardware.

    […]

    Un CD de jeu PC ne fonctionnera si on le met das une console PS2.

    Là c’est du sarcasme qui n’a rien a faire sur un forum ! on est pas sur un ring ….
    Tu sais j’en est des meilleurs : l’incompatibilité souris-utilisateur ; tu peux nous la faire …………..

    Citation Envoyé par « zilog »
    Visiblement c'est plus rapide d'adapter un jeu PC pour les consoles (ou l'inverse) que de partir d'une feuille blanche.
    Il est tout de même plus rapide de faire une adaptation d’un jeu que de le créer de A à Z : c’est ce Zilog semble dire ….

    Franchement, aujourd’hui, la personne qui veut jouer pendant 1 ou 2 ans ne va pas prendre 1 3200 + Car attendre 1 ou 2 ans en étant en dehors ça fait mal.

    Entre passer 180 € dans un processeur surexploité par sa carte graphique et un 3800 X2 à 300 € que l’on changera plus tard et qui sera en accord avec sa carte graphique ( série 7xxx j’imagine ) : moi j’hésite pas : je prend le X2 je change mon pross plus tard je rame vraiment pendant 1 an ( la 3ème année ) mais je profite pendant 2ans …. Voir 2 ans ½ … Avec 1 mono on a pas les possibilités d’un dual. Et dans 1 ou 2 ans le leader entre le 4000+, le 3200 ( … ) et le X2 3800 sera le X2, il n’y a pas de problème !!! ( dans les jeux et applications qui deviendront de plus en plus orientées multicore )

    Beaucoup émettent des doutes sur la programmation pour multicore mais au risque de me répéter pour la énième fois je crois que l’argent mis en jeu donnera des ailes aux programmateurs …

  20. #19
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par destroy
    Or, déjà, lorsque tu veux encoder, télécharger, aider la recherche ou d’autres institution avec un petit programme qui tourne en fond, ou même faire de l’acquisition d’un côté et de l’autre te détendre par un bon petit FPS … J’avoue que tout le monde ne fait pas cela tout le temps. Cependant, il arrive souvent qu’on lance une application lorsqu’on est disponible, car c’est le seul moment où on utilise son ordinateur…. Et puis, côté facture électrique … laisser un ( voir deux, trois, quatre …. ) PC tourner la nuit, ce n’est pas le top ! Pour moi, je trouve que c’est déjà un argument en faveur du dual core.
    ben voyons !
    je vais lancer un encodage sur le dernier film dispo ici, télécharger de nouveaux fichiers mis partagés par d'autres, puis un BF2 sur le net..... et un petit folding@home pour la bonne conscience .
    Et pour ce genre de téléchargement , il faut se mettre sur la liste d'attente des utilisateurs partageurs, et cette file d'attente est longue. Et lorsque ça devient intéressant, c'est à dire qu'on commence enfin à recevoir de plusieurs personnes, et ça peut prendre du temps, j'éteins le PC pour dormir et je recommence l'attente la prochaine fois que j'utiliserai le PC.
    ben voyons!

  21. #20
    invitec12bc20e

    Re : opteron 170 ou 64 x2 4400+??

    lol j'ai peut être un tout petit peu exagéré .... mais bon je ne connais pas les joies d'Internet car je n'ai pas Internet !!!!
    Il n'empêche qu'un encodage si tu le lances et qu'en même temps tu joues, il y aura un gain de temps considérable ...

  22. #21
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par destroy
    Franchement, aujourd’hui, la personne qui veut jouer pendant 1 ou 2 ans ne va pas prendre 1 3200 + Car attendre 1 ou 2 ans en étant en dehors ça fait mal.

    Entre passer 180 € dans un processeur surexploité par sa carte graphique et un 3800 X2 à 300 € que l’on changera plus tard et qui sera en accord avec sa carte graphique ( série 7xxx j’imagine ) : moi j’hésite pas : je prend le X2 je change mon pross plus tard je rame vraiment pendant 1 an ( la 3ème année ) mais je profite pendant 2ans …. Voir 2 ans ½ … Avec 1 mono on a pas les possibilités d’un dual. Et dans 1 ou 2 ans le leader entre le 4000+, le 3200 ( … ) et le X2 3800 sera le X2, il n’y a pas de problème !!! ( dans les jeux et applications qui deviendront de plus en plus orientées multicore )
    Actuellement, les jeux n'exploitent pas le dualcore de manière totale. Souvent, seul un des 2 cores fonctionnent, et lorsqu'il y a "optimisation", elle est de 10 à 20%, à faire le parallèle avec le prix du dualcore qui est de 100% par rapport à la base monocore.
    Donc concernant ton exemple du X2 3800+, je dirai pendant encore cette année, tu vas ramer parce que un seul des 2 cores travaille et c'est un 3200+. Puis pendant 1 à 1 an 1/2, tu profites pleinement avec les jeux vraiment optimisés, puis tu seras largué parce qu'un X2 3800+ ne suffira plus.

    Donc si on regarde la vitesse à laquelle le prix des nouveautés chutte, y compris les X2, et l'utilité réelle des X2 actuellement, le meilleur choix consiste à prendre un 3500/3700 qui est bien plus puissant que "la moitié d'un X2 3800+", puis dans un an ou un an et demi, prendre un X2 4800+ pour pas cher, et pleinement exploité par baucoup de logiciels.

    Le X2 4800+ se trouvait autour de 1000€ à sa sortie et proche de 600€ actuellement. On peut raisonablement penser que dans 1 an, il passera en dessous de 400€. On pourra alors revendre son 3500/3700 pour environ 75€ à 100€. Le cout final de ces 2 processeurs en 2 étapes ne devrait pas couter beaucoup plus cher qu'un X2 3800+ aujourd'hui, sauf qu'on sera en possession d'un X2 4800+ et non un X2 3800+

  23. #22
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par destroy
    Là je crois que ça dépend surtout du chèque qu’on fournit mais on s’écarte un peu du sujet … Quoique … quelles sont les grosses entreprises qui dominent le marché : comme le disait Zilog ce sont bien IBM, Intel, M$ et Sony ( et le petit poucet AMD au « petit budget » en comparaison ). Sérieusement si les éditeurs ont si vite accepté le Netburst, c’est bien qu’il y avait un avantage financier pour eux … En l’occurrence le Multi Core ce n’est pas spécifique qu’à Intel mais à toutes ces énormes multinationales qui ont un plan budgétaire pré-établi … et qui ne vont accepter que leur produit sur lequel elles mises de gros bénefices soit en retard …

    Comme je le dis les masses monétaires sont tellement colossales pour un produit voulu par toutes les grandes multinationales du hardware souhaitent se développer qu’il n’y a pas de place pour un flop … Et je ne crois pas que Ubisoft malgré l’empleur de l’entreprise soit capable de rivaliser face aux géants du hardware !!!

    Donc pour toi, le multi-core c’est quelque chose qui arrive comme un cheveux sur la soupe ; totalement inattendu … : à tel point imprévu que Unreal Engine 3 sort bientôt et fera sûrement office de moteur référentiel …. Sérieusement, je crois que les éditeurs et les fabricants hardware ont intérêt à s’entendre sinon les deux perdront de l’argent. Je ne crois pas qu’ils aient attendus cette réflexion pour discuter éco entre eux !!...
    Si les éditeurs ont suivi Intel et son Netburst, c'était que Intel représentait 80% de part de marché. Et comme Intel avait arreté les Pentium3, ça veut dire que le marché va basculé forcement, peu à peu, vers ces 80% de Netburst !
    Ce qui n'est pas le cas pour les dual cores actuellement. Ils ne représentent pas la majorité des nouvelles ventes CPU, donc leur proportion parmi les PC encore en fonctionnement aujourd'hui est infime.
    Réécrire un logiciel coute cher et il faut que l'utilité soit là pour que le consommateur accepte d'acheter la nouvelle version. Par exemple winzip fonctionne parfaitement sur un X2, sauf qu'il ne va utiliser qu'un seul des 2 cores. Qui va acheter la nouvelle version de winzip v.X2 capable d'utiliser les 2 cores en même temps pour aller 2 fois plus vite ?

    Il en est de même pour les jeux. Inclure l'optimisation X2 engend des couts supplémentaires et.....retarde la sortie du produit en cours de développement (donc pas de sous qui entre) et pire....laisser le marché au produits concurents non optimisé X2. Et lorsqu'ils sortiront enfin leur produit, les consommateurs diront "on a déjà joué à ce genre de jeu...". L'exemple de HL2, à l'origine révolutionnaire par rapport aux jeux de l'époque, qui a été moulte fois repoussé, et qui devient un simple jeu ordinaire, surtout devancé par d'autres moteurs graphiques: Farcry.... (Les moteurs graphiques servent de base pour faire fonctionner d'autres jeux!)

    Les éditeurs de jeux inclueront les VRAIES optimisations X2 dans leur futurs produits ( et pas de bidouille à 10% de gain), et si la proportion de X2 le justifie (on revient au cruel dileme de la question citée plus haut). Ça veut dire que ces jeux ont débuté en ces moments ci, et ne seront disponibles pas avant 1 an ou 2.

    Quand je parle de vraies optimisations X2, il faudrait voir l'exemple de compression d'un fichier de 100Mo.... un peu plus haut dans la discussion.

  24. #23
    invite0190fadb

    Re : opteron 170 ou 64 x2 4400+??

    Si destroy avais pris le temps de te lire Wizz , je pense que l'exemple du 64bits lui aurais suffit.
    Cela fais quand même TRES longtemps que les processeurs AMD 64 bits sont sortis, et pourtant il existe encore BEAUCOUP de logiciels dont la version 64 bits n'est pas sortie. A tel point que j'utilise mon X2 4400 sur XP 32bits, bien que la version XP 64 bits soit capable d'émuler les applications 32bits. Mais au prix de pertes de performance sur les applications que j'utilise le plus couramment.

    Et pourtant la problématique de programmation 32bits/64bits est bien plus simple que celle Mono-Thread/Multi-Thread. De toute façon de nombreuses taches algorithmiques (que j'appellerai séquentielles pour simplifier) ne sont pas parallèlisables.

  25. #24
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par destroy
    Posté par « wizz »
    Tu confonds 2 choses.
    Un jeu est composé de 2 parties de développement.
    -le scénario
    -le fonctionnement par rapport au hardware.

    […]

    Un CD de jeu PC ne fonctionnera si on le met das une console PS2.

    Là c’est du sarcasme qui n’a rien a faire sur un forum ! on est pas sur un ring ….
    Tu sais j’en est des meilleurs : l’incompatibilité souris-utilisateur ; tu peux nous la faire …………..

    Il est tout de même plus rapide de faire une adaptation d’un jeu que de le créer de A à Z : c’est ce Zilog semble dire ….
    Ceci n'est pas du sarcasme de ma part si tu avais pris la peine de tout lire et de comprendre le sens de mon message.
    Adapter un jeu existant c'est récupérer son scénario à l'identique, mais il faut quand même le REECRIRE pour qu'il puisse fonctionner sur la nouvelle plateforme. Et financierement, ceci a un cout qui ne peut être amorti, contraireemnt au scénario qu'ils ont récupéré.
    De plus, il faut un certain temps pour le réécrire, le recompiler, faire des tests pour les bugs eventuels, etc... et donc ça prend un certain temps.
    Donc avant de s'engager dans des dépenses couteuses, les éditeurs font comme tout le monde: étudier le marché potentiel pour voir si ça vaut le coup ou non, s'ils récupereront leur investissement ou non.

    Donc avant de s'engager dans le projet d'optimisation pour les dualcores dans les jeux, qui prend plus de temps (et donc de l'argent) que l'ancienne méthode de travail monocore, ils regardent comment évolue la part de marché des dualcores. Ça veut dire que ces projets n'ont commencé que très récemment, voire pas encore. Ça veut dire aussi que ces jeux ne seront pas sortis avant un ou deux ans. Et donc ça ne sert à rien pour nous les utilisateurs gamers d'acheter un dual cores tout de suite, parce que ça nous coute 2 fois plus cher sans que la performance soit là.

    As tu compris????

    Quant aux éditeurs qui ont les moyens financiers, ce qui n'est pas le cas de tous les éditeurs (beaucoup sont dans le rouge à la fin de l'année), ils peuvent se permettre d'augmenter leur capacité et de se lancer dans l'avenir sans trop se poser la question. Pour eux, développer un nouveau moteur graphique entierement optimisé X2 ne les mettront pas en banqueroute à la fin de l'année. Ce qui est le cas de Unreal Engine 3.
    Il est à noter qu'il n'est pas encore sortie. Bientôt mais pas encore. Et ça peut vouloir dire 3 mois, 6 mois ou 1 an...Ça veut dire qu'ils ont commencé à y bosser sur le problème il y a au moins un an. Donc voilà ce que j'avais dit plus haut, un projet prend généralement 2 ans de travail pour aboutir. Et pour les éditeurs qui auront commencé en 2006 seulement, leur jeux ne seront pas dispo avant 2008.

    Donc pour nous utilisateurs gamers, il ne sert à rien d se précipiter sur les dualcores aujourd'hui....
    As tu compris mon message? Il n'y a rien de sarcasme de dans. Juste du réalisme !

    Pour ceux qui font beaucoup de multitaches et que leur temps est précieux (les travailleurs, développeurs....) , l'achat d'un X2 va de soi.
    Mais pour un joueur et de temps en temps "multitache", ça ne vaut aps le coup de dépenser plus.
    Dernière modification par wizz ; 27/02/2006 à 08h48.

  26. #25
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par wizz
    Le hardware ne servira à rien si le software n'est pas là pour l'exploiter. Et comme tu l'as justement fait remarqué: non décollage du 64bits, ainsi que les exemple du 3Dnow etc... Donc ça dépend aussi et surtout des éditeurs de logiciels !
    Bon je vais être clair :

    En parlant du 3DNow! et du 64 bits je t'expliquais simplement que les développeurs ont toujours codés d'abord pour l'architecture d'intel. Ils vont pas perdre leur temps pour optimiser un programme pour une architecture qui a peu de part de marché.

    Tout ce que les dev recherchent c'est vendrent leur jeux. Et pour que ça se vendent, il faut que leur jeu soit le plus joli, le plus rapide, etc... Pour celà, il vaut mieux utiliser les dernières technologies des boîtes de hardware. Et tant qu'à faire autant s'appuyer sur les technologies du leader: la plupart du temps c'est Intel.
    Mais dans le cas du dualcore, tous les fondeurs s'y sont mis : AMD, Intel, IBM et même VIA (c'est dire...). C'est pour ça que je pense que les développeurs vont s'y mettre d'autant plus vite : ils sont certains de son implantation rapide.

    D'ailleurs tous les conroe seront dualcore.

    Tu crois vraiment qu'Intel ne fait pas pression sur les éditeurs pour qu'à la sortie du Conroe les applications soient optimisés pour lui et non pour le Netburst ?

    Citation Envoyé par wizz
    L'encodage, compression, etc... sont des logiciels qui utilisent les instructions SSE3 et qui dépendent beaucoup de la fréquence du processeur et non de leur architecture On voit parfois sur certains types l'applications que le celeron 3GHz fait mieux qu'un P4 2.6GHz.Alors les anciens AMD dépourvus de l'instruction SSE3 stagnant à 2GHz ne font pas le poids face à cela.
    Déjà tu dis que l'encodage, compression et tutti quanti dépendent plus de la fréquence que de l'architecture.
    Ben figure toi que si les P4 et les celerons montent si haut en fréquence c'est bien parce que leur architecture le leur permet. C'est parce qu'Intel à décidé de passer à un pipeline de 20 étages d'abord et 31 ensuite qu'il tienne les 3.8Ghz. Si un P3, un K7, un K8 et même un yonah(monocore évidemment) s'en sortent moins bien qu'un P4 dans ce genre de programme c'est parce qu'il faut effectuer des tâches identiques qui créent très peu d'erreurs de branchements (d'autant plus que le prefetch du P4 et très bon de ce coté là). On peu rapidement résumer en disant qu'un CPU avec une architecture qui favorise l'IPC (nombre d'instructions par cycle) sera pénalisé dans ces programmes. Evidemment dans les programmes où les erreurs de branchements sont plus nombreuses comme les jeux, c'est le P4 qui rame : il faut vider plus souvent le pipeline et plus il a d'étages, plus c'est long. Donc, oui la fréquence est fortement liée à l'architecture.

    De plus des K8 sans SSE3, il y en a eu à 2.4Ghz. Puis les instructions SSE3 sur les AMD n'ont jamais apportés des gains aussi importants que sur les intels. Donc même avec le SSE3 les K8 (monocore) ne feront jamais le poids sur ces applis. Evidemment puisque le SSE2 puis 3 c'est fait pour aider les dev en offrants des instuctions sur mesure pour nourrir le pipeline gigantesque des P4. La preuve ? ben dans le SSE3 il y a 2 instructions dédiés uniquement à l'hyperthreading : Monitor et Mwait qui ne sont évidemment pas intégrés dans le K8.

    Donc pour toi si un celeron avec le SSE3 va plus vite qu'un P4 avec le SSE2, c'est uniquement grâce au SSE3 et à la fréquence? Pourtant qui dit P4 sse3 (Prescott) dit pipeline plus long, optimisations de pleins d'instructions (Shift/Rotate/imul..etc) en les traitants non plus par l'ALU la plus lente du CPU mais par les 2 autres qui moulinent à 2 fois la fréquence du CPU(pour shift et rotate). Intel a aussi ajouté 2 buffers suplémentaires et a surtout doublé la cache L1 tout en augmentant encore la prédiction de branchements. En plus ce genre de test n'a que faire de la quantité de cache L2 donc un céléron avec 256 K rivalise avec un P4 512K.

  27. #26
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par wizz
    l'Hyperthreading ne s'approche du dual core que très partiellement, valable uniquement que pour du multi taches MAIS pas pour utiliser les 2 cores (physique et virtuel) sur la MÊME tache.
    Va dire ça à Intel, ils vont être déçus.
    Sérieusement, regarde de plus prêt n'importe quel comparatif entre pentium HT et Pentium D: ça t'as jamais étonné que sur les applications MULTITHREAD le pentium D prenne seulement 50 % d'avance sur un monocore avec Hyperthreading ? Normalement sur une application multithread quand un athlon dualcore va 2 fois plus vite qu'un athlon mono, un pentium dualcore devrait faire pareil : ben non ! Ah mais oui c'est vrai sur les pentium D intel a désactivé l'hyperthreading. C'est d'ailleurs la seule différence entre le pentium D et le PentiumD extreme edition.

    Des tests SMP (Symmetric Multiprocessing) comparant P4 HT, P4D, Athlon et Athlon X2 :
    http://www.hardware.fr/articles/571-...4800-4400.html
    http://www.tomshardware.fr/athlon-64...pu-919-16.html

    D'ailleurs t'as du entendre parler des problèmes rencontrés avec les p4D EE avec le scheduler de windows qui à du mal à gérer les 2 cores réels + 2 cores virtuels.

    Des petits liens pour t'expliquer l'hyperthreading (regarde bien les pages 4 à 6 du premier lien):
    http://www.x86-secret.com/popups/art...ndow.php?id=57
    http://www.lifl.fr/~boulet/formation...Threading.html
    Le deuxième parle de coarse grain MT qui est utilisé sur l'itanium.

    tu vois que sur x-86 secret ils parlent de logiciels SMT et non-SMT : les premiers
    font exécuter plusieurs threads au CPU les autres non.

    L'hyperthreading (HT) a toujours eu pour but de gérer plusieurs threads en même temps. Et donc tous les programmes optimisés

    pour l'hyperthreading le sont pour le multicore. La meilleur preuve que je puisse te donner c'est qu'AMD à passer le flag du HT à 1 sur les athlons X2 pour que le processeur se comporte comme un CPU avec hyperthreading avec les applis SMT mais pas encore du multicore (SMP). Comme ça le 2ème core réel de l'athlon se comporte comme un core virtuel.

    C'est donc pour ça que l'Athlon X2 à fait si mal à intel :
    AMD est passé du monocore au dual : on double les perfs par 2 sur les applis multithreads Intel est passé du HT au dual non-HT : on augmente les perfs d'environ 50 %.

    Ton erreur a été de confondre tache et thread. Le thread ou processus travail à un niveau plus bas. Bien sûr l'hyperthreading t'apportera un gain quand tu utilises plusieurs application monothread en même temps, mais pas seulement.

    Citation Envoyé par wizz
    Tu confonds 2 choses.
    Un jeu est composé de 2 parties de développement.
    -le scénario
    -le fonctionnement par rapport au hardware.
    Tu m'as mal compris.
    Evidemment qu'un programme x codé pour un cell ne sera pas exécutable sur un PowerPC, x86, motorola, etc... A moins d'utiliser un émulateur mais ce n'est pas le problème.

    Ce que je voulais dire c'est que coder pour du multicore c'est nouveau pour beaucoup de programmeurs. Les premières tentatives sont toujours optimisables comme c'est le cas pour tout programme.Dans le cas du multicore le problème c'est de savoir quoi mettre dans quelle cache, de savoir quand aller chercher l'instruction et quand cacher les données et surtout le faire en parallèle.Plus les programmeurs codent pour du multicore, plus ils engrangent de l'expérience avec cette technologie et plus ils sauront programmés pour du multi.Ainsi pendant le temps du portage entre plateformes, le programme, le moteur peuvent être améliorer grace à l'expérience acquise. Tu prends doom3 et quake 4, le dernier est beaucoup moins gourmand et un petit peu optimisé pour le dualcore.

    Citation Envoyé par wizz
    Mais avant de s'enthousiasmer trop rapidement, il ne faut pas oublier que sortir un jeu demande un an, deux voire trois an de travail.[...]et pour les nouveaux jeux (scénario et moteur graphique) ce sera plutot 2008.
    Unreal tournament basé sur l'Unreal Engine 3 sort cette année... et il exploitera le dualcore à 100%. Logique puisque ça fait plus de 2 ans qu'ils le développent. Et bien sûr le moteur va servir pour d'autres jeux.
    Tu penses que l'unreal engine 3 est développé depuis à peine un an !????

    tiens une news avec des petites images qui montrent que le moteur est vachement avancé. Penses à regarder la date de la news : 13 août 2004.
    http://www.pcinpact.com/actu/news/Un...res_decran.htm

  28. #27
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par wizz
    On aura l'air crétin avec nos X2 4400+ acheté à prix d'or 500€ en 2006, en pensant qu'on allait le faire durer plus de 2 ans.
    Tu pars sur le principe qu'un processeur ne peut pas durer 2 ans. Je vais te prouver le contraire :

    Regarde ce que tu pouvais acheter début 2004 (il y a 2 ans donc...): un athlon64 3200+ s754 à 2,2 Ghz et 512Ko de L2. Vu qu'il n'a pas la gestion du dualchannel on peut dire qu'il vaut bien un athlon64 3200+ s939 à 2Ghz.
    Eh bien tu veux me faire croire qu'un Athlon 64 3200+ ne sert plus à rien, que comme tu le dis c'est " un gentil petit processeur pour faire de la bureautique ou pour faire tourner d'anciens jeux pour les nostagiques."

    Perdu.
    Et c'est justement ce que tu me conseilles d'acheter... en 2006.

    On a regardé le passé, maintenant voyons le futur :

    Regarde les prix prévus pour le conroe (en dollars HT par lot de 1000) :
    E6300 : 1.86Ghz, 2Mo de mémoire cache, 210 dollars
    E6400 : 2.13Ghz, 2Mo de mémoire cache, 240 dollars
    E6600 : 2.40GHz, 4Mo de mémoire cache, 315 dollars
    E6700 : 2.67GHz, 4Mo de mémoire cache, 529 dollars

    Prenons le modèle le plus puissant de la gamme : 529 $
    A l'unité il va se négocier autour des 550 euros en étant gentil,
    Début 2007 le CPU serait donc au mieux au même prix que le 4400+ à 2.2 Ghz.
    Voilà ce que tu gagnes en 1 an : 500Mhz. Est-ce beaucoup plus puissant ? Et en prenant l'E6600, évidemment moins cher tu gagnes plus que 200 Mhz...

    De plus qu'il choisisse AMD et Intel il faudra changer la carte mère et la RAM, on va dire 200 euros de plus : ça commence à
    chiffrer. Et comme pour toi un CPU dure moins de 2 ans...

    En plus comme tu as la même boulimie consumériste pour la carte graphique...

    Tout ma logique consiste à dire que c'est possible de changer son CPU tous les 3 ans sans que le PC soit obsolète au bout d'1 an et que ça coute au final moins chère que ta solution.
    Tu ne peux pas me contredire sur ce point puisque c'est ce que je fais.
    Et si j'y arrive, je ne dois pas être le seul.

    De toute façon même si j'avais l'argent pour consommer le hardware à ta façon, je ne le ferai pas. Question d'idéologie.

    Puisque mon matos peut tenir plus longtemps à condition d'acheter les pièces au bon moment pourquoi céder à la société de consommation ? Pourquoi vouloir produire plus de déchets informatiques que "nécessairent" (RoHS ou pas)? (un lien à ce sujet:

    http://www.pcinpact.com/actu/news/Af..._recyclage.htm).
    J'ai la "chance" de vivre dans un de ces pays qui font subir leur prospérité à d'autres,
    j'ai la "chance" de pouvoir pratiquer un loisir qui consomme de l'énergie et produit des déchets très difficiles à recycler,
    alors je peux faire au moins un petit effort, et si dans 3 ans, au moment de changer de PC, mes jeux ne tournent pas à 120 fps comme avec ta solution, mais à 50 où est le problème ?

    Je n'oblige personne à adhérer à mon point de vue, je le fait juste partager.

  29. #28
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par zilog
    Tu penses que l'unreal engine 3 est développé depuis à peine un an !????
    mea culpa, j'au lu trop vite.

    Donc ca fait plus d'un an qu'il travail sur l'unreal engine. Mais si c'est le cas pour eux, pourquoi pas pour d'autres (crytek par exemple ?)
    J'ai l'impression que pour toi les éditeurs viennent de s'apercevoir de l'existence du multicore. je pense quand même qu'ils anticipent un minimum.

  30. #29
    invitef50ebce9

    Re : opteron 170 ou 64 x2 4400+??

    Citation Envoyé par click
    Si destroy avais pris le temps de te lire Wizz , je pense que l'exemple du 64bits lui aurais suffit.
    Cela fais quand même TRES longtemps que les processeurs AMD 64 bits sont sortis, et pourtant il existe encore BEAUCOUP de logiciels dont la version 64 bits n'est pas sortie. A tel point que j'utilise mon X2 4400 sur XP 32bits, bien que la version XP 64 bits soit capable d'émuler les applications 32bits. Mais au prix de pertes de performance sur les applications que j'utilise le plus couramment.

    Et pourtant la problématique de programmation 32bits/64bits est bien plus simple que celle Mono-Thread/Multi-Thread. De toute façon de nombreuses taches algorithmiques (que j'appellerai séquentielles pour simplifier) ne sont pas parallèlisables.
    eh oui comme tu dis click...
    passer du 32 au64 bits c'est beaucoup plus simple que de faire du SMT/SMP (ça demande beaucoup d'optimisations à la main car un compilateur est largué la dessus) et pourtant ils l'ont bien fait pour Intel....

    Conclus en ce que tu veux...

  31. #30
    wizz

    Re : opteron 170 ou 64 x2 4400+??

    Revenons à l'essentiel du sujet.
    Beaucoup de personnes demandent conseil pour leur futur config avec comme utilisation ceci: je joue à quelques jeux comme ****, je fais de la vidéo, du traitement photo, etc....

    Traitement photo. (Il y a des logiciels optimisés X2.)
    Pour la plupart d'entre nous, ça consiste à corriger les yeux rouges, à découper la photo d'origine pour dégager la poubelle qui gache le paysage... Très très peu de gens (à part les pro) utilisent le format raw avec aplications de gros filtres. C'est seulement ce dernier type de traitement photo qui demande de la puissance. Et pour les pro, il y a la notion de time is money.

    Je fais de la vidéo. (Il y a des logiciels très bien optimisés pour le X2 où le gain de temps est presque doublé.)
    Sous ce terme générique, on retrouve dans la plupart des cas un encodage divx, un redimensionnement d'un DVD loué pour le copier sur un DVDR de 4.7Go avec un logiciel très connu (*********). Le gain de temps d'une heure sur l'un ou 10 minutes sur l'autre est discutable quant à l'utilité dans l'absolu.
    Seul ceux qui font de l'acquisition vidéo en auront vraiment l'utilité. Cela comprend changement de format, application de filtres, chapitrage, etc.... Encore faut il utiliser beaucoup dans l'année. Parce que pour la plupart des gens, c'est la vidéo de Noel et nouvel an, les vacances d'été, puis l'anniversaire du petit. Le reste du temps, c'est plutot "j'ai pas le temps", "je suis crevé !" , "ça me gonfle..."

    Soyons tous honnete ! La seule application qu'on fait le plus sans en avoir marre est les jeux vidéo, puis une application dont l'icone est le cousin du cheval.
    Aujourd'hui, les jeux ne sont pas encore vraiment optimisé. Je ne parle pas d'un gain de 10 à 20%. Je veux un vrai gain.

    Très peu d'entre nous font un encodage divx en même temps qu'une partie de FEAR. Et si on ajoute les 2 utilisations (réellement) de photo et vidéo, on voit que l'acquisition d'un X2 de nos jours est très discutable, par rapport à l'utilité réelle, par rapport à son prix actuellement, par rapport à son prix dans l'avenir ainsi que l'arrivée de logiciels vraiment optimisés.

Page 1 sur 2 1 DernièreDernière

Discussions similaires

  1. [Blanc] trop plein sur lave vaisselle ROSIERE LV 170
    Par inviteef5d8033 dans le forum Dépannage
    Réponses: 0
    Dernier message: 11/08/2007, 17h21
  2. Pile rechargeable , plutôt 8.4v 250mA ou 9.6 170 mA ?
    Par invite05054441 dans le forum Électronique
    Réponses: 3
    Dernier message: 24/09/2006, 13h36
  3. mac 4400/160
    Par invitecbfad8cf dans le forum Logiciel - Software - Open Source
    Réponses: 5
    Dernier message: 11/08/2006, 15h50
  4. Lave Linge Whirlpool AWM 4400
    Par invite243cf575 dans le forum Dépannage
    Réponses: 1
    Dernier message: 24/07/2006, 21h34
Dans la rubrique Tech de Futura, découvrez nos comparatifs produits sur l'informatique et les technologies : imprimantes laser couleur, casques audio, chaises gamer...