News Futuremark kooperiert mit Sapphire

der Futuremark 3d mark 06 ist für mich totaler mist kalr die demo ist ganz nett anzusehen aber beim cpu test kommt es mir hoch

warum kann ein intel core 2 duo extreme der auf über 4 GHZ übertaktet ist nicht mehr als 1 max 2 FPS schaffen das ist doch hirnlos

ich will nicht nur die ergebnisse in zahlen sehen , ich woll mit eigenen augen einen unterschied zwischen einen 300 € und 1000€ cpu erkennen können sonst ist es doch sinnlos
 
Lord Homer schrieb:
der Futuremark 3d mark 06 ist für mich totaler mist kalr die demo ist ganz nett anzusehen aber beim cpu test kommt es mir hoch

warum kann ein intel core 2 duo extreme der auf über 4 GHZ übertaktet ist nicht mehr als 1 max 2 FPS schaffen das ist doch hirnlos

ich will nicht nur die ergebnisse in zahlen sehen , ich woll mit eigenen augen einen unterschied zwischen einen 300 € und 1000€ cpu erkennen können sonst ist es doch sinnlos
Da stimm ich dir 100% überein! Beim 2001 oder 2003 fand ich das noch ganz ok, da konnte man sehen, wie man sein System verbessert, ob die Übertaktung oder die neue Kühlung etwas bringt. Der 05, oder gar der 06 (kommen ja jetzt schon jedes Jahr raus...) sind nur Marketing. Die bestmögliche Grafik zu zeigen, die nicht mal mit nem FX-XX und Quad-SLI bei 4GB-DDR2 Ram ordentlich läuft, und das in allen Sequenzen.

Aber das liegt ja auch an den Grafikkarten. Wenn NVidia und ATI sich streiten, freut sich der dritte. Aber nein, die arbeiten ja alle zusammen ? Das beweist ja wiederum, das alles abgekartet ist, damit sich die Leute neue Hardware kaufen.

Das ganze geht einfach zu schnell. Früher konnte ich mir noch einen Highend Rechner leisten, heute hab ich ja nach kaum 4 Monaten wieder nur gehobene Mittelklasse...
 
warum kann ein intel core 2 duo extreme der auf über 4 GHZ übertaktet ist nicht mehr als 1 max 2 FPS schaffen das ist doch hirnlos
Nun, ich würde spontan sagen: Weil die CPU nicht auf die Funktionen einer GPU spezialisiert ist und darum nicht einmal ansatzweise an deren Leistung heranzukommen vermag, wenn sie ein DX9-Bild bzw eine ganze Sequenz berechnen soll. Mal davon abgesehen, dass GPU auch so mehr Rechenpower haben (war doch so, oder?)... Wenn man jetzt noch die Anbindung des Grafikspeichers an die GPU mit der des Systemspeichers an die CPU mit in Betracht zieht, wirds noch deutlicher...

Das ganze geht einfach zu schnell. Früher konnte ich mir noch einen Highend Rechner leisten, heute hab ich ja nach kaum 4 Monaten wieder nur gehobene Mittelklasse...
Früher war der Hadware-Krieg ATi-nVidia auch nicht annähernd so ausgeprägt. Ich erinnere mich daran, dass ATi irgendwann mal wieder auf einen 24monatigen Zyklus für neue Grafikkarten zurückkehren wollte, aber da ist ja scheinbar nicht wirklich was draus geworden...
 
Zurück
Oben