News Auswertung der 3DMark-Leserergebnisse

Auch sehr merkwürdig wo ich mit ner GTX470 und nem ollen Coere i7 860 lande .
Core i5-2500K @ 4,4 GHz, GTX 660 @ 1.000 / 1.500 MHz
155.219
Core i7-860 @ 4,0 GHz, GTX 470 @ 800 / 925 MHz
155.134
Core i7-2600K @ 4,3 GHz, GTX 680 @ 1.084 / 1.553 MHz
154.203
Core i7-2700K @ 4,3 GHz, GTX 580 @ 880 / 1.088 MHz
153.453
Core i7-2600K @ 4,43 GHz, GTX 680 @ 1.005 / 1.502 MHz
153.044
 
Der hohe Preis, vielfältige Probleme sowie das Thema Mikroruckler haben diesen Typ von Karten bei der Kundenakzeptanz nahezu aussterben lassen.
Nice, Sieg der Vernunft. Die meisten Karten sind auch noch klassische Vram Krüppel ala GTX 690 also Bauernfängerei. Schön zu hören, die Quittung für den Miesen Support.


dann werden sich Smartphones, Tablets und Notebooks mit insgesamt vier verschiedenen Betriebssystemen im ersten Test „Ice Storm“ gegenüberstehen
Gute Aktion, dann muss ich wohl mein MBPR aus dem Tiefschlaf holen.
 
Ich bekomme es einfach nicht zum laufen. In der 2 Cloud Seq. hängt es sich immer auf, ohne Übertaktung und alle Standard Treiber:( Naja egal
 
leider läuft der test auch bei mir nicht. wenn der erste test für atom etc gedacht ist, dann kann ich nicht verstehen warum es nicht läuft. bei test 2 und 3 steht zwar da, dass diese nicht gestartet werden können mangels directx, aber der erste sollte doch laufen. wäre mal ganz interessant gewesen zu sehen wie ein betagtes notebook abschneidet, wenns aber eh nur cpu-lastig ist, kann ich auch cinebench nehmen.
 
Wenn es nicht läuft, wäre es an der Zeit aufzurüsten ;)

Aber mal im Ernst: bei den ganzen Einblendungen der GraKa-Hersteller und bei dem Geruckel des letztes Tests <10 frames/ sec. habe ich mich auch schon ertappt die GraKa zu tauschen... :)
 
An der Hardware kann es nicht liegen:( Habe selbst mit Crysis 3 Beta alles auf volle pulle außer SS und habe um die 35-40fps auf 1900x1200. Es bleibt wie gesagt hängen und der Fps zähler geht hoch bis ins unermessliche, bei 20000fps dachte ich mir ok beenden und es reagiert gar nix mehr.
 
Mein Fazit zu dem Ganzen hier:

Die erste beiden Tests sind für Highend PCs völlig uninteressant. Wer braucht denn bitte 1000 FPS und aufwärts an Spieleleistung bei veralteten Features. Also ich nicht.

Fire Stike hingegen zeigt auf wie sich ein Highend PC bei den heutigen Games mit aktuellen Features zu verhalten hat. Eine Intel CPU braucht man da nicht wirklich, solange die GPU eh am Limit klebt.
Und das ist bei mir zu 99,9% der Fall wenn ich die Games mit Max Details + 2-4fach MSAA oder SSAA + Downsampling 2720x1530 fahre. Daher finde ich den Fire Strike Extrem Bench am interessantesten, denn der spiegelt mein Anwendungszenario wieder, und das sagt mir auch das ich auch in Zukunft auf eine schnellere CPU als die vorhandene durchaus verzichten kann, solange es keine SingelGPU gibt die das hier ändern kann.http://www.3dmark.com/3dm/115172?

Viel erschreckender finde ich die mangehafte SLI oder Crossfire Skalierung. Die User mit 2 Graka müssen sich doch echt dämilch vorkommen, wenn sie sehen das ihr System grade mal 22% mehr Leistung gegenüber einem aufgebohrtem SingelGPU System bringt. Mag sein das der Fehler irgendwann mal Treiber oder Softwareseitig behoben sein wird, halte dennoch wenig bis garnichts von Dual GPU Lösungen, da sie mehr negative als positve Aspekte beinhalten. Wird also Zeit für Singel GPUs die mehr als 100% Leistungszuwachs ( schön wärs, aber bisher noch unwahrscheinlich) bieten.
 
Zuletzt bearbeitet:
@Hawk 1980

Kann ich so nicht sagen, ich habe gestern haben mal einen Bench mit CF laufen lassen und war doch etwas überrascht, vor allem bei den letzten beiden Benches kommt das CF schon raus.

HD6480G alleine:
Ice Storm 27425
Cloude Gate 2446
Fire Strike 394

Unsinniger weise liest 3DMark 1024VRAM aus, sind aber nur 512MB
http://www.3dmark.com/3dm/103493


CF aus HD6480G + HD7470M:
Ice Storm 29766
Cloude Gate 2979
Fire Strike 619

http://www.3dmark.com/3dm/108331
 
BulliSabber schrieb:
@Hawk 1980

Kann ich so nicht sagen, ich habe gestern haben mal einen Bench mit CF laufen lassen und war doch etwas überrascht, vor allem bei den letzten beiden Benches kommt das CF schon raus.

HD6480G alleine:
Ice Storm 27425
Cloude Gate 2446
Fire Strike 394

Unsinniger weise liest 3DMark 1024VRAM aus, sind aber nur 512MB
http://www.3dmark.com/3dm/103493


CF aus HD6480G + HD7470M:
Ice Storm 29766
Cloude Gate 2979
Fire Strike 619

http://www.3dmark.com/3dm/108331

Naja dennoch finde ich diesen 3DMark mehr als merkwürdig besonders was SLI angeht, ich meine in Unigine Heaven 3.0 hab ich 57fps avg ne GTX 680 im Schnitt 50-52fps avg... Aber hier in 3DMark erreicht ein GTX 480 SLI gerade mal im schnitt 4500 aber ne GTX 680 6000+ echt sehr sehr merkwürdiger 3DMark .....

Und bei mir Stürzt der mist auch noch dauert ab im Fire Strike Load Screen .... hab schon alles mögliche Probiert immer an der Selbsten Stelle und auch nur wenn ich SLI Aktiviert hab....


GTX 480 SLI Uninige Heaven 3.0




GTX 680 OC? Quelle "Ruebennase " Seite 2 Dieses Threads



Normale GTX 680




Klar hat die GTX 680 mehr mind. FPS liegt wohl am 512MB mehr VRAM :)

Also für mich ist dieser 3DMark nicht wirklich aussagend, ich warte noch bis auf 1.0.1 oder nen neuen Nvidia Treiber :)

MFG
 
@BulliSabber

Schau dir mal deine Combiscore an, dass fällt ja schon fast unter Messtolleranz. :)

Zudem bremst deine APU die Gpu runter, lass mal die GPU alleine laufen, dann siehst du was du von deiner APU hast.

Klar hat die GTX 680 mehr mind. FPS liegt wohl am 512MB mehr VRAM

Und genau darin liegt dein Problem. Fire Strike genehmig sich bis zu 1,7gb Graka Ram ( und das schon beim Laden), was deine Karten nicht haben. Folglich kommt es da zu Einbrüchen, wenn nicht sogar zu abstützen, wie in deinem Fall . Solltest dich mal langsam von deinen Stromschleudern verabschieden, die kaum schneller als ne aktuelle SingelGPUs sind, aber mit mehr Problemen zukämpfen haben.
 

Anhänge

  • Heavenbench extrem MaxOC.JPG
    Heavenbench extrem MaxOC.JPG
    268,9 KB · Aufrufe: 457
Zuletzt bearbeitet:
Volker schrieb:
Ja solch ein Formular hat auch Nachteile. Nur ist es für uns so am einfachsten hinsichtlich dem Übertrag der Ergebnisse und beugt unter anderem Spam-Attacken und (krassen) Falschmeldungen vor. Wäre das alles anonym und komplett offen gelaufen und jeder könnte 50 Ergebnisse einschicken, wären wir nie fertig geworden und hätten am Ende ein sicher deutlich verzerrteres Bild, von dem man nicht mehr viel ablesen kann.

Naja, wass will man dazu sagen, es gibt viele Zwischenwege, da viele 2-3 Systeme (Gaming Desktop/Laptop/HTPC) haben, würde ich ehrlich gesagt schätzen das, wenn ihr Daten für 2 PC erlaubt hättet auch fast doppelt soviele Werte gepostet worden wären.

So schlim wäre das wohl nicht gewesen, wenn der ganze Eingabebereich doppelt so lang gewesen wäre. Macht doch mal eine Umfrage wieviel PC, rumstehen bei CB Benutzern, das wird selten nur ein PC sein.

Trotzdem Danke für den Vergleich.

Mal abgesehen davon sieht man so schon das der Benchmark noch bedeutungsloser ist als die vorhergehenden und immer noch die CPU Leistung sehr stark gewichtet wird, obwohl euche Tests mit verschiedenen CPU und gleicher GPU zeigen das man mit i3/5 nicht viel spielleistung verliert.
 
also ich finde zumindest der Fire Strike Benchmark spiegelt doch durchaus das momentane Leistungsgefüge sowohl bei CPU als auch GPU wider.

Hab mir die Usertabelle angeschaut und für mich ist alles nachvollziehbar. Man sollte vll. auch mal Grafik Score und Physik Score des Tests gesondert betrachten bevor man sich über den Gesamtscore chauffiert.

Die hohe CpU Abhängigkeit kann man kritisieren... allerdings will man ja gerade die Leistungsfähigkeit des Gesamtsystems ausloten, da macht es keinen Sinn wenn dann keine Last anliegt. (wie bei Ice Storm bzw. Cloud Dingens)

Seit Sandy Bridge liegen doch die meisten Intel Quadcores nah beieinander, da entscheidet dann die Taktung bzw. kann man sonst nur noch mit nem 6-Kerner ala 39x0X punkten.

Bei den Grafikkarten zeigt sich ein Bild wie es hier jeder erfahrene Forenuser ohne bunte Brille prognostizieren würde. Insofern doch alles korrekt.

Fire Strike ruft alle Leistungsreserven ab und das finde ich gut. Ob momentane Spiele dies auch tun steht auf einem anderen Blatt.
 
So langsam brauche ich glaube ich eine DX11 GPU :(
Erst geht Crysis 3 nicht, jetzt 3DMark und bald gar nischt mehr...

Obwohl die noch genug Dampf hat, nur wegen dem scheiss DX11. Zum :kotz:
 
2Sharp4U schrieb:
So langsam brauche ich glaube ich eine DX11 GPU :(
Erst geht Crysis 3 nicht, jetzt 3DMark und bald gar nischt mehr...
... und das ist auch gut so. Bzw, wirds auch langsam Zeit, dass DX 9 und 10 mal so langsam verschwindet. DX 11 Karten gib es mittlerweile seit 2009. Schon schlimm genug das die Software da immer noch hinterher hinkt :)
Obwohl die noch genug Dampf hat, nur wegen dem scheiss DX11. Zum :kotz:
Schlimmer fand ich damals, dass man sich von einer Karte mit Shader 2 trennen musste weil die Games nur Shader 3 und aufwärts beherschten. Kannst ja mal versuchen mit einer ATI X800Pro ein DX9 Game zum laufen zu bekommen.
 
Zuletzt bearbeitet:
Hawk1980 schrieb:
Und genau darin liegt dein Problem. Fire Strike genehmig sich bis zu 1,7gb Graka Ram ( und das schon beim Laden), was deine Karten nicht haben. Folglich kommt es da zu Einbrüchen, wenn nicht sogar zu abstützen, wie in deinem Fall . Solltest dich mal langsam von deinen Stromschleudern verabschieden, die kaum schneller als ne aktuelle SingelGPUs sind, aber mit mehr Problemen zukämpfen haben.

Ja genau deswegen geht der Test auch mit 1 Karte, mit 2en aber nicht, also für mich bleibt dieser Benchmark total nichts sagend, weil SLI einfacht total schlecht Sklaliert...

Und dein Vergleich mit deiner Krass übertakteten HD 7970 konntest du dir bitte sparen.

Klar fressen meine Karten mehr Strom als eine GTX 680, meine sind ja in den meisten Spielen höhere avg FPS haben, und drauf kommt es halt bei mir an bei der Grakas das ich gute FPS in Games hab, was Interessiert mich ein schlecht Programmierter 3DMark der noch nicht mal richtig SLI kann.

Vor allem müsste ich trotzdem noch 150€ drauflegen obwohl ich für meine 2xGTX 480 maximal denk ich 300€ bekommen könnte, wozu das ganze? dann warte ich lieber auf die GTX 780 dann lohnt sich das immerhin mehr :)

MFG
 
Zuletzt bearbeitet:
Hawk1980 schrieb:
@BulliSabber

Schau dir mal deine Combiscore an, dass fällt ja schon fast unter Messtolleranz. :)

Zudem bremst deine APU die Gpu runter, lass mal die GPU alleine laufen, dann siehst du was du von deiner APU hast.

Das glaubst du, selbst bei übertaktetem CPU Teil (2,8 GHz statt 2,1 GHz) kommen mit der dedizierten HD7470m schlechtere Werte raus.
Frag nicht warum, aber selbst bei Heaven habe ich durchschnittlich 1-2 fps weniger mit der dedizierten als mit der Apu eigenen HD6480G obwohl es eigentlich umgekehrt sein müsste laut offiziellen angaben.
Das ganze dreht sich erst um, wenn ich die HD7470m von 800 MHz Chip und Speichertakt auf jeweils 900 MHz übertakte.
 
Zuletzt bearbeitet:
So ein Benchmark macht einen schon Depri...ist es wirklich so lange her, dass ich meine X4 965 und 5850 geholt habe ? :/
 
@BulliSabber
Das liegt wohl daran das die Bildausgabe über die APU geht und die HD7470m bei dir nur als Unterstützung ( Entlastung) der APU dient. Somit hast du auch kein klassisches Dual GPU System, eher eine Art Hybrid Crossfire. Siehe hier: https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-gpu-test/7/
Jedoch funktioniert AFR bei der APU-Lösung etwas anders als im Betrieb mit zwei Grafikkarten. So rendern nun beide GPUs nicht mehr gleichzeitig an jeweils einem Bild und geben diese nacheinander an einen Monitor weiter. Stattdessen rendert die GPU im Prozessor weiterhin an einem Bild, die diskrete Grafikkarte aber gleich an bis zu drei Bildern. So möchte AMD die integrierte GPU entlasten, vor allem wenn diese mit einer deutlich schnelleren Radeon HD 6670 kombiniert ist. Je nach eingesetzter Grafik kann sich das Verhältnis von 1:3 durchaus auf 1:2 ändern.

Ja genau deswegen geht der Test auch mit 1 Karte, mit 2en aber nicht, also für mich bleibt dieser Benchmark total nichts sagend, weil SLI einfacht total schlecht Sklaliert...
Was kann denn der Bench dafür das deinen Karten der benötigte Videoram ausgeht? Spiele verhalten sich da kaum anders, und es kommt zur Ruckelorgie wenn mehr Videoram benötigt wird als zur Verfügung steht.
Kannst ja mal Hisn fragen, der Mann ist da vom Fach. :)
Hier mal ein Beispiel. 2,5gb Videoram sind schon ne Ansage. :)

TESV_2013_02_07_17_30_33_036.jpgTESV_2013_02_07_17_29_14_618.jpgTESV_2013_02_07_17_36_34_036.jpg
 
Zuletzt bearbeitet:
[F]L4SH schrieb:
Obwohl dieser 3D Mark mal wieder genauso für den Popo sind, wie immer.
Diese absurde CPU Lastigkeit ist ein Witz. Nichtmal die Source Engine forderte zum Erscheinen so viel CPU Power, dass so eine Gewichtung hier zu rechtfertigen wäre. Man kann mit einem schnellen Dualcore alles spielen, aber eben nicht mehr perfekt. Auf einem aktuellen Quadcore dann eben alles. Ausnahmen sind vielleicht Skyrim oder Anno mit 30.000 Einwohnern. Aber, dass ein Quadcore gleich mal irgendwie das doppelte an Punkten zum Dalcore bringt, ist einfach in keinem richtigen Verhältnis.
Heutige 3D Anwendungen sind doch so gut wie immer GPU Limitiert - 3D Mark hat dem noch nie Rechnung getragen.


Sinnvoller wäre eh der GPU Score gewesen. Also Sytembench würde ich 3dmark nie verwenden. Da die GPU scores fehlen, lässt sich die eigene GPU nicht mit den scores hier vergleichen.
 
Zurück
Oben