Test Nvidia-Grafikkarten im Test: GeForce GTX 480, 580, 680, 780, 980 und 1080 im Vergleich

Hätten ab der 700er Serie die x80 Ti Karten nicht besser gepasst? Dann hätte man die schnellste Karte der jeweiligen Generation mit dem Big Chip verglichen.
Die x80 non Ti haben nur die Mittelklasse GPU.
Auch die non ti hat den Big-Chip in der 7er Serie - eben nur Teildeaktiviert - genauso wie bei der 1080ti z. B..

Dennoch war die Leistung der GTX780 deutliche höher zu bewerten, da diese riesiges OC ermöglichte.
Einige Custom Karten waren 30% schneller als die Referenz und schlugen die damalige erste Titan Referenz (non OC versteht sich).
Aber wie schon im Bericht erwähnt, erkaufte man sich die Leistung mit hohem Energieverbrauch.
 
Haldi schrieb:
Und was ist mit der Zusammenfassung der alle 4 Tests in einer Tabelle darstellt?

Da die Redaktion das wohl "vergessen" hat,
Vergleich AMD NVIDIA .JPG
hier mal ein Versuch. Ich hoffe, ich habe mich nicht zu oft vertippt bei der Übernahme der Daten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: dister1, Radde, GERmaximus und 17 andere
mein gott, die verbrauchswerte sind ja nun auch wirklich schwer zu messen für jedes scenario und jeden anwendungsfall.

diesmal werden absolute werte verwendet, was ich mehr als mutig empfinde, aber so ist es nun mal, für einen letzten test. in 5jahren interessiert sich keine "sau" mehr für "dx" karten. das ist dann in etwa so wie software ohne t&l oder ohne pixel shader :D

klar ist wow genauso "toll" wie der damalige test in anno. aber für den stino 0815 user ist es voll i.o.
genau dafür sind solche vergleichtest, die doch z.T. sehr plakativ sind, ja auch gedacht. ein bisschen click-bait ist ja wohl auch erlaut und so lange, die geneigte kundschaft es nicht mal bemerkt, ist doch alles toll.

hier kann man schön sehen, was die ach so tollen uralt karten noch leisten (nüscht) und was man damit nach 5-6 jahren machen kann (an die wand nageln als design).

mfg
 
hier kann man schön sehen, was die ach so tollen uralt karten noch leisten (nüscht) und was man damit nach 5-6 jahren machen kann (an die wand nageln als design).
...habe mit meiner GTX780 nach wie vor keine Probleme. Nicht jeder spielt shooter und muss >100 fps haben.
Das einzige was beißt ist der Verbrauch unter Last.
 
UHD haette ich auch weggelassen. Daran war bei den Karten damals gar nicht daran zu denkencund wird jetzt gerade mal etwas beliebter. Ich haette da auch lieber die 2560x1440 genommen.
 
  • Gefällt mir
Reaktionen: fox40phil
Wolfgang schrieb:
Der Testaufwand war so schon sehr groß. 2.560x1440 fehlt einfach nur, um diesen zu reduzieren.

Das es aber vielleicht einige gibt, welche diese Auflösung nutzen und die Werte gerne sehen würden ?!?!?!
 
Khalinor schrieb:
Und was du bei deiner Rechnung vergisst ist, dass auf der 480 der Bigchip verbaut war und auf der 2080 eigentlich nur der Mittelklassechip zum Einsatz kommt.

Eigentlich müsste der Vergleich GTX 480 vs RTX 2080ti lauten (Bigchip vs Bigchip).
eigentlich eher mit einer Titan. Die Ti ist der kastrierte Big Chip und war bei der 400er Serie die 470...
 
  • Gefällt mir
Reaktionen: Averomoe
Die ältesten Grafikkarten stammen aus dem Jahre 2009, die neuesten dagegen von 2017. Damit zeigen die Benchmarks, was sich in neun Jahren Entwicklungszeit getan hat.

Wie jetzt 2009 ist schon 9 Jahre her?! :freak:
 
Flossenheimer schrieb:
Das es aber vielleicht einige gibt, welche diese Auflösung nutzen und die Werte gerne sehen würden ?!?!?!
?!?!?!?!? Da das mehr Satzzeichen sind, hab ich dich argumentativ geschlagen. Ansonsten steht der Grund ja im von dir zitiertem Beitrag des Artikelverfassers. Der muss dir ja nicht gefallen (also der Grund, wobei auch der Artikel oder der Verfasser auch nicht :-)), aber einen Anspruch auf Wunscherfüllung hab ich hier in den Forenregel des kostenlosen Forums nicht lesen können.

Edit: der Teil mit den Satzzeichen gilt auch für @nebulus, der aber wenigstens noch freundlich fragt.
 
  • Gefällt mir
Reaktionen: derSafran
interessant zu sehen wo meine 8 jahre alte 580 so steht und wo ich mit ner 1080 so wäre :D
 
  • Gefällt mir
Reaktionen: alkaAdeluxx und karl_laschnikow
1080p und 4k ???? Fast alle die ich kenne nutzen WQHD!!!
Könnte man das auch noch testen?
 
  • Gefällt mir
Reaktionen: GERmaximus und T. Smith
Kann man den Parcours auch mit der 580 3GB Version machen? Mich würde mal interessieren wie die sich so schlagen im Vergleich, ohne den zu geringen Speicher.
 
  • Gefällt mir
Reaktionen: Vitec und alkaAdeluxx
Wolfgang schrieb:

Also ich persönlich finde den Stromvergleich vollkommen unsinnig. Es hilft wenig zu wissen, wie viel Strom eine Krafikkarte bei komplett unterschiedlichen Einstellungen braucht um 60 FPS zu verwenden. Also wenn man die Einstellungen Ändert um die 60FPS zu erreichen, dann kann man das doch nicht mehr vergleichen.

Besser wäre hier sicher eine Einstellung zu wählen, auf der die kleinste Karte 60FPS bei 1080p hinbekommt und dann alle anderen schlicht mit den gleichen Einstellungen auf 60FPS zu limiten. Dann würde man sehen, was die an Strom brauchen würden und hätte gleiche Ausgabequalität. Also auch die gleichen Berechnungen.

Wo es aber vollkommen unsinnig wird ist dann diesen Stromverbrauch mit den Höchstleistungs FPS bei gleichen Einstellungen in Korrelation zu setzen.

Die Höchstleistung wird doch bei ganz anderem Stromverbrauch erreicht und nicht bei dem für 60FPS.

Daher müsste man um hier zu einer Vernünftigen Aussage zu kommen auch hier den bei höchstleistunge gemessenen Stromverbrauch in Relation zu den FPS (oder sonst einer Leistung) zu setzen.

Dann würde eben rausbekommen, daß die GTX1080 in Leistung pro Watt eben nicht mehr diesen hohen Faktor hat.

Diese Aufstellung ist einfach nicht sinnvoll und führt zu keinerlei nachvollziehbaren Ergebnissen.

Was Ihr hier immer bei Euren Tests suggeriert ist, daß es wissenschaftliche Messmethoden sind. Ihr würdet aber bereits beim Versuchsaufbau bei jeder wissenschaftlichen Bewertung durchfallen (siehe oben).

Desweiteren werden keine Angaben darüber gemacht wie die Tests mit welchen Einstellungen durchgeführt werden und wie die Ergebnisse genau ermittelt werden. Das Testsystem mit CPU/RAM etc. pp. wird toll beschrieben, aber der ganze Rest überhaupt nicht. Wenn ihr einen Test mit WOW macht, dann würde mich mal interessieren, wie ihr den Test genau macht (läuft da einer mit nem Spieler rum und Ihr guckt gleichzeitig dir Framerate an oder ist das ein automatischer Test?). Jeder Test von Menschen durchgeführt fehlt zu einem Fehler. Diesen Fehler muß man versuchen 1. zu Beschreiben, 2. zu Bewerten und 3. durch geeignete Methoden zu egalisieren oder falls das nicht möglich ist zu minimieren (z.B. Mittelwertmethode).

Nicht von alledem ist beschrieben - daher sind die Ergebnisse nicht nachvollziehbar (jemand kann sie selber nachstellen). Das trift insbesondere zu, als das weder die Einstellungen noch die genaue Durchführung des Test mit Spiel X beschrieben ist.

Da nun leider auch Teile der Methodik nicht wirklich sinnvoll Erscheinen ist der Wert des Tests leider nicht so gut, wie er sein könnte.

Gut die Leistung kann man ganz gut beurteilen, das mit dem Power und Power/Watt ignorieren wir mal einfach.
 
  • Gefällt mir
Reaktionen: McLovin14
Da tut sich ja doch immer einiges an Leistungssteigerung.
Fühlt sich einfach nicht so viel an wenn man immer nur eine Generation mit der nächsten vergleicht.
 
@ SavageSkull
eigentlich eher mit einer Titan.
nope, bei der Ur-Titan war auch die Titan "kastriert" und der Vollausbau kam erst mit der GTX780ti.
Aber alle drei /GTX780 -> Titan -> GTX780ti waren basierend auf dem Big-Chip!
 
SavageSkull schrieb:
eigentlich eher mit einer Titan. Die Ti ist der kastrierte Big Chip und war bei der 400er Serie die 470...

das ist so nicht richtig....die titan (abgesehen von der volta titan) gab es auch nur als vollausbau vom gp102. das was du meinst, waren profi karten meist ohne vga ausgang oder die "billigen" quadros gp100 mit hbm.

ja, hbm ist bei nvidia auch schon älter, sie haben es nur nicht an "normalos" verkauft.

https://www.pny.com/nvidia-quadro-gp100

trotzdem waren beim gp100 auch "nur" 3584 shader aktiv. darum ging es dir ja wahrscheinlich. und hier muss man einfach mal sagen, selbst 5k shader verbrauchen höchsten 2/3 der fläche vom turing.

p.s.
ich kann mich immer nur wiederholen, der chip ist absoluter hammer. was die software guys daraus machen, muss man sehen. wenn ich nicht so geizig wäre, würde ich mir eine ungeöffnet in den schrank legen, von den gtx2080ti ^^

mfg
 
Zuletzt bearbeitet:
Botcruscher schrieb:
Thermi noch zu takten ist schon Hardcore.

Mit der 470 ging es recht gut. Bios geflasht, Spannungsreglerbegrenzung freigeschaltet und den Takt ausgelotet. War ne EVGA SC, ging von 621MHz auf 900MHz. Mit Arctic Kühler unter 70°C. Das würde ich heute nicht mehr machen, glaube ich. :D

Weiß nicht, was bei der 480 noch so ging.
 
die 470er liefen deutlich besser. meine 480er am anschlag hat bei 750-775mhz zu gemacht. damals konnte man ja aber noch den shader takt unabhängig einstellen. ich hatte z.b. am ende nur 500mhz am chip laufen aber dafür 1500mhz shader. war fast die selbe leistung wie standard takt aber deutlich weniger verbrauch.

mfg
 
Zurück
Oben