Test Nvidia-Grafikkarten im Test: GeForce GTX 480, 580, 680, 780, 980 und 1080 im Vergleich

@ciapal:
Das eine 290x besser gealtert ist als 780Ti stimmt auch nicht.

Wenn beide OC sind und der Vram nicht zur bremse wird ist die karte auch heute noch sehr gut augestellt gegen 290X und verweist sie nicht gerade selten auf platz 2

Genau das ist aber oftmals eben das Problem - selbst 3GB VRAM werden eben heute mehr als oft zur Bremse:

Erkläre mir einfach mal bitte wie es zu den Ergebnissen des aktuellen CB-Benchmark Parcours kommt (im Vergleich zu den Releasetests):

GTX680 vs HD7970 (2GB VRAM vs 3GB VRAM):
Bild1.png


Bild2.png


Aus +9% werden -10% mit z.T. deutlichen einbrüchen in mehr als der Hälfte der getesten Games.

GTX 780 vs HD 7970 (3GB vs 3GB):

Bild3.png


Bild4.png

Aus +29% wurden in nur 5 Jahren nur mehr +19% Vorsprung....beachtlich und das obwohl BEIDE hier 3GB VRAM haben. Die 7970 hat also 10% "Defizit" aufgeholt.

Eine 780 Ti war im aktuellen Testfeld leider nicht mit drin - aber eine 780 können wir als "Referenz" mal nehmen. Eine 780 Ti hat genauso wie die 780 3GB VRAM.
Wenn der VRAM also "limitiert" bricht eine 780 genauso ein wie eine 780 Ti.

Also schauen wir mal:

780 vs R9 290X (3GB vs 4GB):

Bild5.png


1536513942870.png


Die R9 290X ist Stand HEUTE also im SCHNITT 21% schneller - Zum Release waren es gerade mal 6% !
EDIT: Wir sehen in 1 Game stand heute geht eine 3GB Karte von damals einfach nur unter. In weiteren 3 sind die 3GB ebenfalls schon deutlich zu knapp und die Karte ist ~30% Langsamer als die 4GB 290X (die zu release ca gleichschnell war wie die 780). nur in 3 der Spiele ist die Performance noch in etwa so wie damals /EDIT.

Bitte sehr erklär mir mal die Ergebnisse der aktuellen Generationenvergleichstest.

Die AMD-Karten, insbesondere die mit "mehr VRAM" als ihre jeweiligen Gegenparts altern eben DEUTLICH langsamer. Grund ist "mehr VRAM". Denn heute brauchts oft schon mehr als 4GB dass es gut läuft und die Rohleistung ist eben oftmals für FullHD selbst mit den 5 Jahre Alten Karten "ausreichend" wenn der VRAM eben nicht ausgeht!
 
  • Gefällt mir
Reaktionen: coral81
@highwind01
Dann schauen wir uns die Preisentwicklung mal in Dollar an.

Die 480 hat damals 499$ gekostet. Das entspricht 2018 576$. Tatsächlich ist der Preis der 2080 um 60% auf 799$ gestiegen.

Natürlich entwickeln sich die Herstellungskosten nicht nach der Inflationsrate. Manches wird teurer, anderes günstiger. Eine solche Preissteigerung lässt sich aber in keinster Weise mit gestiegenen Herstellungskosten rechtfertigen. Hier gehts es einfach um eine höhere Gewinnmarge bzw. Angebot und Nachfrage.
 
Die Preise der Komponenten haben aber einen entscheidenen Einfluss auf den Preis des Produkts. ;)
Wir reden schließlich nicht von der Preisentwicklung des gleichen Produkts.

Ich kann es nicht oft genug sagen, sowohl vom Preis als auch von der Chip Größe her reden wir bei der RTX2080 eher über einen Nachfolger für die GTX1080Ti und dann auch über eine Verringerung des Grafikspeichers um 3 GB die ihr in ein paar Jahren mit Sicherheit auf die Füsse fallen werden.
 
Ich frage mich, wie ihr bei Dota in FHD so hart im CPU-Limit hängen könnt, ist das dem DirectX geschuldet?

Mein 1700x @3,9 GHz sollte eine bedeutend geringere IPC Leistung als euer Intel haben und ich bin mit einer GTX 1060 hohe Qualität, Effekte größtenteils aus mit Vulkan auf 180 - 220 FPS, mit maximalen Grafikeinstellungen immernoch bei 120 -150.
 
Wadenbeisser schrieb:
Das definierst du als Grundaufbau?

Ich hatte doch dazu eine News verlinkt, die du einfach hättest nur lesen sollen. ^^

Leonidas;11365557 schrieb:
Denn durch die (durch AMD höchstselbst) vorgenommenen Einträge kann man nunmehr sicher sagen, das der Vega-10-Chip mit 4 Raster-Engines (und dort jeweils einer Geometrie-Engine), 16 Shader-Clustern pro Raster-Engine und 4 ROPs pro Raster-Engine antreten wird (ergibt dann 64 ROPs für den gesamten Grafikchip). Vega 10 sieht somit (auch) in diesen Punkten exakt so wie Fiji aus – so daß das teilweise eingesetzte geflügelte Wort von "Fiji done right" hier tatsächlich sogar auf alle hauptsächlichen Hardware-Details zutrifft.
https://www.3dcenter.org/news/weite...hezu-vollstaendige-bestaetigte-hardware-daten

Und wenn du mit Polaris 10 vergleichen willst, hier noch die Launch Analyse dazu:
https://www.3dcenter.org/artikel/la...-480/launch-analyse-amd-radeon-rx-480-seite-2
 
@matty2580
Nur hat das wenig mit dem Grundaufbau zu tuen, das ist so als würde man sagen das ein Trabbi und Formel 1 Renner den gleichen Grundaufbau haben weil beide 4 Räder und einen Motor haben.
Der Grundaufbau ist in meinen Augen eher der Aufbau der zu grunde liegende Struktur und nicht gerade die Anzahl an (wie auch immer aufgebauten) Einheite die daran angeschlossen sind.
 
Ich streite mich jetzt nicht um Definitionen, und der Kontext war auch klar da ich mich auf die News vom 3dcenter bezog. Beides ist wichtig, die Änderungen in der Architektur selbst, und der Aufbau der einzelnen Chips. Und da ist Tonga, Fiji, und Vega 10, recht ähnlich.
 
Wadenbeisser schrieb:
... Nummer war "etwas" komplizierter, siehe die damaligen Tests. ;) ... Referenz Modelle der HD7950 und der GTX670 fraßen ähnlich viel Strom (OC Varianten natürlich mehr) aber die GTX670 wurde von der Leistung und vom Preis her der HD7970 zugeordnet, die HD7970 war ca. 17% schneller als die HD7950 und die GTX680 war bei dem damaligen Test im Schnitt ca. 10% schneller als die HD7970.
https://www.computerbase.de/2012-05/test-nvidia-geforce-gtx-670/4/
Bei den 3 besagten Spielen aus dem Test hier ist die HD7970 allerdings ca. 30% schneller als die GTX680 und hätte damit im Vergleich zu damals beim cherry picking gute 40% zugelegt. Will man jetzt vom gleichen Preis ausgehen (HD7970 vs. GTX670) dann wären wir bei einem rechnerischen Leistungsunterschied von ca. 50%

Gut, ich habe damals nicht zu einem Referenzmodell der GTX 670 gegriffen sondern zur Custom/OC Version, die leistungstechnisch (ohne weiteres OC) nur knapp unter der GTX 680 Referenz lag (mit zusaetzlichen OC sogar darueber).

So etwas findet sich bei nVidia heutzutage natuerlich leider nicht mehr und war wohl - neben dem Preis - fuer mich ausschlaggebend.

Die faelschliche Zuordnung einer unteren Oberklasse-Karte mit beschnittenem Chip zur Oberklassekarte mit Chip-Vollausbau passte nicht nur rein chiptechnisch nicht, sondern vor allen Dingen rein preislich nicht, denn auch da lagen beide Modelle (GTX 670 und HD 7970) in anderen Preisklassen.

Mein damaliger Mitbewohner hatte sich eine HD 7970 angeschafft (zeitweise sogar 2 gehabt fuer CrossFire), aber die war mir damals beim Bau des neuen System einfach zu teuer (nicht lohnenswert genug bei (knapp) 200 Dollar Preisunterschied (zumal bei mir bisher immer der Monitor die teuerste/wichtigste System-Komponente war und nicht die GPU).

Die etwas teurere HD 7950 war eine Ueberlegung wert gewesen, zumal ich eigentlich den Hersteller wechseln wollte, aber der verbaute Speicher war zum Kaufzeitpunkt auch noch nicht so relevant (obwohl es wenig lohnende 4 GB Modelle der GTX 670 gab, die absurder Weise in der Preisklasse der HD 7970 lagen, weil sich nVidia mehr Speicher damals preislich vergolden liess).

Im Endeffekt haette ich an dem Tag als ich die PC-Komponenten geordert habe auch zu einer HD 7950 greifen koennen, nur war diese nicht im Angebot, aber die WindForce OC von GigaByte (bei der die Tests auch sehr positiv ausfielen) schon, so dass mir die Entscheidung relativ leicht fiel (da es damals keinen ersichtlichen Grund gab 70-80 Dollar mehr fuer eine HD 7950 zu zahlen).

Allerdings liegt wohl auch mittlerweile eine HD 7950 (der richtige/eigentliche Klassen-Konkurrent der GTX 670) leicht vor einer GTX 670 und somit sind die Tahitis etwas besser gealtert als die Keplers, keine Frage.

Eine Fermi/Thermi waere fuer mich wohl auch nie in Frage gekommen, da war Kepler schon ein richtig massiver Sprung und der Vorbote/Pionier der heutigen nVidia Modelle/Architektur.
 
Zuletzt bearbeitet:
@Chismon
Was heißt hier damals ließ sich nvidia mehr Speicher Vergolden? ;)
Das ist doch heute nochmal deutlich schlimmer, siehe Ti vs. Titan Modelle die sich innerhalb der Generation nur minimal unterscheiden, der Preis sich aber fast verdoppelt. Das läßt sich doch schon seit Jahren fast nur noch auf ca. 1 GB bzw. ca. 8% mehr Grafikspeicher reduzieren.

Zudem sollte man die Radeon Modelle nicht mit den deutlich höher gertakteten Refresh Modellen (Radeon HD 7950 Boost Edition, Radeon HD 7970 GHz Edition) verwechseln. Die waren etwas schneller, fraßen aber auch ein gutes Stück mehr Strom.

Unterm Strich sieht es doch so aus, wer alle Nase nach die Grafikkarte wechselt mag mit der Geforce glücklich sein aber wer seine Hardware über Jahre nutzen will muss entweder seeehr tief in die Tasche greifen oder darf damit leben das sie deutlich zurück fallen. Die werden eben nicht für eine lange Nutzungszeit entwickelt sondern dafür sie möglichst bald gegen den Nachfolger zu ersetzen.
 
Holzinternet schrieb:
Warten wir mal das kommende Jahr ab was es uns bringt. Bin auf AMD Navi gespannt und natürlich auf das Raytracing Wunder^^
Seit der povray-Teekanne 1988 wartet man sehnsüchtig auf Raytracingspiele. Dann gab es mal einen Hoffnungschimmer https://www.computerbase.de/2011-02/bericht-ray-tracing-4.0/ , realisiert mit Intels Knight Ferry-Karten. Leider war dann nie wieder etwas davon zu hören. Eine API oder ein Standard woure vermutlich auch nicht geschaffen.

Jetzt hat Nvidia das gemacht. Da darf man eigentlich nicht meckern, daß der erste Wurf eben kein Full-Raytracing ist, sondern eben nur Hybrid mit obendrein an ganz wenigen Stellen eingesetzten RT. Ich wünsche der Technik Erfolg und hoffe, daß auch andere Hersteller (AMD,intel) sich da dranhängen. Ehrlich gesagt ist das aber auch der Grund, weshalb ich wohl auf die nächste Generation warten werde (in 3 Jahren?).
Ergänzung ()

supermanlovers schrieb:
Wir hatten einige Jahre sehr niedrigen Werten:
2014: 0,9%
2015: 0.3%
2016: 0,5%

Werte über 2% sind in den letzten 20 Jahren sehr selten.
Diese Warenkorb-Werte sind Unsinn. Da sind überproportional viele Elektro-Geräte versteckt, die obendrein den gleichen technischen Stand enthalten.
Die Inflation als Teuerungsrate stellt sich ohnehin für jeden anders dar. Wer viel fährt, konnte von den recht stabilen Ölpreisen profitieren. Auch Lebensmittel sind wohl billig geblieben.

Mieten, Betriebskosten und Strom sind dafür gestiegen, ebenso der öffentliche Nahverkehr. Kfz-Steuer und Krankenversicherung, also alles was in einem normalen Angestelltenhaushalt unvermeidlich ins Gewicht fällt..
 
Zuletzt bearbeitet:
Cool Master schrieb:
Klar bei TVs geht das nicht. 1440p gibt es nur bei Gaming Monitoren? Schau dir mal den hier an:

https://www.computerbase.de/preisve...ce-272-60003545-a1027418.html?hloc=at&hloc=de

Aber klar eigentlich gibt es 1440p nur bei Gaming Bildschirmen.... Ich nehme lieber ein sehr gutes 1440p Panel als ein Schrot 4K/UHD Panel...
Ja ne, is klar, 1400€ für ein 27" Panel. Und ich dachte immer, das nur Leute die ein Handy
für über 1000€ kaufen, zu viel Geld übrig haben. :) Aber jedem das Seine, mir das Meine.
 
@borizb

Tja das ist eben ein Arbeitstier, kannst dir ja mal den Farbraum und die Bit-Tiefe anschauen. Ich wollte eher auf deine Aussage gehen das 1440p nur für "Gaming" ist, was natürlich völliger Unsinn ist. 1440p ist optimal in der Arbeitswelt weil man zwei Dokumente mit 1280px Nebeneinander haben kann.
 
  • Gefällt mir
Reaktionen: aldaric
Cool Master schrieb:
@borizb

Tja das ist eben ein Arbeitstier, kannst dir ja mal den Farbraum und die Bit-Tiefe anschauen. Ich wollte eher auf deine Aussage gehen das 1440p nur für "Gaming" ist, was natürlich völliger Unsinn ist. 1440p ist optimal in der Arbeitswelt weil man zwei Dokumente mit 1280px Nebeneinander haben kann.
Also solange du keine belastbaren Zahlen vorlegst, bleibe ich bei meiner Aussage.
 
Wow als Indikator für Stromverbrauch......
 
sven.ghostrider schrieb:
Die 1080 hat 268% Effizienz zur 680 aber braucht 8 Watt mehr in wow bei 60 fps
Mir erschließt sich der Test mit wow irgendwie immer noch nicht..

Ja irgendwas stimmt da gewaltig nicht, bei der unterirdischst schlechten Grafik in WoW a la 1990 müsste selbst die GTX 480 mind. 500 fps machen.
 
NV hat karten ala GTX780 oder GTX680 mit zu wenig VRAM ausgestattet, stimmt. AMD hat allerdings den selben fehler mit den Fury´s begangen !
Die karten sind extrem schlecht gealtert. Der direkte konkurrent (980Ti) zieht heute kreise um die karte:

https://www.reddit.com/r/Amd/comments/7ckjj5/furyx_aging_tremendously_bad_in_2017/

Jeder der sich für eine Fury bzw. Furyx entschied muss deutlich früher aufrüsten ! GTX980Ti spielt heute noch in der ersten liga mit.

Ich weiß nicht ob es am tollen AMD treiber liegt oder am Vram aber die karten sind heute für fast nichts mehr zu gebrauchen :

https://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,6.html
https://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,7.html
https://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,8.html

Permanente ruckler versauen das Spielgefühl komplett ! Die fury´s sind gerade mal drei jahre alt !
:freak:
 
Zuletzt bearbeitet:
M.B.H. schrieb:
Ja irgendwas stimmt da gewaltig nicht, bei der unterirdischst schlechten Grafik in WoW a la 1990 müsste selbst die GTX 480 mind. 500 fps machen.
Wenn man Dinge wie DSR und SSAA nur weit genug treibt, bekommt man auch WoW auf niedrige FPS. Nur kennen wir die Einstellungen leider nicht.
Sonst passt das. Die 1080 ist lauf Benchmark auf Seite 2 fast drei mal so schnell. Bei gleichem Verbrauch bei 60 FPS macht das die die GTX 1080 fast drei mal zu effizient.
 
So Sinnlos die GK im GPU RAM Limit zu testen, macht eine sage gegen Null.

1080p Medium und schon kann man besser vergleichen,
aber gut so kann man auch Werbung für neue GKs machen:

"Sieh her die ist 100x schneller, CB hats ja getestet"
>bringt dem einen oder anderen viel der LOL auf 1080p High oder CSGO auf Low spielt<

(Um mal 2 Extreme zu nennen die sehr häufig vorkommen )


Aber bei DOTA stimmt was nicht, ich spiele in Medium mit avg 75 FPS mit Sync auf einem Athlon 7750 und ein i7 müsste pro Kern mindestens 3x so schnell sein
 
Zuletzt bearbeitet:
ciapal schrieb:
NV hat karten ala GTX780 oder GTX680 mit zu wenig VRAM ausgestattet, stimmt. AMD hat allerdings den selben fehler mit den Fury´s begangen !
Die karten sind extrem schlecht gealtert. Der direkte konkurrent (980Ti) zieht heute kreise um die karte:

Auch hier muss ich glaube ich deine Aussage als stark biased/cherrypicked entlarven. Es mag sein dass es "buggy" Games gibt. Oder dass es Settings gibt die Fury zum Einbrechen bringen. Fakt ist natürlich dass Fury X 4GB VRAM hat und 980 Ti 6GB VRAM, was selbstredend ein Vorteil ist und bleibt.

Aber sehen wir uns doch hier den Generationenvergleich von CB genauer an:
Eine 980 Ti fehlt leider im Test, aber wir können als "Basis" ja die 980 bzw die GTX 1060 nehmen. Die 1060 ist ziemlich gleichauf mit einer GTX 980 und hat ebenfalls 6GB hat wohingegen die GTX 980 nur 4GB hat wie Fury.

Bild1.png


Bild2.png

Nur in Fortnite hat Fury X stand Heute in FullHD weniger Performance als selbst die 6GB GTX 1060. Im aktuellen Parcour reichen also 4GB VRAM aus.

Sicherlich wird der VRAM Bedarf in Zukunft noch steigen und dann wird man sehen wie die 980 Ti der Fury X wieder davonzieht, aber bis jetzt ist es sogar noch so dass Fury X performance rausgeholt hat. Und das nicht zu knapp.

Übrigens am Abstand von Fury X und GTX 980 hat sich im Laufe der Jahre nur wenig verändert:

Bild3.png

Bild4.png


Aus -11% GTX 980 zu Fury X wurden -13% - das ist faktisch "gleiche" Leistung.

Kleine Anmerkung zu deinen unspielbarkeits Rucklern: Hier im CB-Test sind diese nirgendwo in den Frametimes zu sehen.

Deine verlinkte FCAT Analyse von 2017 zeigt vielleicht auch nur ein bestimmtes Treiberproblem in den getesteten Games damals. In den CB-Tests von heute liest man kaum noch/nicht über derartige Probleme.

Wenn ich mich recht erinnere gab es damals als DX12 neu war jedoch eine zeitlang genau solche Probleme - vor allem wenn eine Intel CPU im Rechner mit einer AMD GPU gepaart wurde.


Aber du darfst mir gern erklären wieso CB hier derart unerwartete Ergebnisse erhält.

Fakt ist Stand Ende 2018 reichen für FullHD 4GB VRAM aus, klar die 6GB der 980 Ti sind ein Pluspunkt und die 4GB der Fury X wurden zu recht kritisiert und sind sicherlich auch Langfristig ein Nachteil.
 
Zurück
Oben