Test Nvidia-Generationenvergleich: GeForce RTX 2070, 3070, 4070 und 5070 im Duell

pioneer3001 schrieb:
Und vorher konnte nur die Hälfte der Kerne INT32.
Das Thema ist an der Stelle komplizierter und kann so auch nicht wirklich akkurat aufgearbeitet werden. Blackwell ist hier an der Stelle eine "Rückbesinnung" auf Maxwell / Pascal.

Wenn ich meine eigene Cuda-Erfahrung mitnehme, dann kann man Ampere und Ada Lovelace durchaus dazu überreden beide "Pfade" je 16 Kernen Int-Werte zu berechnen, jetzt mit Blackwell ist es wieder wie mit Pascal.

pioneer3001 schrieb:
Es sind keine 22 TFLOPS, sondern 29.
Richtig, ist korrigiert.
Eusterw schrieb:
Blackwell = 30,8 TFLOPS (Rechenweg unbekannt)
Alle Werte werden mit der norm allen Formel: Shader * Takt * 2 berechnet, ich hab nur bei der RTX 4070 den falschen Takt genommen, weil ich verrutscht bin.
 
  • Gefällt mir
Reaktionen: vankraken, NMA, SweetOhm und eine weitere Person
0xffffffff schrieb:
Eine Spannende Info die m.E. dem Artikel fehlt:

GPUPreis
(UVP, Marktstart, günstigste?)
Release
2070~519 €Q4 2018
3070~499 €Q4 2020
4070~659 €Q2 2023
5070~649 €Q1 2025

Wobei die UVP und der Marktpreis (dank Krypto, AI und Greed) natürlich weit auseinandergingen.
Und wenn du mal in Schnitt 3% Inflation dazu rechnen würdest, dann merkt man, dass sich kaum etwas am Preis getan hat.
 
  • Gefällt mir
Reaktionen: Zuchtmaista und Fluxxluxx
Als jemand der alle 2 Jahre seine alte xx70 Karte verkauft und sich das neue Modell zulegt, war die 5070 auf der einen Seite eine Enttäuschung, auf der anderen Seite hat Asus die Prime 5070 mit Doom: TDA für gerade mal 500€ rausgehauen, sodass ich nach Verkauf der 4070 Netto-Investitionskosten von 100€ hatte (weniger wenn man dem Spielcode einen Geldwert zurechnet).

Da hat man den kleinen Zuwachs in Sachen Performance verschmerzen können. Die VRAM Stagnation ist da eher zu bemängeln.

Die Kritik daran, dass man mittlerweile weniger Chip für sein Geld bekommt kann ich zwar nachvollziehen, am Ende des Tages finde ich trotzdem, dass der Zuwachs in Sachen Grafikpracht durch nvidia's KI Features größer ist als es die groben Zahlen der Logik-Zuwächse in einer Tabelle anzeigen.

Wenn ich durchschnittliche Upgradekosten von 150€ pro xx70 Generation anlege (das 4070 Upgrade war netto doppelt so teuer als das letzte), dann ist das für mich quasi wie ein "Abo" in Höhe von 6,25€ im Monat.

Bedenkt man dass Computerspiele eines meiner Hobbies ist, hält sich das eigentlich bei den Kosten in Grenzen.
 
  • Gefällt mir
Reaktionen: w33werner und DoNG
EadZ schrieb:
Die 5000er wird eventuell erst mit den Super Modellen insgesamt besser als die 4000er.
Die sind nicht schneller, sondern bekommen nur mehr VRAM. Ich sehe von 16GB auf 18GB keinen wirklichen Vorteil.
Ergänzung ()

Loopman schrieb:
Das ist natürlich totaler Unsinn. Der Mehrwert ist enorm.
Solange die Grund-FPS stimmen zumindest. Ich will es nicht mehr missen.
Dann viel spaß damit. Ich bleibe bei Nativ.
 
  • Gefällt mir
Reaktionen: SweetOhm
Nighteye schrieb:
Wenn man bedenkt dass Ada und Blackwell gleich schnell sind, (Blackwell ist Ada mit OC was man auch selber machen kann)
Quatsch hoch 10.

Blackwell ist viel schneller. Und das Übertaktungspotential ist noch mal um Welten höher.

Meine 5080 kann ich fast auf 4090 Niveau prügeln, ohne dass das Ding merklich heiß wird.
 
  • Gefällt mir
Reaktionen: MalWiederIch und Quidproquo77
@Nighteye danke für deine Ausführliche Erklärung für die Vernünftigen unter uns.
Da kann ich nicht mithalten. Wechsle so alle 3 Jahre, nicht weil ich muss, sondern weil sich irgendwelche Synapsen in meinem Gehirn durchsetzten. Die Sorgen auch dafür, dass mein Verstand davon überzeugt ist, der Wechsel hat sich ausgezahlt...
 
  • Gefällt mir
Reaktionen: w33werner, GrooderWanderer und Nighteye
Raptorlake schrieb:
Dann viel spaß damit. Ich bleiben bei Nativ.
Tja, einige Ewiggestrigen wird es immer geben.
War früher schon so, wird auch in Zukunft so sein.

Alle anderen erfreuen sich an den neuen Features 👍
 
  • Gefällt mir
Reaktionen: MalWiederIch
Da muss sich jemand seine 5080 schönreden mit OC 🤣
 
  • Gefällt mir
Reaktionen: Venora Valyria, Litenz, Casillas und 4 andere
Loopman schrieb:
Und wenn du mal in Schnitt 3% Inflation dazu rechnen würdest, dann merkt man, dass sich kaum etwas am Preis getan hat.
Mag sein, ich habe mir gerade noch die Mühe gemacht und den relativen Zeitwert (so würde ich es nennen) berechnet und hinzugefügt. Also wie viel FPS man pro € für die Benchmark-Spiele der damaligen Zeit bekommen hat. Ist recht durchwachsen.
 
  • Gefällt mir
Reaktionen: ro///M3o
Danke für den Vergleich @DevPandi . In der Mittelklasse ist das Bild eindeutig differenzierter als an der Spitze, das kann man wohl so festhalten.
Nighteye schrieb:
RDNA 2 (2020) wird eine heftig gute Langlebigkeit haben, weil RDNA 3 bei den Modellen unter 24GB Vram kaum besser war, und RDNA 2 hatte schon so viel Vram wie RDNA 4

Sehe ich auch so. Was man nicht vergessen sollte: AMD hat es geschafft, im GPU-Segment seine Rolle als "Underdog" gut auszuspielen, nachdem sie mit RDNA 3 kaum zulegen konnten. RDNA 4 sowohl leistungs- als auch namenstechnisch an Nvidia anzupassen, war Gold wert, denn der Sprung zur Vorgängergeneration war anders als bei NV riesig. Hätte AMD die Leistungskrone, würden wir allerdings im Vergleich von 5700 XT - 6700 XT - 7700 XT - 9070 wahrscheinlich die gleiche Debatte wie im grünen Lager führen. Ich kann - gerade im Vergleich zur neuen Einstiegskarte 9060 XT - kein Argument finden, meine RDNA2-Karte auszuwechseln. FSR 4 allein reicht mir da nicht.
 
  • Gefällt mir
Reaktionen: ro///M3o, SweetOhm und Nighteye
Nighteye schrieb:
Bestätigt nochmals, RTX 5000 Käufer sind zu bedauern.
Bestenfalls die Minderheit der Käufer, die direkt von der Vorgängergeneration kommen; für alle anderen ist der Satz natürlich Blödsinn.
 
  • Gefällt mir
Reaktionen: DaHell63, KuroSamurai117, Col.Maybourne und eine weitere Person
Nvidia hat in den letzten Jahren massiv in Architekturen investiert, die nicht nur für Gaming, sondern auch für KI Workloads optimiert sind. Tensor Cores, ursprünglich für Deep learning Berechnungen in Profikarten entwickelt, wandern inzwischen konsequent auch in Consumer GPUs. Dadurch profitieren zwar Spieler von Features wie DLSS, aber unter der Haube steckt im Prinzip dieselbe Rechentechnik, die auch für neuronale Netze eingesetzt wird.

Der KI Hype wirkt hier wie ein Katalysator. Die Nachfrage nach schneller Parallelverarbeitung im Rechenzentrum treibt Forschung und Entwicklung an. Für den Endkunden bedeutet das dann mehr Leistung pro Watt, neue KI‑Features im Spiele‑ und Creator‑Bereich, und leider oft auch steigende Preise, weil der gleiche Chip im Rechenzentrum ein Vielfaches einbringen kann.
 
  • Gefällt mir
Reaktionen: floTTes
Ich bin auch sehr gespannt, wie sich das weiterentwickelt.
Für den Mainstream ist die Hardware einfach zu teuer. Masse bringt den Gewinn.
Ich frage mich wie lange es wohl noch AA und AAA mit derart hohen Hardwareanforderungen
geben wird, wenn der Gewinn nicht stimmt.
Da immer mehr Konzerne Gaming im Focus haben, wird wohl in dieser Hinsicht auch eine Einflussnahme
stattfinden. Ich finde, dass man bei Sony diese Richtung ganz gut erkennen kann.

Ich persönlich halte RT für überbewertet und PT eine Eigenentwicklung von NV für die Geld spielt keine Rolle Fraktion.
 
  • Gefällt mir
Reaktionen: Venora Valyria und SweetOhm
Chip-Fläche verkleinert, Verbrauch gestiegen, Marge erhöht.
 
  • Gefällt mir
Reaktionen: Venora Valyria, ro///M3o und SweetOhm
die Vergleiche zeigen sehr schön das NVidia keine ernste Konkurenz hat. Die Leistungszunahmen haben einen bestimmten Wert pro Generation, "künstlich" limitiert, Gewinn-maximiert und nicht Leistungsmaximiert (bei harter Konkurenz).

Ich hoffe sehr das AMD sich verbessert und am besten Intel auch zumindest in die Mittelklasse vorstoßen kann.
 
  • Gefällt mir
Reaktionen: SweetOhm
joel schrieb:
Ich frage mich wie lange es wohl noch AA und AAA mit derart hohen Hardwareanforderungen
geben wird, wenn der Gewinn nicht stimmt.

Warum "derart hohe Anforderungen"? Jedes aktuelle Spiel läuft auf den Konsolen. Und die sind relativ günstig.
 
Vielen vielen Dank @DevPandi als RTX 2070 Besitzer genau das richtige :)

Dem Widerstand des Aufrüstdrangs war es aber nicht zuträglich, es ist doch ein ordentlicher Sprung mittlerweile.

Interessant sind deine Verbrauchswerte, meine Palit Gamerock gönnt sich meistens zwischen 180W und 190W.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
Wie schon erwähnt: da wird meine 4070ti super sehr lange noch reichen😂😂
 
  • Gefällt mir
Reaktionen: GrooderWanderer
Zurück
Oben