Test Nvidia GeForce RTX 5070 im Test: Stillstand mit MFG bei bestenfalls 649 Euro

MaverickM schrieb:
Upscaler und andere Software-Tricks haben in einem Test, der die Rohleistung von Karten miteinander vergleichen soll, absolut nichts zu suchen.
Aber wer sagt denn, dass man nur Rohleistung vergleichen darf? Wenn es mit DLSS4 und MFG doppelt so viele FPS macht, macht es doppelt so viele FPS. Ob man das nun mag oder nicht: Es gibt bereits Spiele, die lassen sich ohne gar nicht mehr flüssig spielen.
Ergänzung ()

AnkH schrieb:
Da aber jegliche Bilder mit modernen Engines über iwelche Tricks auf den Bildschirm gelangen und "nativ" eigentlich nur noch reaktionäres Träumen Ewiggestriger ist, geht mir die Leier mittlerweile auch auf den Wecker. Selbst simples 2xMSAA ist ein "Software-Trick", da von "Rohleistung" zu fabulieren, hat schon was.
Endlich sagt es mal einer! Danke! In zukünftigen Tests wird Rohleistung alleine kaum noch eine Rolle spielen. Dafür kommen neue Testkriterien dazu. Z. B. wird die Abbildungsqualität von FSR, DLSS und XeSS eine Rolle spielen.
 
Zuletzt bearbeitet:
AnkH schrieb:
Wenn man konsequent wäre, ist selbst RT ein "Software-Trick" um die Grafik aufzuhübschen.

Nein, ist es nicht. Raytracing ist auf allen Karten mittlerweile eine in Hardware gegossene Funktion. Aber selbst wenn sie das nicht wäre: Es sind Funktionen, die berechnet werden und zu 100% immer das gleiche Ergebnis erzeugen.

Dagegen ist ein Upscaler eine Funktion, der das Bild nur interpretiert, vor allem jetzt, wo beide (FSR4 und DLSS) auf ML trainierten Algorithmen basieren. Das Ergebnis ist eben nicht eins zu eins das gleiche. Somit nicht vergleichbar.

AnkH schrieb:
Vergleicht man also mit RT an, ist nach Deiner Logik unzulässig, da ja nicht "native Rohleistung". Warum aber nun also ein "Software-Trick", der zu weniger FPS führt als Massstab zulässig sein soll, ein "Software-Trick", der zu mehr FPS führt für einen Vergleich nicht statthaft sein soll, erschliesst sich mir nicht.

Das ist Quatsch mit Soße. Da muss man auch gar nicht großartig weiter drüber diskutieren...

AnkH schrieb:
Glaub mir, in 10 Jahren kräht kein Hahn mehr nach frame generated FPS

Vielleicht sollte man nicht auf jedes Marketing-Gewäsch der Lederjacke drauf reinfallen.

Ohne die Rohleistung als Basis funktionieren weder Upscaler noch Frame Generation ordentlich. Zumindest nicht solange wir noch weiterhin Raster-Berechnung als Basis verwenden. Ändern könnte sich das allenfalls durch Engines, die rein auf Vektor-Berechnungen setzen.

blauescabrio schrieb:
Aber wer sagt denn, dass man nur Rohleistung vergleichen darf?

Weil die Vergleichbarkeit nicht mehr gegeben ist. Sollte eigentlich logisch sein. :rolleyes:
 
  • Gefällt mir
Reaktionen: SweetOhm, sikarr und Leeway
Immer wieder Enttäuschungen bei den Neuvorstellungen. Wenig Leistungszuwachs - Verfügbarkeit schwach. Nun gibt es zum Glück noch AMD. Was macht eigentlich Intel? Existieren die noch?
 
MaverickM schrieb:
Weil die Vergleichbarkeit nicht mehr gegeben ist. Sollte eigentlich logisch sein. :rolleyes:
Nur, wenn man eine sehr eingeschränkte Sichtweise hat. In Zukunft wird das Gesamtpaket eine Rolle spielen. Also welche Software-Technik auf welcher Hardware das beste Ergebnis erzielt. Wieso, weshalb, warum, ob mit KI oder mit Heinzelmännchen - das wird alles keine Rolle mehr spielen. Wenn XeSS auf schwächerer Intel-Hardware bessere Ergebnisse erzielt als DLSS auf Nvidia, werden die Leute Intel kaufen. Weil am Ende nur zählt, was hinten rauskommt. Ganz einfach deshalb, weil es bereits heute Spiele gibt, die mit reiner Rohleistung so niedrige FPS bringen, dass sie nicht mehr spielbar sind.
 
blauescabrio schrieb:
Nur, wenn man eine sehr eingeschränkte Sichtweise hat.

Diese "eingeschränkte Sichtweise" ist die wissenschaftliche Herangehensweise. Für alles andere kannst Du dich gerne an Esotheriker oder Voodoo-Fetischisten wenden. :rolleyes:

Warum die Vergleichbarkeit nicht gegeben ist, habe ich auch oben erklärt.
 
  • Gefällt mir
Reaktionen: SweetOhm und sikarr
blauescabrio schrieb:
Bis dahin schlummert meine B580 als Muster ohne Wert in der Vitrine, wird alle Monate mal vorgeholt und eingebaut, um Intels Fortschritte bezüglich der Treiber nachzuverfolgen.
Das ist das jetzt als Begriff bekannt gewordene Triell, nur noch nicht auf Augenhöhe. Möge Intel aufholen, dann kann ich auch meinen Wahlzettel entsprechend ausfüllen....
 
MaverickM schrieb:
Du verstehst nicht, dass es einen eklatanten Unterschied zwischen wissenschaftlicher Vergleichbarkeit und Nutzung in der Praxis gibt. Aber anstatt sinnvoll zu argumentieren, musst Du beleidigen. Ganz großes Kino.
Du versteifst Dich da völlig in die wissenschaftliche Argumentation. Rein von den absoluten Zahlen magst Du recht haben, nur interessiert das bald niemand mehr. Was bringt Dir eine Karte, die zwar eine Rohleistung von 25FPS hat, aber die Softwaretricks nicht zur Verfügung stehen und dann eben nur die 25FPS rausschauen, während die Konkurrenz zwar nur 20FPS Rohleistung hat, aber dank Softwaretricks auf 60FPS kommt? Denkst Du echt, dass das in 10 Jahren iwen noch interessiert, WIE die FPS zustande kommen? Dafür muss man halt beim Testen um Kriterien wie Bildqualität, Ghosting, Latenz etc. erweitern, damit man dann halt immer noch sagen kann: GPU A hat zwar geringfügig weniger FPS, dafür die deutlich bessere Bildqualität. Es ist einfach ein Verschieben der als relevant betrachteten Kenngrössen zur Unterscheidung von GPU A vs. B.

Du steckst einfach in den absoluten Zahlen der nativen FPS fest. Wie erwähnt, ist aber bspw. schon heute bei den Konsolen längst nicht mehr relevant, WIE die FPS zustande kommen. Ist doch Sony und MS egal, ob die 60FPS mit Softwaretricks erreicht werden oder per Bruteforce. Was zählt, ist die Qualität der 60FPS. Und da gibts mittlerweile viele Beispiele, wo ja eben DLSS erzeugte Bilder qualitativ sogar über dem nativ gerenderten Bild sind. Wird das konsequent weiterentwickelt, kann man iwann über das Festhalten an nativen FPS auch darum nur noch schmunzeln...
 
  • Gefällt mir
Reaktionen: blauescabrio
Skjöll schrieb:
Das ist das jetzt als Begriff bekannt gewordene Triell, nur noch nicht auf Augenhöhe. Möge Intel aufholen, dann kann ich auch meinen Wahlzettel entsprechend ausfüllen....
Intel wird was den PC Grafikkarten Markt angeht einen auf Windows Phone machen und bald wieder verschwunden sein.
 
AnkH schrieb:
Was bringt Dir eine Karte, die zwar eine Rohleistung von 25FPS hat, aber die Softwaretricks nicht zur Verfügung stehen und dann eben nur die 25FPS rausschauen, während die Konkurrenz zwar nur 20FPS Rohleistung hat, aber dank Softwaretricks auf 60FPS kommt?
Man kann es nicht mehr besser erklären, nur noch lauter. Offensichtlich will er das aber nicht begreifen. Und wenn man deshalb deutlich wird, ist er beleidigt. Was will man da noch machen?
 
AnkH schrieb:
Was bringt Dir eine Karte, die zwar eine Rohleistung von 25FPS hat, aber die Softwaretricks nicht zur Verfügung stehen und dann eben nur die 25FPS rausschauen, während die Konkurrenz zwar nur 20FPS Rohleistung hat, aber dank Softwaretricks auf 60FPS kommt?

Beides ist Schrott wegen des Input Lags, und höchstens für lahme Controllerspiele brauchbar.
 
AnkH schrieb:
Rein von den absoluten Zahlen magst Du recht haben, nur interessiert das bald niemand mehr.

So ein Schmarrn. Wen das nicht interessiert der schaut sich auch keine Reviews an.
 
JMP $FCE2 schrieb:
Beides ist Schrott wegen des Input Lags, und höchstens für lahme Controllerspiele brauchbar.
Die Zahlen waren ein Beispiel, nimm halt das Vierfache davon, die Aussage bleibt die Selbe...
MaverickM schrieb:
So ein Schmarrn. Wen das nicht interessiert der schaut sich auch keine Reviews an.
Keine Argumente mehr? Die GPU Reviews hier auf CB bestehen zum Glück aus über 30 Seiten reinen nativen FPS Zahlen, gell? Facepalm...
 
also hoch und herumm skalierte Auflösung naja nicht jederr mag das.Ist irgendwie mit Fake FPS zu bezeichnen.Kann man bei Filmen und Serien auch machen,da sieht man aber dann schon das es nicht Nativ ist und das Bild wird deutlich schlechter.
Und Inputlag ist auch noch wichtig.Ich mag zwar nur Mittelmäßige Leistung bei der Reaktion haben,aber ich merke es dennoch sofort wenn was nicht stimmt.Bei Bildschirmen ist es ja im Grunde genommen egal welche Auflösung man bedient.Man muss nicht unbedingt die Native Auflösung des Bildschirms nehmen.Darum kann man das gerne 1 zu vergleichen.Ich will mal ein direkten Vergleich sehen zwischen von 4k auf Full HD vs Native Full HD.Das vergleich aber so direkt keiner.Dann kann ich beurteilen ob DLSS und CO wirklich was bringt oder nicht.Ich scheine es jedoch nicht so wahrzunehmen weil ich die Wahrnehmung nicht dazu habe.Darum ist es egal ob DLSS Geneierte Bilder besser aussehen oder nicht.Sie sind es wohl nicht.
 
Ich empfehle euch: einfach mal ausprobieren. Schnappt euch einen OLED mit mindestens 360 hz und testet was euch am besten gefällt und schaut dann bei benchmarks wie gut es mit welcher Karte performed und bestellt euch die.
 
AnkH schrieb:
Die Zahlen waren ein Beispiel, nimm halt das Vierfache davon, die Aussage bleibt die Selbe...

Dann braucht es kaum noch jemand ;)

60 fps sind den meisten gut genug, bei mir sind es 100 fps für Storyspiele mit Maus-/Tastatursteuerung. Das Fenster, in dem FG wirklich viel bringt, ist leider klein. Unten lauert der Input Lag, oben die Diminishing Returns.

latiose88 schrieb:
Ist irgendwie mit Fake FPS zu bezeichnen.Kann man bei Filmen und Serien auch machen,da sieht man aber dann schon das es nicht Nativ ist und das Bild wird deutlich schlechter.

Das sehe ich wiederum anders. 24/25 fps sind so unglaublich schlecht, dass ich selbst die erste FG im 24 Jahre alten Philips DVD 1010 mehr als Segen, denn als Fluch empfunden habe.
 
  • Gefällt mir
Reaktionen: SweetOhm
Leeway schrieb:
Gj 2020: 5,518 Milliarden
Gj 2021: 7,759 Milliarden
Gj 2022: 12,462 Milliarden
Gj 2023: 9,067 Milliarden
Gj 2024: 10,447 Milliarden
Gj 2025: 11,350 Milliarden

Man spricht eigentlich nicht von rückläufig, wenn die Kurve über drei Geschäftsjahre nach oben zeigt.
Das stimmt, da liege ich falsch.

Habe 2025 nur hier auf CB mit q1 und q2 gesehen und ging von 2022 aus.
Ergänzung ()

Galaxytourist schrieb:
Aha und NVIDIA bietet seit wann Support für Grafikkarten anderer Hersteller?
Was wurde mit der RTX2000er Serie alles eingeführt und wird seitdem ständig weiter entwickelt sowie auch Support für die Integration?

AMD fährt ganz gemütlich im Windschatten mit.
Wenn da nicht dauernd Aussetzer sind, dann kann auch hier mit geringem Aufwand genug Umsatz generiert werdenz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leeway
AnkH schrieb:
Keine Argumente mehr?

Nein, das ist die logische Schlussfolgerung deines Arguments, dass Du nur nicht zu Ende gedacht hast. Der Sinn eines Tests ist es, Produkte miteinander zu vergleichen. Stimmt die wissenschaftliche Vergleichbarkeit nicht, ist der Test wertlos.

Anders ausgedrückt: Ihr wollt Äpfel mit Birnen vergleichen.
 
  • Gefällt mir
Reaktionen: Leeway
Grundgütiger schrieb:
Was wurde mit der RTX2000er Serie alles eingeführt und wird seitdem ständig weiter entwickelt sowie auch Support für die Integration?
Du meinst die NVidia exklusiven Features die auf Anderer Hardware nicht laufen bzw. nicht quelloffen sind? Bei Sachen die jeder nutzen kann und weiterentwickeln darf, schaut ja idR jeder der Sie stark nutzt, das Sie verbessert werden.

Abgesehen davon ist das ja auch eine Frage der zur Verfügung stehenden Ressourcen die man zur Verfügung hat. Das ist bei der Grafikkartensparte von AMD ja deutlich weniger. Sprich wer in dem Geschäft mehr Umsatz bzw. Gewinn macht, hat auch mehr Geld für solche Sachen, das heißt aber ja nicht das die Anderen da dann nichts machen, nur eben nicht in dem Maße.

Wäre bei umgekehrter Situation ja nicht anders.
 
Zuletzt bearbeitet:
@Galaxytourist, demnach dürfte eine 9070XT weder upscaling noch Raytracing können.

Wenn ich keine passenden Einheiten verbaue, kann das natürlich auch nichts werden.
Ach und siehe da, auf einmal kann AMD mit FSR4 das auch und! RT.

Wir haben ein paar Strahlen pro Pixel in den aktuellen Spielen.
Damit das tatsächlich gut aussieht bräuchten wir so um die 100+
Da NVIDIA sich dessen bewusst war und da TSMC leider keine Chips in Quadratmeter fertigt, muss man halt einen Kompromiss eingehen.
AMD hatte hier schon komplett aufgegeben.

https://developer.nvidia.com/discover/ray-tracing
Im Dev Forum geht's auch um Lösungen der Probleme von Ray Reconstruction usw.
Nicht um: aber AMD hat weniger Leute.

Die RTX5000er Serie ist das Ergebnis von fehlendem Wettbewerb.
 
MaverickM schrieb:
Nein, das ist die logische Schlussfolgerung deines Arguments, dass Du nur nicht zu Ende gedacht hast. Der Sinn eines Tests ist es, Produkte miteinander zu vergleichen. Stimmt die wissenschaftliche Vergleichbarkeit nicht, ist der Test wertlos.
Nochmals, Du beschränkst Dich mit deinem "wissenschaftlich" einzig und allein auf die FPS Zahlen bei nativem Rendern. Schau Dir doch die letzten paar GPU Tests hier auf CB und anderswo an und sag mir, wie viel Prozent dieser Tests sich noch mit nativen FPS Zahlen befassen. Ist ja schon JETZT so, dass von den 30 Seiten deren 25 nicht die nativen FPS Zahlen beleuchten und bewerten.

Und man kann sehr wohl sämtliche 5000er Karten von nVIDIA untereinander vergleichen inkl. der "Softwaretricks", denn die funktionieren bei allen gleich.

Woran Du Dich festklammerst ist einzig und allein der Punkt der Vergleichbarkeit in Bezug auf FPS Zahlen beim Vergleich von bspw. einer 5070 mit einer 9070XT unter Verwendung von ebendiesen "Softwaretricks". Nur: ob in Game X nun also die nVIDIA Tricks oder die AMD Tricks verwendet werden, um bspw. bei 4K auf 60FPS zu kommen, kann mir als Kunde doch völlig egal sein. Man muss sich nur von der sturen und zurückgebliebenen Kategorisierung lösen können, dass eine 9070XT mit 60FPS in 4K und eine 5070 mit 60FPS in 4K eben genau das Selbe sind. Da brauchts dann halt etwas Grips und man muss die 60FPS, welche beide Karten haben, in Relation zu den Softwaretricks stellen und bspw. die Schlussfolgerung ziehen: "sowohl 9070XT als auch 5070 kommen nur mit DLSS/FSR auf 60FPS, dabei ist die Qualität bei DLSS noch deutlich besser". Ist genau so ein zulässiger Vergleich wie wenn man sagt: nativ kommt die 9070 nur auf 35FPS und die 5070 auf 45FPS, daher ist die 5070 "besser". Nein, eigentlich ist es nicht das Selbe: während die nativen FPS eine wissenschaftlich korrekte, aber vollkommen nutzlose Differenzierung aufgrund irgendwelcher FPS Zahlen zulassen, erhält man bei dem Test mit den Softwaretricks nicht nur eine plumpe quantitative Aussage, sondern gleich noch eine qualitative Aussage dazu. Also x-mal mehr wert. Aber natürlich nur, wenn man geistig flexibel genug ist, sich von der reinen FPS Zahl bei nativem Rendern lösen zu können...

Oder halt nochmals meine Frage, die Du geflissentlich ignorierst: wen interessiert bei den Konsolen mit fixem FPS Limit bei 30 oder 60FPS (oder gar 120FPS) noch, wie viele FPS Konsole XY nativ rendern kann? Da interessiert doch nur noch, ob Konsole X bei 30, 60 oder 120FPS ein qualitativ hochwertigeres Bild ausgibt als Konsole Y. Und genau diese qualitativen Unterschiede sind halt in erster Linie abhängig von den Softwaretricks.

Nach Deiner Argumentation kann man Produkt A nur mit Produkt B vergleichen, wenn es wissenschaftlich fundierte Zahlen als Basis gibt. Viel Spass bei Vergleichen von x-tausenden Produkten, deren Qualität sich nicht einfach in Zahlen abbilden lassen. Oder sagst Du auch: man kann doch keinen VW Golf mit einem Opel Astra vergleichen, wenn man dazu keine Zahlen hat. Oder meinst Du auch, dass ein Vergleich zwischen Golf und Astra nur in Bezug auf Zahlen Sinn macht? Also so nach dem Motto: der Golf hat X PS mehr, der Astra ist X mm länger, der Golf hat X kg mehr Zuladung und und und. Alle anderen Vergleichsmöglichkeiten wie Komfort, Raumangebot im Fond, Verarbeitungsqualität, Wertigkeit der Materialien, Handling, Fahrgefühl etc. sind also Deiner Meinung nach unzulässig, weil man da dann Äpfel und Birnen vergleicht? Facepalm...
 
Zurück
Oben