Test Grafikkarten-Generationen im Test: GeForce GTX 1070, RTX 2070, 3070 & 4070 im Vergleich

Taxxor schrieb:
Die von dir genutzte Quelle ist der CB Test der einzig Alan Wake 2 als problematisch zeigt, genau wie ich es auch gesagt habe.
Was rauchst du eigentlich auch bei PCGH hat die RTX 4070 in Alan Wake 2 nur 42,8 fps.

https://www.pcgameshardware.de/Gefo...aufen-Specs-vs-RTX-4070-vs-7800-XT-1437772/3/

Dying Light ists auch knapp unter 60.

Und es tut mir leid auf ner sehr geringen Auflösung wie 1440p und ner schlechterem Upscaling wo man bei geringen Auflösungen mehr sieht wie bei z.B. 4k und lag wegen Frame Gen, sind doch stärkere Einschränkungen, wenn wir uns darauf nicht einigen können dann tuts mir leid.

Außerdem selbst wenn du diese Definition von "hat keine Probleme" hast hast du AUF mich geantwortet und meine Aussage und es ist genauso legitim von nativem Rendering ohne Tricks aus zu gehen und daher sind meine 5 vs 15 FPS nicht so falsch, ja die genauen zahlen sind zu niedrig weil ich polemisch war, sollte klar sein, aber auch 43fps in CP 2077 nativ sind zu wenig, das es außer ein paar RT Fetischisten akzeptabel finden würden, das war mein Punkt.

Wenn du versuchst mich zu widerlegen, musst du auch meine Definition von Dingen akzeptieren wenn ich nichts anders definiert habe.
 
blackiwid schrieb:
Was rauchst du eigentlich auch bei PCGH hat die RTX 4070 in Alan Wake 2 nur 42,8 fps.
Genau wie ich gesagt habe?
Einzig Alan Wake 2 ist deutlich unter 60FPS und bräuchte FG, um nicht massiv Settings reduzieren zu müssen für die 60.
Bei CB ist halt noch HW Legacy dabei, welches bei PCGH dafür halt klar über 60 liegt, mittelt man die beiden Testszenen wären wir hier immer noch über 60.
blackiwid schrieb:
Und es tut mir leid auf ner sehr geringen Auflösung wie 1440p und ner schlechterem Upscaling wo man bei geringen Auflösungen mehr sieht wie bei z.B. 4k und lag wegen Frame Gen, sind doch stärkere Einschränkungen, wenn wir uns darauf nicht einigen können dann tuts mir leid.
Gut, dann werden wir uns auch nie einigen, DLSS Balanced ist überhaupt kein Problem in 1440p und einen höheren Lag durch FG hast du auch nicht im Vergleich mit den AMD Karten weil du Reflex nutzen kannst.


Ach und übrigens zu deinem Empfinden ich würde dich
blackiwid schrieb:
ich habe in keinem meiner Posts auch nur eine einzige Beleidigung genutzt, während ich mir von dir anhören durfte, ich hätte Wahnvorstellungen oder würde was rauchen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, Luxmanl525, MrHeisenberg und eine weitere Person
Taxxor schrieb:
ich habe in keinem meiner Posts auch nur eine einzige Beleidigung genutzt, während ich mir von dir anhören durfte, ich hätte Wahnvorstellungen oder würde was rauchen.
Spielt ja auch ne Rolle wer anfängt. Nicht nur die Zahl der Beleidigungen.

Also einigen wir uns drauf das wir unterschiedliche Definitionen von "ohne Probleme läuft" haben und damit ist das gegessen, nach meiner Definition tun sie das nicht.

Fuer mich ist 1440p schon ne massive Einschränkung wenn ich bereit bin die zu machen, will ich bei so ner teuren Karte keine weiteren Regler nach links schieben aber geh sogar ein Schritt weiter und akzeptiere DLSS / FSR Quality also bin nicht unreasonable und ein totaler Purist.
 
blackiwid schrieb:
Also einigen wir uns drauf das wir unterschiedliche Definitionen von "ohne Probleme läuft" haben und damit ist das gegessen, nach meiner Definition tun sie das nicht.
Können wir gerne tun, ich bin satt.
 
  • Gefällt mir
Reaktionen: Luxmanl525 und Apocalypse
Herzlichen Dank für die Tests! Hab eine 1070 Ti und werde vielleicht nächstes Jahr auf die 30er Serie upgraden. Da ich "nur" mit einer 1920x1080 Auflösung spiele, reicht mir die 1070.
Sehr interessanter Beitrag! Da kann ich nachschauen, wie gut/schlecht die 1070 zu den Nachfolgemodellen ist. ☺️
 
  • Gefällt mir
Reaktionen: Elch79, Apocalypse und Javeran
blackiwid schrieb:
Erst sagst die Karte hat mit Raytracing keine Probleme dann kommen 20 Einschränkungen hinterher geschoben:
1. nur beim PC Games Test
2. nur bei DLSS Balanced
3. Kein Path Tracing
4. Jedi Survivor hast noch genannt sorry hab ich unterschlagen.
War jetzt das Ziel Max Settings mit 60 in allem was geht in 16k oder was?

Je nach Game mit Raytracing oder auch Path Tracing läuft es ja doch scheinbar Problemlos, bei Alan Wake mit FG und optimierten PT Settings laut DF auch.

Wenn ihr jetzt nur aneinander vorbeireden wollt, könnte ihr das ja sogar machen ohne die Nachrichten abzuschicken. ;-)


Wenn das jetzt nur ein Missverständnis war und du meintest mit alles am Maximum in 1440p mit DLAA (sollte ja immer noch als WQJHD Karte von allen Eingestuft werden, oder gibt es da auch Uneinigkeit?) und die meisten anderen meinen "läuft Problemlos alles mit 60 mit RT oder sogar PT mit passenden Settings".

Sogar Alan Wake 2 hat DF ja mit Optimierten Settings auf 60 mit PT + FG bekommen und das ist vom Lag mit Kontroller auch wirklich brauchbar zu spielen. Waren ja dann 45 echte + 45 Fake Frames. 90 FPS sieht sehr flüssig aus und 45 FPS für ein Third Person Controller Game sollte ja auch schon im "ziemlich" Perfekt bereich sein. Ganz perfekt natürlich erst ab 1000 FPS bzw noch mehr für 4k ;-)

blackiwid schrieb:
Was rauchst du eigentlich auch bei PCGH hat die RTX 4070 in Alan Wake 2 nur 42,8 fps.

https://www.pcgameshardware.de/Gefo...aufen-Specs-vs-RTX-4070-vs-7800-XT-1437772/3/

Dying Light ists auch knapp unter 60.

Und es tut mir leid auf ner sehr geringen Auflösung wie 1440p und ner schlechterem Upscaling wo man bei geringen Auflösungen mehr sieht wie bei z.B. 4k und lag wegen Frame Gen, sind doch stärkere Einschränkungen, wenn wir uns darauf nicht einigen können dann tuts mir leid.

Außerdem selbst wenn du diese Definition von "hat keine Probleme" hast hast du AUF mich geantwortet und meine Aussage und es ist genauso legitim von nativem Rendering ohne Tricks aus zu gehen und daher sind meine 5 vs 15 FPS nicht so

Möchtest du Meinungen austauschen oder möchtest du eigentlich nur Leute beleidigen und dich gut fühlen weil du gefühlt recht hast?

Hier mal die 58.8 FPS Avg aus dem PCGH Benchmark und entsprechenden Settings. Mit FG dann also Rund 120 FPS und Gameplay with 60 fps.

Dying Light 2 (Steam), PCGH-Benchmark 'Walk in the Park'
DetailsDirectX 12 API, max. Details, FoV 70, Quality Upsampling -- rBAR/SAM enabled
Software/DriversWindows 11 x64 - Reference Spec Cards only!


Kurzfassung der Seitenalangen Diskussion hier für mich:

Manche Leute haben kein Problem damit die Regler nicht alle am Anschlag zu haben. Für andere stellt das ein großes Problem da, für die gibt es halt noch keine Raytracing Karte am Markt, denn auch die 4090 kommt ohne DLSS nicht aus. Zum Glück für Nvidia sind für diese Leute auch alle AMD Karten am Markt ebenfalls nicht schnell genug in Rastergrafik aus den gleichen Gründen. Sind wahrscheinlich die gleichen Leute die dann lieber Konsole spielen, weil da alles auf Max Settings läuft und man auch nicht alle 2 Jahre 1500€ in Upgrades Investieren MUSS:

🤦‍♂️
Ergänzung ()

blackiwid schrieb:
Wenn du versuchst mich zu widerlegen, musst du auch meine Definition von Dingen akzeptieren wenn ich nichts anders definiert habe.
Das stimmt natürlich tatsächlich, aber deine Definition ist halt merkwürdig, da kommt man nicht ohne eine genaue Erklärung drauf, was du unter perfekt laufen meinst, besonders wenn in dem Kontest dann auch noch von 60 FPS die Rede ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maxi_rodriges und Luxmanl525
Vielleicht wird es doch mal Zeit über einen Nachfolger meiner 1080Ti nachzudenken 😅
 
  • Gefällt mir
Reaktionen: Apocalypse, BillyTastic und Gelbsucht
DaHell63 schrieb:
<1000 irrelevante Bilder>
DaHell63 schrieb:
Jup...der 12GB Krüppel suckt naürlich...aber wir sind ja mutig genug:p
Btw witzig das du mir mit 20 Bildern antwortest, die genau nichts belegen außer man zoomt vielleicht auf die kleine fps anzeige aber die können auch Cherry gepickt sein, aber du antwortest mir die eine Farge nicht.

Wer soll der Kunde sein als Gamer für diese Karte? Jemand der nicht aufs Geld achten muss kann doch auf die 4070 super ti warten oder noch mehr aus geben, wer drauf achten will und auch Zukunftssicherer sein will greift zur 7800 xt und wer auf 4k spielen will wo spätestens die 4070 super mit noch so viel Schumeleien und Qualität-senkenden Tricks wie DLSS und FG an ihre Grenzen und jedes FPS auch bei Raster zählt da ist man mit ner 7900 xt(x) besser bedient (oder auch die groesseren Nvidia karten mit > 16gb.

Also jemand der auf Geld achten muss (sonst gibts ja bessere teurere) kein 4k Gaming will oder das zumindest sehr unwichtig ist und es aber 100 Euro wert ist an extra Hardware das er RT mit all den Tricks bei den wenigen heutigen Games mit 60 fps im Schnitt oder bisschen mehr spielen kann? Mit viel lag wegen FG.

Ich behaupte das die nicht aus solchen rationalen Überlegungen und solch ne mini Nische an Leute passiert das die Leute die kaufen sondern weil sie halt Nvidia wollen glauben das Nvidia besser ist in allem generell und sich Benchmarks höchstens flüchtig anschauen und aus prinzip einfach nichts bei AMD kaufen aber nicht wirklich viel Geld haben aber sich halt irgendwie die 100 Euro Extra dann mehr oder weniger vom Mund absparen Hauptsache das Gruene Logo. Bzw einfach sich 0 auskennen und den ersten Fertig-PC irgendwo packen die dann halt meistens mit Nvidia verkauft werden.

Man koennte sicher argumentieren wenn man die 4070 super verkauft wird man auch mehr Geld beim Gebraucht-verkauf wieder zurueck bekommen, aber mit dem Argument muessten alle zu 4080 oder 4090 greifen... je teurer ne Karte desto groesser ist auch der Wertverlust ueber Zeit absolut. Ja man verliert nicht die 100 Euro voll da man die teurer verkaufen kann wie ne vergleichbare rx 7800 xt aber man bekommt auch die 100 Euro nimmer zurueck.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Ich hätte nun nicht gedacht, das die 3000er den größten Sprung der letzten Jahre hingelegt haben wow. Denn im AMD-Vergleich sieht man ja gut, wie es sein sollte.

Ich persönlich trauere noch meiner 780ti nach, die war von Gigabyte so überzüchtet, das sie leider nur 5 Jahre hielt. Aber sie war immernoch schneller als die RX590, die danach ersatzweise in den PC kam.

Schade, das nicht die x080ti Modelle bis zur 4080 miteinander verglichen wurden, denn ich eiere noch auf einer 2080ti rum und obwohl sie noch gut ist, bin ich mal gespannt, was dieses Jahr lohnenswertes kommt.
 
SuperHeinz schrieb:
@Drakonomikon : Du hast da mehr blaue Striche, als Grafikkarten aufgeführt sind.
Ja, es sind auch deutlich mehr. Ist ein Formatierungsproblem. Habe das nur schnell quick and dirty gemacht für den Post. Ich kann ja noch mal nachliefern.

DevPandi schrieb:
Im Endeffekt muss man nur die Artikel durchgehen und mit den Spielen abgleichen, die vorhanden sind und gleich sind bei bestimmten Tests.
In Grunde habe ich genau das gemacht. Nur eben auf die gemittelte Performance, die CB immer in den jeweiligen Artikeln angibt. Man kann auch anhand der Daten gut erkennen, dass CB das scheinst selbst so macht, um nicht immer wieder dieselben Grafikkarten zu testen.
 
Hallo zusammen,

@Apocalypse
Apocalypse schrieb:
Wenn das jetzt nur ein Missverständnis war
Ne, kein Mißverständnis. Es ist nur so, die Schwerpunkte sind bei den beiden unterschiedlich gewichtet. So einfach ist das.

Und einem der beiden geht es um Besserwisserei, dem anderen um eine weitgehend sachorientierte Diskussionskultur innerhalb verschiedener Meinungen.

Wobei der Kollege @Taxxor nach meiner langjährigen Erfahrung nicht derjenige ist, dem es hier um überbordende Besserwisserei geht. Er vertritt seine Standpunkte schonmal mit Nachdruck - was man von meiner Wenigkeit gewiß auch behaupten kann -, aber doch immer mit bemühter Sachlichkeit. Und zumindest bei meinen Austauschsthemen mit dem Kollegen stand am Ende immer ein nützlicher Erkenntnisgewinn. Wie es sein sollte, aus meiner Sicht.

Mit dem anderen Kollegen hatte ich noch nie das Vergnügen eines Austauschs in einer Thematik. Gleichwohl, wenn ich mir seine Beiträge zu dieser Choose zu Gemüte führe - was ich ausgiebig gemacht habe - ist mein Eindruck daß es ihm eher um Besserwisserei geht. Und sowas ist in meinen Augen wenig bis gar nicht zielführend.

So long....
 
  • Gefällt mir
Reaktionen: Apocalypse
Schöner Artikel @DevPandi .

Die Sprünge in der Leistung waren angemessen und mMn ist auch der Leistungszuwachs ohne RT von der 3070 zur 4070 ausreichend. Er könnte größer sein, aber wenn AMD schwächelt, verdient Nvidia mehr Geld. Normal.

Mit größerer Verbreitung von Pathtracing und FG, wird auch die 4070 gut altern.

Bei dem Thema Inflationsentwicklung oder Verkaufspreissteigerung durch höhere Kosten und höhere Erwartungen der Aktionäre, muss ich immer schmunzeln.

Die Marktneueinsteiger, die vor 20 Jahren von Mutti noch das Pausenbrot geschmiert bekommen haben, haben echt komische Erwartungen.

Am besten eine neu gebaute Wohnung mit allen Features aus dem Jahr 2024 (Null-Energie usw.) für 3 Euro kalt pro m². Das war immerhin 1994 mal ein guter Preis. Gut, der Vermieter muss auch leben, sagen wir 5 Euro. :evillol:

mfg

p.s.

Noch ein kleiner Exkurs. Kann ich mir nicht verkneifen. Bei mir kostet seit vielen Jahren mein "Spielzeug" eine Unze Gold. Alle 2-3 Jahre kaufe ich dafür neues Zeug, was ich nicht brauche.

Das Gold skaliert ganz gut. Also ist die Gamingindustrie nicht wirklich "zu teuer". Wer als eingefleischter Gamer und Hardwarenerd dann nicht noch wenigstens ein paar Aktien seiner Lieblinge hat, der ist einfach 1960 hängen geblieben und wartet auf ein Wirtschaftswunder.
 
Zuletzt bearbeitet:
AnkH schrieb:
Oder als ein 486er, der notabene deutlich teurer war...

Das ist absolut korrekt... Ein Komplettsystem aus der 286er Generation hat gerne 5000 DM gekostet. Das zog sich bis in die späten 90iger das die Preise so hoch waren.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: [wege]mini
Holzinternet schrieb:
Ein Komplettsystem aus der 286er Generation hat gerne 5000 DM gekostet

Jupp, damals wäre mein Goldplan mit 3 Jahren nicht aufgegangen. Selbst beim Umrechnungskurs von Dollar zu DM, hätte die Unze niemals für ein komplettes PC-System gereicht.

Aber damals habe ich mit c64 rumgemacht und BASIC gelernt. Ich war total stolz, als ich die ersten Sprites von a nach b fliegen ließ. :heilig:

Damals war es ja aber Nische und die wenigsten hätten sich vorstellen können, wo wir einmal landen.

Smartphones.....für die Idee wären zu Zeiten des 286er die Männer mit weißen Kitteln gekommen.

Es waren andere Zeiten und der PC war mehr Arbeitsgerät als Spielcomputer.

Dafür gab es Commodore. :evillol:

Ich muss mal kurz den A4000 streicheln, nicht dass er sauer auf mich ist......

mfg
 
  • Gefällt mir
Reaktionen: Holzinternet
Lese den Artikel heute das erste Mal und wundere mich. Keinem ist der doppelte Tippfehler bisher aufgefallen?
An dieser Stelle wurde aus Platz- und Komplexitätsgründen nicht auf die Unterschiede zwischen SMID („Single-Instruction-Multiple-Data“) und SMIT („Single-Instruction-Multiple-Threads“) eingegangen.

SMID statt SIMD und SMIT statt SIMT.
 
  • Gefällt mir
Reaktionen: DevPandi
Schöner Artikel @DevPandi, gefällt mir. 👍

Jetzt weiß ich so ungefähr wie ich so meine alte 1070 einzuordnen habe.
Bisher macht sie aber noch einen guten Job.

Ich zocke meistens eh WoW und ältere Spiele, da braucht mein Computer noch kein Upgrade.

VG
 
Ich hätte die selbe Aufstellung gerne mal für die 60er gesehen. Also ob einfach die 3xxx Generation generell den größten Schritt nach vorne gebracht hat. Dann hätte ich mit meinem Gebrauchtkauf einer GTX 3060 Ti nämlich vieles richtig gemacht, im "Cryptoblasen-Verkaufs-Tausch" gegen zuvor eine GTX 1660 Super :).

Bevor mich jemand ob der geringen Grafikleistung auslacht: 2x FullHD Monitore, mehr brauch ich garnicht.
 
Früher hieß es immer, dass Konsolen die Spiele-Grafik/Entwicklung ausbremsen. Jetzt denke ich eher, dass die Performancesprünge bei Nvidia/AMD das Problem sind. Neue Grafikkarten für 1080p? Echt ein Scherz. Schon vor 25 Jahren wurden Spiele auf Röhrenmonitoren mit 1600x1200 Pixel gespielt.

Ich verstehe einige Nutzer nicht. Doppelte Leistung -> Doppelter Preis soll gerechtfertigt sein? Nur weil ein Microchip 100% schneller ist, ist die Produktion garantiert nicht 100% teurer. Die Hersteller testen halt, was Kunden bereit sind zu bezahlen.
 
Ich finde krass dass bei jeder GPU Generation noch ein spürbarer Leistungszuwachs zu sehen ist. Und die 4070 braucht ja anscheinend sogar weniger Strom als die 3070.
Bei CPUs siehts ja anders aus. Da wirbt ja AMD mit bahnbrechenden 13% Leistungszuwachs bei Zen5.

Ein Mikrochip der doppelt so schnell ist kostet viel mehr als das Doppelte. Genau deswegen gibt es 8 Kerner. 8x diese CPU ist wesentlich günstiger als eine CPU die 8x schneller ist. Dazu wurde es irgendwann absurd ineffizient. Zum Beispiel ein R7 7800X mit einem Kern performt etwa wie ein Intel N100. Braucht aber 35W. Der N100 braucht 6W.
Glaub mir wenn es eine GPU gäbe die 50% mehr kostet als die 4090 und dabei nur 50% mehr kostet wäre das sensationell. Damit ist man sicher 10 Jahre ausgesorgt und die ersten 5 Jahre kannste noch alle extra-Gedöns an machen wie 4k144Hz mit RT.
 
Zuletzt bearbeitet:
Zurück
Oben