Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wenn außer dir keiner von "Mikrorucklern ohne Ende" mit 12GB Vram berichtet, wird es eher an deiner Konfiguration liegen. Und gerade bei D4 wäre das Forum voll davon.
Und Youtube ist voll davon. Die Frametimes sind bei 12Gb Vram wirkllich unangenehm und selbst bei 30 FPS Videos sieht man ruckeln... Und ich hab zu Hause die gleichen Erfahrungen gemacht. Der Rechner meiner Freundin hat nen 12700k und 4070ti. Die Overall FPS sind richtig gut, aber die Frametimes in Städten und bei Weltbossen sind halt kompletter Mist. Ein Blick in die Auslastung zeigt, 11,6Gb Vram... Joa da war der Übeltäter schnell gefunden. Haben zum Test dann mal meine 9070xt eingebaut und tadaaaa das ruckeln war weg. Also nein, liegt nicht an meiner Konifguration
Die 5070 ist sicher keine schlechte Karte, was die Performance angeht und man kann in den meisten Fällen auch mit 12 GB auskommen. Die Frage ist, ob man sich das im Jahr 2025 bei einem Neukauf noch antun muss, wenn sämtliche neu erschienene GPUs in dieser Leistungsklasse und darunter mit 16 GB ausgestattet sind.
12 GB VRAM wurden schon bei Release der 4070(S/TI) bemängelt.
Damit muss man bei jedem neuen Spiel fürchten, dass man alleine aufgrund des VRAMs Settings reduzieren muss oder Features wie Raytracing oder Framegeneration nicht voll ausnutzen kann, das insbesondere bei den 5000 Karten so stark beworben wurde. Wirklich sorgenfrei ist man aktuell erst mit 16 GB VRAM, das reißt auch die bessere Speicherverwaltung nicht raus.
Es gibt einfach bessere Alternativen, die ihren Aufpreis Wert sind, ich kann nur raten einen großen Bogen um die 5070 zu machen, auch um Nvidia zu zeigen, dass wir so etwas nicht wollen. Das ist nichts anderes als geplante Obsoleszenz.
Der vermeintlich attraktive Preis der 5070 ist nur die Folge dieser Problematik.
Es ist doch ganz einfach! Wer in 2025 eine Karte für WQHD mit 12GB kauft, kauft halt 2026 ne neue Karte mit 16GB oder mehr. Das 12GB in vielen Spielen bei der Auflösung grenzwertig/zu wenig sind ist doch jetzt schon von der Fachpresse 100fach durchgekaut und bewiesen worden. Klar werden jetzt wieder viele mit Ihren Schiebereglern kommen die man ja nutzen kann aber man kann auch einfach eine Karte mit 16GB nehmen und drauf verzichten.
In der selektiven Wahrnehmung ganz großes Kino. Irgendwelche hingerotzten Screenshots, wo irgendwas unbekanntes mit verschiedenen Einstellungen und unterschiedlicher Hardware summiert wurde. Statistisch nicht brauchbar.
Die 9070 ist schneller im Raster AVG, noch schneller im Raster Perzentil und beim Raytracing gleichwertig oder schneller. Grundsätzlich ist das Tracing / Pacing / die gleichmäßige Ablieferung von Bildern bei der 5070 nicht gut.
Wer bei nahezu gleichen Preisen eine 5070 vorzieht, den kann ich nicht verstehen.
Das ist auch richtig. Diablo 4 ist aufgrund der Live-Online World aber grundsätzlich ein schlechtes Beispiel da irgendwelche Framespikes aufzuzeigen. Und im Video sieht man davon ja einige (und man fragt sich, kommen die jetzt vom Online-Charakter des Spiels, oder den nur 8GB VRAM der Grafikkarte). Außerdem spielt der da mit RT (was einfach nur heftig die FPS und 1% Lows drückt und kaum visuellen Mehrwert bringt) im Lowlevel, wo die Bewegungsgeschwindigkeit deutlich unter der Bewegungsgeschwindigkeit im Endcontent liegt.
Ist die Frage, was man unter "laufen" versteht. 40FPS, während nichts los ist auf dem Bildschirm? Schau mal auf die Frametimes. Da sind regelmäßig extreme Schwankungen drin, die man deutlich als Ruckeln wahrnimmt, obwohl auf dem Bildschirm immer noch nichts passiert.
Gerade bei Diablo sieht das Spiel nach dem ersten Story Durchlauf eben nicht so aus, sondern ist ein Monster und Effekt Feuerwerk, da gehen diese schon sehr schwachen Werte nochmals deutlich in den Keller. Von Raytracing gar nicht zu sprechen.
Man darf nicht vergessen, dass wir hier bei einer Kaufberatung von einer 650€ Grafikkarte sprechen. Da darf die Erwartungshaltung durchaus eine andere sein.
Klar ist das selektiv...einen Durchschnitt von 14 verschiedenen Tester ist statistisch nicht brauchbar...während ein einziger Test, der deiner Agenda zuspricht, das einzig wahre ist.
ErnstHaft99 schrieb:
Die 9070 ist schneller im Raster AVG, noch schneller im Raster Perzentil
Ich stand vor wenigen Tagen vor der gleichen Frage. 9070 XT oder 5070 Ti. Der Grund wieso ich die AMD Karte bestellt habe, war einfach der Preis am Ende. Eine gutes Modell der AMD Karte bekommt man für knappe 200€ weniger als ein gutes Modell der Nvidia Karte. Ich hatte schon ewig keine AMD karte mehr und wies noch wie heute das ich einen negativen Beigeschmack bei der letzten hatte. Aber die Hoffnung stirbt zuletzt.
Wenn alle stricke reisen ist die Karte ja schnell zurückgeschickt, ist sowieso auf Rechnung.
Klar ist das selektiv...einen Durchschnitt von 14 verschiedenen Tester ist statistisch nicht brauchbar...während ein einziger Test, der deiner Agenda zuspricht, das einzig wahre ist.
Du hast eine Seite gefunden, die alle nicht vergleichbaren Tests zusammenaddiert. Statistischer Unsinn ist das. Wenn dann schaut man sich die Tests pro Portal / pro Seite an. Die einen nehmen viel Unreal Engine, wieder andere vielleicht mehr VRAM-lastige Spiele, manche testen mit FSR, manche ohne, die nächsten mehr ältere Spiele. Dass das nicht einfach eine Zahl ergeben hat, ist echt nicht so schwer zu verstehen.
Hier auf CB wurden viele aktuelle Spiele getestet. Beim wichtigen Raytracing-Perzentil lag die 9070 16% vor der 5070 in WQHD. Im Raster hingegen betrug der Abstand "nur" 10%. Das reicht mir als Gegenbeleg für deine falschen Thesen. Für 500€ wäre die 5070 in Anbetracht der Konkurrenz richtig eingepreist gewesen.
Ich hoffe das war jetzt nicht wieder zu viel "Geblubber". https://www.computerbase.de/artikel...rformancerating_mit_und_ohne_rt_in_2560__1440
Ich stand vor wenigen Tagen vor der gleichen Frage. 9070 XT oder 5070 Ti. Der Grund wieso ich die AMD Karte bestellt habe, war einfach der Preis am Ende. Eine gutes Modell der AMD Karte bekommt man für knappe 200€ weniger als ein gutes Modell der Nvidia Karte. Ich hatte schon ewig keine AMD karte mehr und wies noch wie heute das ich einen negativen Beigeschmack bei der letzten hatte. Aber die Hoffnung stirbt zuletzt.
Wenn alle stricke reisen ist die Karte ja schnell zurückgeschickt, ist sowieso auf Rechnung.
Ich kann dir sagen die 9070xt ist Top... Nur AMDs Adrenalin ist... Nunja... Besser als früher, aber immer noch nicht wirklich rund. Aber die Probleme habe ich oft nur bei älteren Titeln. Aktuelle Titel laufen eigentlich alle wie Butter. Sogar Oblivion, was ja nicht gerade ein technisches Meisterwerk ist, läuft mit FSR 4 wirklich wirklich rund.
Würde in der Preiskategorie klar zur 9070 tendieren. Durchs übertakten und untervolten kannst du die Leistung der Karte auch sehr dicht an die 9070 XT bringen.
Die RTX 5070 ist einfach aufgrund der 12 GB VRAM und den damit verbundenen Nachteilen nicht zu empfehlen. Die AMD Karten ist einfach deutlich zukunftsfähiger, auch wenn man etwas schlechtere Features dafür in Kauf nehmen muss. Ob man dies allerdings wirklich merkt, ist eine andere Frage. Insbesondere wird AMD in der zweiten Jahreshälfte FSR4 nochmal deutlich verbessern.
"in den meisten Fällen" bedeutet für einen QHD Monitor quasi in allen Fällen.
So fair sollte man schon sein, wenn man Beratungen vornimmt. Man sollte seine eingefärbe Selektion und Meinung möglichst heraushalten.
AMD-Flo schrieb:
Damit muss man bei jedem neuen Spiel fürchten, dass man alleine aufgrund des VRAMs Settings reduzieren muss oder Features wie Raytracing oder Framegeneration nicht voll ausnutzen kann, das insbesondere bei den 5000 Karten so stark beworben wurde.
Du kannst heute Features wie Pathtracing auf einer 9070 deutlich langsamer oder nur sehr eingschränkt nutzen, sollte sich jemand dafür interessieren. Anstatt die Diskussion also alleine auf die Speichergröße zu reduzieren, müsste man schon einen genzheitlicheren Ansatz anstreben.
Hinsichtlich der Leistung nehmen sich 9070 und 5070 nämlich insgesamt nichts.
AMD-Flo schrieb:
Es gibt einfach bessere Alternativen, die ihren Aufpreis Wert sind, ich kann nur raten einen großen Bogen um die 5070 zu machen, auch um Nvidia zu zeigen, dass wir so etwas nicht wollen.
Ich erinnere mich an diese Pauschalurteile auch zwischen 4070 und 7800XT, die 4070 konnte man niemals kaufen - wegen der 12GB. Heute performt die 7800XT aufgrund fehlendem KI Upscaling irgendwo auf dem Level einer 3060 12GB. Na herzlichen Glückwunsch. Das wird bei einer 9070 nicht so passieren, allerdings ist die 5070 immer noch stärker was die KI Leistung betrifft und so sollte man beide Seiten mit einfließen lassen.
Generell herrscht hier eine absolut einseitige Emppfehlungswut auf AMD Hardware, dass sich Käufer am besten selbst ihre Gedanken anhand von Tests machen sollten, als andere nach deren Einschätzungen zu fragen.
Diese sind meistens in Richtung eines IHV eingefärbt, stellvertretend sichtbar an der Diskussion mit @DaHell63.
Wenn mal FSR4 so eine Verbreitung gefunden hat wie man DLSS4 nutzen kann ,kann man die Radeon als Alternative in Betracht ziehen und erst dann die m.E. gerechtfertigten aktuell aufgerufenen Preise zahlen. Wie man in aktueller Situation von zukunftssicher bei einer Radeon reden kann erschliesst sich Einem nicht wo alle neueren Games Upscaler vorraussetzen und das mittlerweile sogar als Feature für bessere Bildqualität fungiert. AMD verlangt der Leistung entsprechende Preise ausgehend davon, und das ist der Haken, dass FSR4 DLSS4 gleichwertig (nutzbar) ist. Ist es aber nicht . Von daher kann man weder von zukunftssicher noch einem besseren P/L Verhältnis bei Radeon sprechen. AMD verlangt hier ganz klar einen Vorschussbonus.
Und mit "quasi" schränkst du es auch schon wieder ein, denn es ist nicht in allen Fällen so, also doch nur in den meisten. Computerbase schreibt hier: "Bereits mit DLSS Quality, also Render-Auflösungen von 2.560 × 1.440 Pixeln und einfachem Raytracing finden sich im Testparcours gleich mehrere Fälle, in denen die RTX 5070 drastisch abfällt." Wo war ich unfair? Was ist falsch?
Quidproquo77 schrieb:
Man sollte seine eingefärbe Selektion und Meinung möglichst heraushalten.
Das ist richtig, Pathtracing lässt sich in einigen Titeln nur eingeschränkt oder gar nicht auf der 9070 nutzen. AMD hat hier offensichtlich ein Problem, arbeitet aber daran. Komischerweise schneidet die 5070 beim Pathtracing auch nicht sonderlich gut ab, obwohl Nivdia Karten eigentlich kein Problem damit haben sollten.
Auch hier limitiert bereits der VRAM und auch sonst ist die gelieferte Framerate absolut gesehen sehr niedrig.
Ich sehe hier keinen Test, bei dem die 5070 in WQHD gut spielbare Frameraten über zumindest 40 FPS liefert, die 9070 jedoch nicht. Natürlich könnt man jetzt Framegeration zuschalten, aber das kostet wieder zusätzlich VRAM. Wenn man Pathtracing nutzen möchte, sollte man zumindes eine 5070 Ti kaufen, dann hat man auch keine Probleme mit dem VRAM, selbst wenn man Framegeration zuschaltet.
Quidproquo77 schrieb:
Anstatt die Diskussion also alleine auf die Speichergröße zu reduzieren, müsste man schon einen genzheitlicheren Ansatz anstreben.
Doch genau das ist das Hauptproblem der 5070. Man kann heute schon teilweise die tollen Features wie Pathtracing und Framegeration in Kombination nicht nutzen, weil der VRAM nicht reicht und gerade das wurde doch so massiv beworben.
Quidproquo77 schrieb:
Hinsichtlich der Leistung nehmen sich 9070 und 5070 nämlich insgesamt nichts.
Bezüglich der Rechenleistung hast du Recht, wenn der VRAM jedoch ausgeht, bricht die Performance der 5070 massiv ein. Das wird mit den kommenden Titeln der nächsten Jahre massiv zunehmen. Wenn man die 5070 sowie nur kurzfristig nutzen möchte, spielt das vielleicht weniger eine Rolle.
Quidproquo77 schrieb:
Generell herrscht hier eine absolut einseitige Emppfehlungswut auf AMD Hardware, dass sich Käufer am besten selbst ihre Gedanken anhand von Tests machen sollten, als andere nach deren Einschätzungen zu fragen.
Und genau das tue ich nicht, im empfehle auch durchaus Intel CPUs und Nvidia Karten, wenn es passt. Garade erst selbst eine 5060Ti mit 16 GB gekauft. Von 12 GB VRAM bei einer >500€ Karte kann ich mit Blick auf die Zukunft nur abraten. Tests alleine reichen nicht, denn wie soll man denn Titel testen, die noch nicht erschienen sind? Selber Schuld, wer sich sowas kauft. Es gibt genügend Alternativen von AMD und Nvidia.
Zum Abschluss noch ein nettes Beispiel mit Pathtracing wie die 5070 aufgrund von VRAM Mangel einbricht:
Wenn man die 5070 mit der RX 9070 wirklich objektiv vergleicht, dann ist die AMD Karte die bessere. Aufgrund des fehlenden VRAMs ist die Nvidia Karte einfach nicht zukunftssicher und das heben auch die vielen Tests hervor. Daran ändern auch Upscalling nichts. Zumal der VRAM-Bedarf in den nächsten Jahren weiter zunehmen wird.
Die Achillesferse der AMD Karte ist in dem Zusammenhang die schwächere Verbreitung von FSR4. Allerdings wird das auch zunehmend besser, zumal nahezu jedes neue namenhafte Spiel auch FSR4 implementiert hat. Zudem werden die Entwickler mit der nächsten großen Konsolen Generation nicht mehr drum herum kommen, FSR zu implementieren. Außer sie wollen sich den deutlich größeren Konsolenmarkt entgehen lassen.
Wenn mal FSR4 so eine Verbreitung gefunden hat wie man DLSS4 nutzen kann ,kann man die Radeon als Alternative in Betracht ziehen und erst dann die m.E. gerechtfertigten aktuell aufgerufenen Preise zahlen. Wie man in aktueller Situation von zukunftssicher bei einer Radeon reden kann erschliesst sich Einem nicht wo alle neueren Games Upscaler vorraussetzen und das mittlerweile sogar als Feature für bessere Bildqualität fungiert. AMD verlangt der Leistung entsprechende Preise ausgehend davon, und das ist der Haken, dass FSR4 DLSS4 gleichwertig (nutzbar) ist. Ist es aber nicht . Von daher kann man weder von zukunftssicher noch einem besseren P/L Verhältnis bei Radeon sprechen. AMD verlangt hier ganz klar einen Vorschussbonus.
Du vergleichst halt Äpfel mit Birnen...
FSR4 ist das erste mal, dass sie ein geschlossenes System anbieten, und noch dazu ein paar Monate Rückstand hat. DLSS ist länger auf dem Markt als FSR4 (und ja FSR 4 ist was anderes als FSR 2 oder 3). Hinzu kommt Das DLSS 4 mehr Ähnlichkeit hat mit DLSS 3 als FSR 4 mit FSR 3. Wenn wir die nüchternen Zahlen mal betrachten gibt es im Moment ca 50 Spiele wo FSR 4 nutzbar ist, dem gegenüber stehen knapp über 70 DLSS 4 Spiele. Der Unterschied ist also ziemlich gering und davon ausgehen, dass nahezu jedes neue Spiel welches FSR unterstützt, FSR4 haben wird und wenn man sich AMDs Aussagen mal so anschaut... Joa ich würde sagen, man muss sich um die Unterstützung von FSR4 keine Sorgen machen.
Jetzt kann man natürlich sagen "AMD kann ja viel sagen, wenn der Tag lang ist" und soweit würde ich dir da natürlich zustimmen. Allerdings haben die letzten Wochen/Monate und Jahre gezeigt, dass man mehr auf AMDs Worte geben kann als alles, was Nvidia raus gelassen hat.
Und um das nochmal zu sagen... Die Spiele die FSR4 bereits nativ unterstützen sehen FAST durch die Bank weg besser aus als mit DLSS 4.
Oblivion ist sogar um Welten (wobei vielleicht etwas übertrieben) besser mit FSR4 als mit DLSS und warum? Weil FSR4alles was für den Spieler releveant ist (z.b. die Haare) besser dar stellen kann als DLSS. Lediglich auf Entfernung ist DLSS etwas schärfer. Spielt aber keine Rolle, weil du das in der Bewegung eh nicht wahr nimmst und wenn du stehst, sind beide auf Augenhöhe. Mit dem Unterschied, dass FSR dynamisch Dinge in der nähe (eben Haare) besser dar stellt.
Lediglich bei Stalker 2 ist FSR4 wirklich komisch im Moment. Aber gut, Stalker 2 ist auch ne eigene Baustelle
Edit: Achja bevor jetzt wieder gesagt wird "AMD Fanboy) ich hab den direkten Vergleich hier gehabt, weil ich bis vor 5 Wochen noch ne RTX 4080 hatte, bevor ich mir ein neues System mit 9070xt zusammen gestellt habe.
Edit²: Und wenn wir jetzt nochmal zum Vergleich 5070 und 9070 kommen. Es ist nahezu dämlich 12Gb Vram Karten für 1440p System oder höher zu kaufen. 12Gb Vram ist einfach zu wenig, denn da wo die 5070 VERMEINTLICH Punktet, versagt sie komplett und das ist bei MFG... MFG lastet den Vram nochmal stärker aus und das führt effektiv zum Ruckeln, weil 12GB Vram in vielen Spielen mittlerweile nicht mehr reicht und ich sags mal so, dass wird in den nächsten Monaten nicht besser.
Wenn man plant die 5070 vorübergehend zu nutzen.. Ok kann man machen, aber selbst da würde ich eher ne 5060ti mit 16Gb Vram nehmen
Es gibt bei Nvidia momentan nur 2 Karten die unter 1000€ wirklich Sinn ergeben und das ist die 5070ti und die 5060ti mit 16Gb Vram. Alles andere kann man getrost ignorieren. In jedem ANwendungsbeispiel ist AMD dann besser (im gleichen Preissegment natürlich)
Wo denn? Die kochen beide mit Wasser. Das ist eine Aussage die man tatsächlich nur als Fanboy treffen kann. Der du ja angeblich nicht sein willst. Mit Ruhm bekleckert haben sich die Letzten Wochen und Monate beide nicht.
@Calo84 Ahja... Ich sag nur "Kabelbrand ist User issue"
Oder das MAXIMAL peinliche Gamestar Interview.... Junge junge so dumm kann man gar nicht sein um sich deart zu blamieren. Das hab ich jedenfalls von AMD noch nie gesehen Aber soll Nvidia mal machen. Hab ich beinahe monatlich richtig was zu lachen, wenn Der Romand der "Bauer" Nvidia mal wieder komplett auseinander nimmt