• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Avatar Frontiers of Pandora: Im Bundle mit ausgewählten Ryzen 7000 und Radeon RX 7000

Caramelito schrieb:
DLSS Balanced ist für mich zB >>> FSR Quality in fast allen Games.
Das wusste man aber beim Kauf direkt, und oft bekam man dafür billigere Preise bei AMD, da gibts keine Überraschungen

wenn Games am Anfang super aussahen mit FSR und dann 1 jahr später schlechter neuere Games, eher im Gegenteil, es kann der Tag kommen wo FSR noch besser aussieht, aber der Ram verbrauch in Games wird nicht sinken sondern steigern, da führt nichts dran vorbei.

Caramelito schrieb:
Was bringen denn die 16GB Vram einer RX 6800 XT?
Die Nvidia Karte kostete 50 Dollar mehr zum release und jetzt und hat nen 320bit Speicherinterface die 6800 xt nur ein 256bit, 760 GB/s vs 512GB/s.

Daher kann der extrem schnelle 3080 Speicher in teilen wieder was gut machen, und 10gb rettet sie bei allen Last gen titeln oder überall die Blamage wo 8gb zu wenig wären, und für die Titel wo man heute mehr braucht ist sie meist eh zu langsam, bleibt aber dabei das die Karte für Raytracing nur extrem wenig Sinn macht, die meisten werden es aus machen und lieber ein paar frames mehr oder Auflösung oder Settings hoch drehen.

Die 4700 ti eine extrem teure Karte die gleich teuer wie die 3800 war zum Release, hat nur lächerliche 192bit Anbindung und noch langsameren Speicher als die 6800 xt. Den zu geringen Speicher kann man also nicht mit Bandbreite gut machen da die auch extrem scheiße ist.

Das wird sich also nicht wiederholen das die 4700 ti trotz eigentlich zu wenig Speicher irgendwie an der 7900 xt vorbei ziehen kann in der Regel.

Ich rede über die 4xxx Schrottgeneration, genauso wie die 2xxx Gen eher gehasst wurde, die 1xxx und 3xxx sind dagegen beliebte Generationen. Wieso also sagen das eine gute Generation noch halbwegs gut altert als Beweis her ziehen warum ne Schrottgeneration (ausgenommen der 4090), gut altern soll ist mir ein Rätsel?

Caramelito schrieb:
Wer aber zB Raytracing bevorzugt, muss quasi zur 4080 greifen, wenn die 4090 nicht im Budget ist.
Ja für Raytracing Fetischisten mag die 4080 gut sein, ich hab über die ja nicht so viel gesagt, mein primärer Rohrkrepierer ist die 4070ti meist für RT eh zu lahm das es das wert ist, und für Raster dank ram zu beschränkt aber trotzdem extrem teuer pro GB. Wahrscheinlich die teuerste pro GB Karte in der aktuellen Generation?

Von den Releasepreisen 1600 Dollar / 24gb VRAM (doppelt so schnell wie bei der 4070) sind bei der 4090 66 Dollar pro GB, gut bei der 4070ti das selbe, und seh grad bei der 4080 sinds sogar 75 Euro während man bei AMD bei der aktuellen Gen nur 31,5 Euro zahlt (7800xt) und 45 bei der 7900xt.

Bei den höheren sieht man es halt erst in höheren Settings wo der Ram wenig wird und oft nur mit starkem Raytracing wo AMD halt auch lahm ist wenn der Ram reicht, daher faellts da nicht so auf, irgendwann wird auch das auffallen aber halt nicht so schnell, in 3-4 Jahren wenn die nächsten Konsolen kommen und bis dahin ists dann ja egal weil so lange erwartet niemand das ne Karte noch reicht.

Das ist halt wie mit der Grenznutzen irgendwann bringt noch mehr nicht deutlich mehr nutzen, aber selbst da, wirds Texturpacks geben wo du mit ner 16gb 4080 nicht nutzen kannst, aber ja meine Hauptkritik galt nicht 16gb sondern 12gb, was heute eben zu unrecht meiner Meinung als absolut sicher für alle Games und settings angesehen wird. Waere der nicht auch noch extrem lahm bei der 4070ti waere ich eher offen das das nicht zum Flaschenhals wird, selbst wenn das Spiel irgendwie klug einfach schneller versucht ueberfluessiges zu ueberschreiben und weniger cached, dann wird der Speed schnell zum Flaschenhals.
Ergänzung ()

Caramelito schrieb:
Spielst du also mit ner XTX oder XT in 4k und Full Raytracing Cyberpunk?
Nein darf ich über Teslas nicht mich auslassen und sagen das die wegen irgendwas sucken, wenn ich keinen gekauft hab? Das deren Markting als Autopilot und die Unfaelle die dadurch teils entstanden oder sonstige Sachen nichts sagen, weil ich keins gekauft hab?
 
@blackiwid :
Muss ehrlich sagen, dass ich dein ganzes Zeug nicht gelesen habe, da du zuerst pro VRAM argumentierst, wenns widerlegt wird, kommst du mit anderen Ausreden! :)

Dann sagst du, dass Regler bedienen ein Problem ist, dann aber bei Cyberpunk OK ist, weils in dein Bild passt.

Alles also nur Fanboi-Gelaber und sommit uninteressant, have fun! :)
 
blackiwid schrieb:
Ja einfach alle Games wo AMD besser abschneidet als Ungueltig erklaeren und als nicht existent...
Das beschreibt exakt deine Herangehensweise, du musst nur AMD mit Nvidia tauschen. Die genannten kaputten Speicherfresser sind längst gepatched und seitdem kam kein Spiel mehr auf den Markt in dem 12GB selbst in Ultra Details und WQHD bis 4K und DLSS zu Problemen führten, was aber nicht bedeutet, dass das nicht irgendwann der Fall sein kann. Dazu gibt es aber Regler, welche du mit Radeons auch bedienen musst. Und zwar bei RT schon heute. Oder möchtest du das bestreiten?

Du suchst dir wie schon bei deiner These zu dem Fine Wine Argument ein paar wenige Beispiele heraus ( die nicht dem aktuellen Stand entsprechen) und verallgemeinerst diese und vermeidest aber die Sache aus unterschiedlichen Perspektiven zu betrachten.

Genauso könnte ich Alan Wake 2 RT, Ratched und Clank RT, Formel 1 mit RT oder Cyberpunk mit PT nehmen und ganz generell Bildqualität der Upscaler im Allgemeinen und argumentieren, dass Radeons nicht mehr zeitgemäß sind, Vram nicht so wichtig ist und die Leistung im hier und jetzt zählt und als Krönung noch irgendwas absurdes sagen wie der Preisverfall der Radeon wird größen sein, weil RT usw.

Das wäre genauso einseitig.
Ich kann dir im Gegensatz zu den Beiträgen von anderen Usern bei keiner einzigen These zustimmen, weil ich weder schlüssige Argumente noch Fakten erkennen kann.

Bei mir bleibt nur eines hängen und zwar, dass du warum auch immer Nvidia doof findest und dich im Kreis drehst. Wie wäre es sich darüber zu freuen viel Vram auf der 7900XT zu erhalten und dafür eine schlechtere RT oder PT Leistung? Nein, du ärgerst dich über die 4070Ti und Nvidia und redest etwas von besonderen Preisverfall..

blackiwid schrieb:
mein primärer Rohrkrepierer ist die 4070ti meist für RT eh zu lahm das es das wert ist, und für Raster dank ram zu beschränkt aber trotzdem extrem teuer pro GB.
Dann heißt dass im Umkehrschluss, dass alle AMD Karten für RT zu lahm sind und die 4070Ti obwohl sie durch kein RT mehr Vram frei hat, jetzt zu wenig für Raster hat. :freak:


blackiwid schrieb:
Ja für Raytracing Fetischisten...
Eieiei, wenn das schon Fetischismus sein soll, bist du der Vram Papst.:n8:
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Das beschreibt exakt deine Herangehensweise, du musst nur AMD mit Nvidia tauschen. Die genannten kaputten Speicherfresser sind längst gepatched und seitdem kam kein Spiel mehr auf den Markt in dem 12GB selbst in Ultra Details und WQHD bis 4K und DLSS zu Problemen führten,
Soso City Skylines 2 wurde gefixt oder ist das "seither" nicht raus gekommen?

Offizielle Requirrements Hogwarts Legacy Ultra 4k:
NVIDIA GeForce RTX 3090 Ti or AMD Radeon RX 7900 XT

Beide haben über 20GB VRAM nur zur Erinnerung.
The Radeon 7900 XT rips the GeForce RTX 4070 Ti a new one here, delivering 28% more frames at 1440p with a staggering 56% increase for the 1% lows.

The GeForce RTX 4070 Ti does run into VRAM related performance issues at 4K, and while the Radeon 7900 XT is able to avoid such issues, with just 27 fps on average it was hardly a desirable result. (4070 ti bringt nur 18 FPS).

https://www.techspot.com/review/2642-radeon-7900-xt-vs-geforce-rtx-4070-ti/

Das war 1 Monat nach release also schon genug zeit zum Patchen, wenn man Spiele erst 5 Jahre nach release bei Nvidia spielen darf dann mag das für dich akzeptabel sein ich denke aber für >90% der Menschen nicht.
https://www.techspot.com/review/2642-radeon-7900-xt-vs-geforce-rtx-4070-ti/

Außerdem reden wir immer nur von Benchmarks, wie kann man den den VRAM Verbrauch unter das benötigte Normale drücken? Man lädt dynamisch Low Qualität Texturen das mag in Benchmarks tolle Nummern generieren und Frameverlaeufe, aber dann hast halt ekelige Bildqualität.

Ein anderer Weg wäre in dem man den Ram kuenstlich schneller ersetzen muss und sekunde fuer sekunde immer nur die Texturen komplett rsetzt die man die naechste braucht, bisschen vereinfacht gesagt, aber da ist die 4070ti natuerlich auch ein Bremsglotz mit ihrem extrem langsamen Speicherspeed.


Da immernoch 30% vorne bei 1440p bei 4k ists nimmer ganz so viel da laeufts wahrscheinlich ins Rasterleistungslimit des Chips aber auch da sind 56 fps minimum besser als bei der Nvidia mit 48.

Bei 1440p ists crazy grade bei Minimum FPS 64 vs 100, das sind Welten das sind 56% mehr Speed. Bei ner GPU die ungefaehr gleich stark in Raster sein sollte und aktiviertem Raytracing wo AMD suckt...

Und da du ja meintest das 100% der Games entweder nun optimiert wurden oder keine neuen kamen kann ich noch auf dieses Ralley game verweisen, aber geschenkt, du behauptest nur immer sehr vollmundig das ich falsches sagen wuerde wenn du nachweislich mindestens auch falsches sagst.

Aber dein Argument ist halt das dank des kurzfristigen Softwarevorteils von DLSS die 4070 ti noch ganz gut her kommt weil sie ja die 4k z.B. nicht echt berechnen muss und dann auch trotz langsamem Ramspeeds teils noch davon kommt. Was machst du aber wenn FSR in 3-6 Monaten weitgehend gleich gut wie DLSS ist?

Dann bricht doch die Welt zusammen dann kannst noch mit Raytracing in Cyber Punk Spiel wo eh die meisten bei ner 4070ti Raytracing auf Minimum oder sowas stellen, verweisen, das ist genauso wie wenn ich nur noch mit Texturpacks fuer Games argumentiere.

Mit 12 GB spielt es sich in UHD mit DLSS Quality haarscharf an der Grenze. Der Benchmark lief ohne Probleme, doch wurde im Grafikmenü im laufenden Spiel auch nur eine Option angepasst, lief der VRAM wiederholt über und das Spiel ruckelte.
Das ist nicht mehr Release stand auf CB das war zumindest Patchstand 1.0.5.0.
Ich such jetzt nicht auch noch benchmarks von neueren Patches irgendwann ists dann auch "to little to late".

Wie gesagt ich habe nie behauptet das in den meisten Games 12gb jetzt schon zum Problem werden, aber es ist halt oft grad noch genug und ich kann mir nicht vorstellen 800 zu blechen um grad noch genug ram zu haben nirgends Texturpacks benutzen zu koennen ausser vielleicht bei 10 Jahre alten games etc, und logischerweise wie gesagt entweder in 2 Monaten oder in 14 Monaten irgendwann kommen die Spiele die mehr brauchen vermehrt.

Und die Aussage das die Konsole ja nur 11,5gb fuer VRAM habe ist auch Bullshit, wenn Spiele wie The last of US 1 die fuer PS3 mal raus kam bzw dann fuer PS4 maximal 8gb Unified ram hatte aber trotzdem easy 11,5gb vram heute schluckt.

Also man kann nicht aufm PC mehr grafik erwarten und die VRAM verbrauch von Konsolen... das doch offensichtlich absurd.

Einfache Mathematik, wenn Spiele die bestenfalls fuer 8gb Konsolen raus kamen 11,5gb VRAM schlucken wieviel werden dann manche Spiele die fuer 16gb Konsolen entwickelt wurden aufm PC verbrauchen? Einfacher 3 Satz?

Lass uns doch einfach auf die naechsten AAA Game Releases und den Release der Super Karten warten und dann schauen wir nochmal wer recht hatte, ist irgendwie bisschen wie drum zu streiten obs morgen Regnet oder nicht, ich hab halt meine Meinung das es regnet morgen, wenn du das anders siehst... viel Spass. Was ich hier schreibe ist ja wurscht solange ich nicht recht habe... oder hast Angst ich versaue Nvidia einen Grafikkartenverkauf und sie gehen deshalb Pleite?
 
Zuletzt bearbeitet:
blackiwid schrieb:
Soso City Skylines 2 wurde gefixt oder ist das "seither" nicht raus gekommen?
Bei den von ComputerBase empfohlenen Grafikeinstellungen sind 8 GB sowohl in Full HD als auch in WQHD ausreichend. Für Ultra HD sollten es dann mindestens 10 GB sein, mehr scheint aber nicht notwendig zu sein.
Von was redest du bitte?
Selbst wenn ich in die Computerbase Tests zum Releasezeitpunkt gehe, machte nur Hogwarts Legacy auf 12GB Karten in 4K+RT wirkliche Probleme. Es ist ja gar nicht zutreffend was du sagst, wenn man es nachprüft.
blackiwid schrieb:
Das war 1 Monat nach release also schon genug zeit zum Patchen, wenn man Spiele erst 5 Jahre nach release bei Nvidia spielen darf dann mag das für dich akzeptabel sein ich denke aber für >90% der Menschen nicht.
Du hängst dich auf einem einzigen Spiel zum Release auf, mit Einstellungen die laut deiner Aussage inkl. RT (warum auch immer) auf der 4070Ti eh nicht flüssig laufen sollen. Meinst du nicht, dass das eine sehr dünne Argumentationsgrundlage ist und es nicht fairer wäre die Nachteile der Radeon auch zu beleuchten?

Denn wenn man sich wie du so auf einen singulären Aspekt in einem Game einschießt, dann klappt das bei RT und der 4070Ti wesentlich besser in X Spielen.
blackiwid schrieb:
Da immernoch 30% vorne bei 1440p bei 4k ists nimmer ganz so viel da laeufts wahrscheinlich ins Rasterleistungslimit des Chips aber auch da sind 56 fps minimum besser als bei der Nvidia mit 48.
Der Tester hat doch gar keine Einstellungen angegeben. Und wenn der V-Ram das Problem wäre, müsste es in 4K den größten Unterschied geben?!
blackiwid schrieb:
Und da du ja meintest das 100% der Games entweder nun optimiert wurden oder keine neuen kamen kann ich noch auf dieses Ralley game verweisen, aber geschenkt
Ich meinte erst einmal das nur ein einziges Game das du angegeben hast, überhaupt zum Launch wirklich Probleme mit 12GB NV Karten aufwies und TLoU massiv gepatched wurde und jetzt nur noch halb so viel Speicher braucht.
blackiwid schrieb:
, du behauptest nur immer sehr vollmundig das ich falsches sagen wuerde wenn du nachweislich mindestens auch falsches sagst.
Dann prüfe deine Behauptungen mal nach. Cities Skylines hat keinen hohen V-ram Verbrauch.
blackiwid schrieb:
Dann bricht doch die Welt zusammen dann kannst noch mit Raytracing in Cyber Punk Spiel wo eh die meisten bei ner 4070ti Raytracing auf Minimum oder sowas stellen, verweisen, das ist genauso wie wenn ich nur noch mit Texturpacks fuer Games argumentiere.
Warum sollte man auf Minimum stellen, wenn man auf Max. WQHD mit DLSS Quality etwa 80 FPS inkl. Pathtracing hat? :p Für normales RT reicht das doch in jedem Game.
blackiwid schrieb:
Lass uns doch einfach auf die naechsten AAA Game Releases und den Release der Super Karten warten und dann schauen wir nochmal wer recht hatte,
Ich sage gar nicht, dass der Speicher der 4070Ti nicht knapp für 4K ist oder nicht in dem ein oder anderen Spiel schon limitierte, sondern ich verstehe nicht, dass du dies zu deinem einzigen Kriterium machst und alles andere ignorierst (Auflösungen, Settings, Spiele usw.) und so tust als könne man kein RT auf der 4070Ti nutzen. Wenn man das nicht kann, brauchst es auf einer Radeon gar nicht erst anschalten.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Ich sage gar nicht, dass der Speicher der 4070Ti nicht knapp für 4K ist oder nicht in dem ein oder anderen Spiel schon limitierte, sondern ich verstehe nicht, dass du dies zu deinem einzigen Kriterium machst und alles andere ignorierst (Auflösungen, Settings, Spiele usw.) und so tust als könne man kein RT auf der 4070Ti nutzen. Wenn man das nicht kann, brauchst es auf einer Radeon gar nicht erst anschalten.
Wenn 8gb ein gigantisches Problem jetzt ist und der Shitstorm selbst bei der günstigen 270 euro rx 7600 da war und noch mehr bei der 420 euro warens glaub zum Release 4060, wieso sollte dann 12gb absolut problemlos sein?

Lagen da alle Falsch die über die 8gb gelästert haben? Ist das für ne Midrangekarte voll ok? Weil wenn nicht wie kann es für ne Karte mit Highendpreis 12gb Ok sein, die 2 Sachen passen für mich nicht zusammen.

Die 4070 ist für mich z.B. ein halbwegs rundes Paket, der Speicher ist grad ok für den Preis der zumindest inzwischen auch OKish ist.

Da versteh ich das Argument jeh nachdem was man eher braucht / will ist vielleicht die 7800er oder die 4070 die bessere Wahl, aber die 4070ti ist einfach Gaga wie viel man für ne 12gb Karte zahlt, ist ja auch nicht nur das man bei AMD mit der 7900xt dem Preiskonkurrenten 16gb bekommt sondern auch 20gb und dann noch das der Speicher sau lahm ist, irgendwann wird sich das rächen, die Frage ist nur wie schnell und stark.

Prinzipiell sind wir uns da ja einig, dein Argument ist das ich die Nachteile der Radeons nicht genug in die Waagschale lege, nehmen wir Alan Wake, angeblich ist ja FSR3 so viel schlechter, dort merkt man aber fast keinen Unterschied, angeblich weil das Spiel dunkler sei, naja mal abwarten wie das weiter geht.

Das andere Argument ist ja immer das ohh die Konsolen haben ja angeblich nur maximal 11,5gb für VRAM, auch wenn ich zigfach belegt habe das das nicht 1:1 aufm PCs übertragbar ist da man dort bessere Grafik will mit teurerer Hardware, macht Sinn nicht, wer will deutlich mehr Geld für Hardware blechen für 1:1 Konsolengrafik? Aber wenn ich die selbe Logik anwende dann dürfte RT ja die Radeonkarten nie überbeanspruchen da es Konsolenports sind und die ja extrem schlecht in RT sind. Also man sieht schon das das Argument nicht funktioniert aber eben auch für VRAM.

Nehmen wir mal Alan Wake 2 als neues Spiel, dort sind die Einbussen für RT massiv, ja klar bei den Benchmarks scheint Nvidia hier, aber schon mit 1440p ist man mit der 4070ti unter 60fps im Schnitt und unter 50 im 1% das schon bei niedrig RT. Pathtracing liegt von den Balken her gut aus sind aber realistisch auch scheiße: bei RT Hoch:
dass Frame Generation meistens von sehr niedrigen realen Frameraten aus angewendet werden muss, die weit unter den empfehlenswerten 50 bis 60 FPS als Minimum liegen. Der Input-Lag ist damit automatisch sehr hoch, darüber hinaus hakt das Spiel bei derart geringen Render-FPS spürbar,
Also entweder musst mit Fullhd nur spielen und die Karte wurde definitiv nicht als FullHD Karte vermarktet noch glaub ich das Leute so viel Geld nur für Fullhd ausgeben meistens oder kannst mit biegen und brechen RT Niedrig spielen, aber schon unter 60fps, das lohnt sich realistisch auch kaum. zumal die wenigen Frames auch bei RT Niedrig nur durch Upscaling klappt.

Gut in Raster ist man dann auch nur ca. 10% hinten, aber das Argument das es in den wenigen RT Games man dieses Feature Sinnvoll häufig anmachen kann außerhalb von 1080p ist halt auch nicht zutreffend, nicht mal RT Niedrig macht Sinn. Gut schauen wir mal ein paar Patches an vielleicht wirds ja noch besser auch für AMD btw, mich persönlich überzeugt das Lineup nicht, wenn du dich total an Cyberpunk 2077 aufgeilst fein. Das scheint mir das einzige Spiel was mehr als ein paar geringe RT Effekte wie Schatten hat und die 4070ti grad noch gut genug mit 1440p läuft. Ja wenn du dir die Karte nur wegen dem Spiel gekauft hast bitte. Ansonsten hast eben in der Regel 5-10% mehr Rasterspeed mit der 7900 xt und mehr Zukunftssicherheit wegen VRAM.

Ich denke vieles ist auch subjektiv wenn du denken würdest boah hab 200 Euro zu viel für ne Karte gezahlt hätte die nicht kaufen sollen (aus ner halb subjektiven Einschätzung) dann ist das kein großes Ding mein Budget ist halt kleiner da wäre das ja will jetzt nicht übertreiben aber zumindest ein ziemlich großes Ding, daher kannst du offenbar die Dramatik die vielleicht aus meinen Worten durchscheinen nicht verstehen.

Also laut Leak soll die 4070 ti SUPER 16 GB 14-22% mehr Speed haben, da gehts dann um Clock und aber auch Ram SPEED für 800-850 MSRP (Dollar), diesen Verlust seh ich schon ein, neue Karten kommen etc, aber was da halt noch nicht drin ist, ist wenn der Ram aus geht.

und die 20% würden bei Alen Wake z.B. 1440p RT ueber die 60 fps komfortabel drueber bringen, es koennte also sein das genau das es ausreichend macht das Leute sinnvoll RT settings an machen koennen oder es knapp zu lahm ist fast immer.

Ich denke das du auch ignorierst das niemand ueber die Generation von AMD und Nvidia besonders begeistert war, und es schon massiv Shitstorm gabs, die Leute bissen damals in irgend ein Sauren Apfel der wo am wenigsten sauer war nach ihrer Einschaetzung, also die Grundstimmung duerfte eh schon sehr negativ sein, nicht oh was fuer ein geilen Deal von dem ich absolut begeistert bin hab ich da gemacht... das ist nicht der typische Kaeufer dieser Generation auf keiner Seite, und wenn dann irgendwelche Nachrichten oder Zeug kommt das den Kauf verschlechtert, dann wird das nicht auf hohes Verstaendnis fallen.

Die 4070 Super wird btw auch nur 12gb haben, die 4070er Kunden werden also nicht diese Verarsche fuehlen. Da sieht Nvidia immer noch das fuer 600 Euro 12gb gut genug sind nur bei 800-900 Euro gestehen sie damit ein das die 12gb ein Fehler / Unfair war. (zumindest ist das eine legitime Deutung)

Und Stromverbrauch wurde auch gerne als Argument gebracht, und ausserhalb vom Strom-Wucherland Deutschland spielt das ne sehr kleine Rolle, aber auch in Deutschland fallen die Strompreise wieder recht deutlich das Argument ist also auch geringer wie Anfang Jahr.

Also fuer RT war sie meist (Alan Wake) zu lahm in den eh schon zu wenigen spielen, Stromsparpotenzial ging nicht voll auf, und jetzt gibts schon nen deutlich besseren Nachfolger fuer ca. den selben Preis, ich weiss nicht ob das alle so locker sehen wie du.
 
Zuletzt bearbeitet:
blackiwid schrieb:
wieso sollte dann 12gb absolut problemlos sein?
Das habe ich nicht gesagt, 12GB sind gerade für 4K in manchen Spielen knapp, besonders dann wenn sie verbuggt sind.
blackiwid schrieb:
Nehmen wir mal Alan Wake 2 als neues Spiel, dort sind die Einbussen für RT massiv, ja klar bei den Benchmarks scheint Nvidia hier, aber schon mit 1440p ist man mit der 4070ti unter 60fps im Schnitt und unter 50 im 1% das schon bei niedrig RT. Pathtracing liegt von den Balken her gut aus sind aber realistisch auch scheiße: bei RT Hoch:
Die Diskussion beende ich an der Stelle weil du Vorteile und Nachteile von AMD und Nvidia nicht für sich stehen lassen kannst.
 
Quidproquo77 schrieb:
Die Diskussion beende ich an der Stelle weil du Vorteile und Nachteile von AMD und Nvidia nicht für sich stehen lassen kannst.
Wieso sollte ich 4070 ti als Vorteil in RT sehen bei <60fps... soll ich so tun als wäre es >60fps im schnitt im 1% sinds ja nicht mal mehr 50fps...

Aber kannst gerne beenden mir macht die Kommunikation mit dir auch nur viel Arbeit und kommt wenig bei rueber bisschen wie ne Diskussion wer recht hat bei der Lieblingsfarbe, da du einfach meine subjektive Meinung als objektiv falsch belegen willst, und wenn ich objektive Argumente bringe sagst halt "ich könne etwas nicht stehen lassen".

Aber außer deine konstante Behauptung ich würde nicht etwas überdramatisieren oder ne für dich nicht nachvollziehbare Meinung haben sondern alles was ich sage sei sachlich komplett falsch, was indirekt sagt ich würde lügen, bleibst zumindest halbwegs freundlich, das ist der Grund warum ich mir das überhaupt an tu.

Und immerhin hab ich gelernt das die 4070ti nicht mal primär ein VRAM Menge Problem hat und deshalb ein Speichergrueppel primär ist sondern das es obendrauf auch noch einen viel zu lahmen Speicher hat und das vermutlich der Hauptgrund ist warum die 7900XT auch in Spielen die wenig VRAM brauchen meist vorne liegt (Raster).

Also letztlich ist es fast noch schlimmer wie ich dachte, alle Spiele durch die Bank sind durch extrem lahmen Speicher gebremst auch die ohne viel VRAM Verbrauch.

Das heißt auch das wenn FSR zu DLSS aufschließt der Abstand BEI ALLEN Spielen noch deutlich groesser wird. (Raster) nicht nur bei den neuesten die viel VRAM brauchen.

Und auch das ist ein Muster bei Nvidia, die 4060 mit ihrem beschissenen 128bit mag für die 300 Dollar Basis version vielleicht noch gut genug sein für die 4060 ti ist das aber schon kritisch und die 16gb 4060 wird dadurch ein idiotisches Produkt da der Speicherspeed da mehr zum Flaschenhals wird als die Menge und die normale 4070 auch nur geringen Aufpreis kostete und trotz 4gb wenig VRAM das 1000x bessere Produkt ist inzwischen natürlich auch die 7800xt oder gar die 7700 XT zumal das Argument RT für Nvidia da noch sinnloser ist als bei der 4070 ti wo es zumindest hier und da noch nutzbar ist und damals natürlich auch irgendwelche 6700 xt oder aehnliche Karten aus der Generation.

Wie man an der 16gb 4060 ti gut sieht ist es nicht immer die Menge an VRAM sondern das Nvidia zu lahmen Speicher noch obendrauf verbaut.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Wieso sollte ich 4070 ti als Vorteil in RT sehen bei <60fps... soll ich so tun als wäre es >60fps im schnitt im 1% sinds ja nicht mal mehr 50fps...
Weil du es nicht als Vorteil sehen möchtest, also definierst du an der Stelle, dass alles < 60 FPS nicht spielbar sei, obwohl mit FG sogar knapp 100 FPS drin sind.

Du findest immer irgendeinen neuen Grund, warum du etwas nicht gelten lässt und so eine Art und Weise ist mir auf Dauer einfach zu blöd. Du bemerkst es selbst nicht. Wenn man jetzt mit RT und 100 FPS in einem langsamen Adventure nicht flüssig spielen kann, weiß ich auch nicht mehr weiter.

Wenn mir Lagerdenken nicht total gegen den Strich gehen würde und ich noch 15 Jahre alt wäre würde ich irgendeine Fanboybeleidigung raushauen.
Bei so viel Einseitigkeit weiß ich mit meinen 30 Lenzen aber an der Stelle auch einfach nicht mehr weiter.

Jeder soll nach seiner Fasson selig werden, aber das ist mir too much.


Ergänzung.

Der Speicher der 4070 Ti ist nicht lahm, sondern das Interface ist auf 192 bit beschränkt und das kostet in 4K einfach.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Weil du es nicht als Vorteil sehen möchtest, also definierst du an der Stelle, dass alles < 60 FPS nicht spielbar sei, obwohl mit FG sogar knapp 100 FPS drin sind.

Du findest immer irgendeinen neuen Grund, warum du etwas nicht gelten lässt und so eine Art und Weise ist mir auf Dauer einfach zu blöd.
Das sind Dinge die mir andere Leute erklaeren das z.B. Frame Gen nur bei Highendkarten Sinn macht da darunter nicht, selbst Upsampling macht nur Sinn ab ner bestimmten Stärke da sehr geringe Auflösungen nur schlecht upscalen.

Ich lerne dazu, bin sicher auch leicht biased das will ich nicht bestreiten aber nicht so verbohrt das ich gute Argumente nicht berücksichtige, aber ich verlasse mich halt auf die Informationen die ich bekomme, und CB hat nun mal nicht Alan Wake mit Upsamling und Frame Gen auf RT Niedrig getestet.

Wenn dir das nicht genug pro Nvidia geframed ist musst dich bei den Redakteuren hier beschweren nicht mir der sich nur die Balken an schaut.

Aber geb ich dir dann kannst eventuell mit Frage gen eben 1440p auf niedrig RT Spielen ohne extrem starken Input lag der unerträglich ist... soll das mich von ner 4070ti begeistern? Da hab ich persönlich lieber mehr Speed bei 4k, sicher hab sogar downgegraded auf 1440p aber weil ich maximal 300 Euro für ne Grafikkarte ausgebe würde ich fast 1000 Euro für ne Grafikkarte zahlen hätte ich mir 100% sicher nen 32" 4k Monitor fuer gekauft und oder >144hz nicht so nen Mittelalter 1440p Monitor hab das nur gekauft weil die Grafikkartenhersteller so versagen und so viel Geld verlagen fuer 4k Grafikkarten, aber wenn ich nen Preis fuer ne 4k Grafikkarte zahle will ich dort auch brauchbaren Speed.
Quidproquo77 schrieb:
Du bemerkst es selbst nicht. Wenn man jetzt mit RT und 100 FPS in einem langsamen Adventure nicht flüssig spielen kann, weiß ich auch nicht mehr weiter.
Wenn CB das nicht testet und offenbar der Meinung ist das fuer RT Niedrig es das nicht wert ist, du tust so als waere FG einfach Problemlos und ohne auch Nachteile. Und wenn das das argument ist kann ich ja dann auch mit FG und der 7900 XT 80 fps wunderbar spielen. Wo ist dann der Vorteil?
Quidproquo77 schrieb:
Ergänzung.

Der Speicher der 4070 Ti ist nicht lahm, sondern das Interface ist auf 192 bit beschränkt und das kostet in 4K einfach.
weniger GB/s als die Konkurrenz ist lahmer als die Konkurenz? Warum es lahm ist aendert nichts daran ob es lahm ist. Sicher die RX 7700xt ist noch lahmer mit auch 192 bit interface aber die ist auch 350 Euro billiger.
 
Zurück
Oben