Fragen zur RX 7900 XT und Bottleneck

Ein Tipp für dich spare bei dem Prozessor, hol dir dafür eine anständige GPU.
 
  • Gefällt mir
Reaktionen: Mardock, Wanderwisser, Airon556 und 7 andere
Bullet Tooth schrieb:
Ich würde die 4070Ti nicht nehmen wollen, die hat ihren eingenen Bottleneck mit ihren 12Gb Vram, das sieht man schon bei The Last of us.
Und wieder das leidige Thema:
Ich zitiere Mal aus der aktuellen Ausgabe der PCGH mit dem Titel "Clever Aufrüsten"

"Die Geforce RTX 4070 TI ist teuer - und trotzdem der aktuelle Preis-Leistungstipp in der Grafikkarten-Oberklasse.

Nvidias Geforce RTX 4070 Ti lieg beim Raytracing klar vor der vergleichbar teuren Radeon RX7900 XT, beim Rasterizing kann hingegen das AMD-Modell seine Muskeln spielen lassen. Als Gesamtpaket ist die RTX Ti ungeschlagen, denn neben der hohen Leistung auf Nivau einer GeForce RTX 3090Ti oder Radeon 6950 XT OC führt sie Sparsamkeit (rund 250 Watt) sowie den BOnus DLSS 3.0 alias Frame Generation ins Feld. Letzteres kann die Bildrate in unterstützten Spielen selbt dann steigern, wenn der Prozessor das Geschehen limitiert. Wer alle Stärken der RTX 4070 Ti mitnehmen möchte, sollte kein überzüchtetes Modell kaufen."

DIe 7900XT das Pendat ist deutlich leistungshungriger! Bis zu 400 Watt
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
CPU Tests werden in der Regel so gemacht, das die Grafikkarte nicht mehr das Limit der Berechnungen ist, also eine der Wichtigsten Einstellungen ist dann Die Auflösung runter. 720p, und andere Einstellungen die die Grafikkarte in erster Linie belasten. Textruen auf low, Ambient occlusion aus/runter sowas

Edit:
Im Grunde brauchst du solche Einstellungen nur runterdrehen bis die GPU unter vollauslastung ist, dann siehst du wo deine CPU an FPS nicht mehr mithalten kann/was si emaximal schafft, bei dem SPiel wo du das gerade machst.

Der FPS Wert kann an sich bei jedem Spiel anders sein, je nachdem wieviel das Spiel eben die CPU Berechnungen braucht.
Doom zum Beispiel kommt mit wenigen CPU Berechnungen aus, weit weniger jedenfalls als Anno1800. Es gibt da tendenzen bei bestimmten Arten von Spielen, wie sehr die welche komponente Belasten, an sich musst du das aber bei jedem einzelnen Titel seperat betrachten.
 
alan_Shore schrieb:
Und wieder die Laier!
Naja an der laier ist halt nunmal leider was dran. Auch wenn wann TLoU sicher anhand der alten engine nicht als Referenz nehmen sollte. So werden Games in Zukunft aussehen und es gibt fürs selbe Geld mehr Leistung und satte 8gb mehr vram. Verzichten muss man lediglich auf Frame Generation (was die allermeisten eh noch net aufm Schirm haben) und etwas raytracing Power... DLLS ist kein Kaufgrund mehr. Nachdem wir die ersten Eindrücke von FSR 3.0 bekommen haben.
 
  • Gefällt mir
Reaktionen: Airon556
CB.R schrieb:
Bei TLoU?
Da solltest du mit deiner Karte doch gar kein Limit haben, spielst du ohne FSR 2?
Die Leistung reicht vollends aus. Habe in der höchsten Einstellung ohne FSR immer zwischen 60 und 80 FPS, mit FSR Quality sind es immer zwischen 90 und 110. Nur hätte ich in 720p vermutlich noch mehr FPS, weil die Grafikkarte zu 99% ausgelastet ist und daher limitiert ;) So meinte ich das.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Airon556
Airon556 schrieb:
Kann ich auch ohne die neue GPU die Maximale Auslastung der CPU ermitteln?
wenn du mit "auslastung" "leistung" meinst:
Alexander2 schrieb:


welcher RAM, wie läuft der?

dreistellige fps in aktuellen (AAA)-games sehe ich mit dem 2600X nicht. ich würde mich #22 anschließen.

edit:
ich fühle mich gerade etwas veralbert:
Deathangel008 schrieb:

und wofür genau braucht es überhaupt den neuen thread?
 
  • Gefällt mir
Reaktionen: HisN
alan_Shore schrieb:
Und wieder das leidige Thema:
Ich zitiere Mal ............
Zitat IGOR:
In Ultra-HD rächt sich vor allem die geringere Speicherbandbreite durch das schmale 192-Bit-Interface. Das ist in der heutigen Zeit mit immer höheren Auflösungen eigentlich überflüssig, aber durch den Chip leider so vorgegeben. Hier verschenkt NVIDIA unnütz wertvolles Potential. Was nicht heißt, dass die Karte in Ultra-HD nun unbrauchbar wäre. Aber richtig schön sieht nun mal anders aus.

Außerhalb der Raytracing-Welt ist die GeForce RTX 4070 Ti auch langsamer als eine Radeon RX 7900 XT, wobei sie natürlich auch deutlich sparsamer agiert. Nimmt man die Bestrahlung wieder hinzu, kehrt sich das Bild um und die GeForce liegt wieder vorn. In der Summe aller Spiele bleibt trotz allem ein gewisser Rückstand, den man allerdings diesmal auch beim Preis wohlwollend bemerkt. Betrachtet man die UVP, dann bekommt man für zwei Drittel des Preises einer GeForce RTX 4080 eine in WQHD nur 20 Prozentpunkte langsamere Karte. Der Vergleich zur Radeon RX 7900XT sieht auch nicht mehr so unfreundlich aus, hängt aber auch vom jeweiligen Modell ab. So gesehen, ist die GeForce 4070 Ti zur UVP also zwar immer noch reichlich teuer, aber im Vergleich zur RTX 4080 eigentlich sogar das günstigere Angebot. Billig ist sie deswegen aber noch lange nicht.

Man bekommt alle Vorteile der Ada-Architektur für deutlich unter 1000 Euro und könnte damit durchaus zufrieden sein, wären da nicht der etwas magere Speicherausbau und das enge Speicherinterface. Wir merken schon: Irgendetwas ist also immer. Unter WQHD kann man sich damit gut arrangieren, nur in Ultra-HD gibt es Spiele, die aufgrund diverser HD-Texturen-Packs die gegebenen 12 GB bereits für zu mickrig halten. Das kann man jetzt so oder so sehen, aber es wäre vermeidbar gewesen, hätte man den AD104 anders konzipiert. Hier fehlen einfach noch zwei Speichercontroller.


Deswegen, bei so einem Haufen Geld erwartet man schon rundes Produkt, und das ist die 4070Ti nunmal nicht. Wäre schade wenn man auf 4K aufrüstet in Zukunft, und dann macht es die teure Grafikkarte in dem einen oder anderen Spiel nicht mit.
 
  • Gefällt mir
Reaktionen: Airon556 und z-R-o-
Wenn man auf 4K spielen will kauft man keine 4070Ti, das ist eine WQHD Karte. Kapiert das doch mal. Mal hier auf Cb geschaut wieviele in 4K zocken? Das ist die absolute Minderheit. Wenn du RT nicht für nichtig hältst….deine Sache. Ich behaupte es spielt eine größere Rolle als 4K.
 
  • Gefällt mir
Reaktionen: MDRS66, CB.R, fairhext und 2 andere
z-R-o- schrieb:
Dann mach aus der CPU 300€ und aus der GPU 830€ und kaufe einen Ryzen 7 5800X3D und eine RX 7900XT und gut ist.
Ich schätze, dass hört sich gut an. Die 4070 Ti ist auch eine gute Karte, aber der VRAM ist villeicht für die zukünftigen Games wirklich ein bisschen knapp bemessen und Raytracing würde ich auch nicht immer anschalten, Danke für die ganze Hilfe!
 
  • Gefällt mir
Reaktionen: z-R-o-
Zuletzt bearbeitet:
@Airon556:
magst du vllt noch mal die frage nach dem RAM beantworten? da kann man richtig viel leistung liegen lassen...


@Jok3er:
für
Airon556 schrieb:
Absolut immer Ultra
kann die graka gar nicht genug power haben.

ansonsten kriegt man ne 6800XT auch für 80€ weniger als die von dir verlinkte, welche man mit dem Pure Power 12 M 750W auch gar nicht nutzen kann.
 
  • Gefällt mir
Reaktionen: z-R-o-
Deathangel008 schrieb:
@Jok3er:


ansonsten kriegt man ne 6800XT auch für 80€ weniger als die von dir verlinkte, welche man mit dem Pure Power 12 M 750W auch gar nicht nutzen kann.

Habe es mal geändert.
Ich finde die 6800XT ein guten Kompromiss, weil der Thread ersteller bei der CPU schon sparen wollte.

Ich würde den 5800X3D/5700X+6800XT oder 5800X3D+7900XT nehmen.
 
  • Gefällt mir
Reaktionen: Airon556
CB.R schrieb:
12 GB VRAM sind evtl. die nächsten 2 Jahre noch gerade genug, falls die Auflösung nicht zu hoch sein muss.
Eine Investition in die Zukunft dürfte es allerdings nicht sein.

Dasselbe könnte man von den 7900 xxx Karten sagen. An Raytraycing wird es auf Dauer kaum einen Weg vorbei geben.
Ja auf Dauer, wir sprechen von in 15 Jahren wenn alle Spiele nur noch auf dieser Technik basieren.
 
Deathangel008 schrieb:
magst du vllt noch mal die frage nach dem RAM beantworten? da kann man richtig viel leistung liegen lassen...
2x8 GB G Skill Trident Z 3200 MHz DDR4 Kit
 
nicK-- schrieb:
Ja auf Dauer, wir sprechen von in 15 Jahren wenn alle Spiele nur noch auf dieser Technik basieren.
Nee. Wir reden bei RT von allen kommenden Spielen und nicht in 15 Jahren! Mal sehen was AMD liefert mit FSR 3. ich glaube sie schaffen es nicht an NV DLSS 3.0 heranzukommen. Die 4070Ti reicht locker.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CB.R
Kann ich denn mit der RX 7900 XT und einem Ryzen7 5800X3D auch z.B. Ghostwire Tokyo mit RT auf 1440p ohne Upscaling mit 60 FPS Spielen?
 
Immer wieder die selben Pros und Kontras:

Die 7900XT hat kein Raytracing, dass ist nicht zukunftssicher und alle Games werden es haben.

Die 4070ti hat zu wenig Speicher, dass ist nicht zukunftssicher.

Fakt ist:
Beides wird für den Ersteller in den nächsten 2-3 Jahren reichen weil er vermutlich nichts vom Limit merken wird.

Er kennt kein vernünftiges Raytracing und wird auch nicht das Speicherlimit spüren, zumindest bei seinem Einsatzzweck.

Ob er am Ende wirklich im Limit landet ist dann nochmal eine andere Sache.
 
Der 2600x ist schion grenzwertig fürn rx7900xt selbst auf 1440p
tlou ist sehr cpu intensiv
gleiches gilt für a plague tale requiem

Die rx7900xt hat etwa 32tf und ist leicht schneller als die rtx4070ti in dxr leicht im Nachteil dafür sind die 20gb vram deutlich vozusziehen.
So sehen mit ner rtx3060 auf 1080p in tlou und a plaguie tale aus.
1440p sind etwa +30% renderlast und die rx7900xt hat die dreifache leistung 9,2 vs 32tf

1680999037471.png

42*0,67*3,1=87fps

1680999145569.png

51*0,67*3,1=109fps

Sofern kein cpu limit anliegt in 720p sieht das so aus
1680999268058.png


720p vs 1080p ist 1-1,5
1080p zu 1440p ist 1-1,33
rechne ich das gegen sind das cpu limit bei ner schnelleren cpu als deine etwa 72% load bei 32tf
ich würde klar sagen das die cpu definitiv limitieren wird.
also die 109fps möglich bei etwa 70% load dann nur noch 85fps bei meiner cpu
Der r5 2600x wird vermutlich um die 25% langsamer sein
Das sind im übrigens min Angaben
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: z-R-o-
TheTallTom schrieb:
Die 7900XT hat kein Raytracing, dass ist nicht zukunftssicher und alle Games werden es haben.
Naja "kein" raytracing ist halt auch falsch
IMG_20230409_051550.jpg
 
  • Gefällt mir
Reaktionen: z-R-o-
Zurück
Oben