4070 TI oder 7900 XT

Okay, du hast weder richtig gelesen, noch verstanden. Ich kritisierere AMD in meinem Beitrag davor und es wird als Bauch streicheln bezeichnet. Ich beziehe mich auf Aussagen von etablierten Quellen und andere nennen es Quark. Nobel geht die Welt zu Grunde. 😂

Das du ernsthaft auf den 19 fps ohne upscaling herum reitest, obwohl die Nvidia Karten da genauso schlecht abschneiden, definiert deine ObjektivitÀt. Auf Argumente wird gar nicht eingegangen und realistische Vergleiche werden gar nicht erst betrachtet.

Ist auch völlig egal was wir glauben. FĂŒr mich zĂ€hlen nur möglichst unabhĂ€ngige etablierte Quellen. Die sprechen da eine eindeutige Sprache, die ich bereits dargelegt habe.
 
Zuletzt bearbeitet:
Wenn man Effizienz, Treiber und weitere Randparameter mal außen vor lĂ€sst und du rein nach der aktuellen Leistung entscheiden musst, ist es doch ne einfache Kiste:

Willst du Raytracing nimm die Nvidia, wenn nicht nimm die AMD.

Bei Raytracing (und konkret bei den 1% Lows) ist AMD noch mindestens 1Gen hinter Nvidia und liegt dort selbst unter einer 3080.
Weiß gar nicht was es hier zu diskutieren gibt.

1675933658044.png
 
  • GefĂ€llt mir
Reaktionen: Ja_Ge
Ja, wozu diskutieren. 😂


Ab 17 Minuten 40 Sekunden gibt es den Raytracing vergleich zwischen 7900xt und 4070 ti. Das ist ohne die neusten next gen Spiele, die deutlich mehr VRAM benötigen.
 
Zuletzt bearbeitet:
Echt jetzt? Da hÀttest Du auch den blinden LTT nehmen können. Einstellungen variieren so wie es ihm passt.
Man muss ja auch immer alles glauben was einem die Tester vorsetzen....selbst mal auf den Spielplatz zum Vergleichen kommen dann die wenigsten...und die die nicht kommen wissen meistens alles am besten.

Was hat diese Einstellung fĂŒr einen Hintergrund? Das beweißt nur, dass in Einstellung High auf 90FPS limitiert Karte XY so und so viel verbraucht.
high.png

Wer bitte schön spielt mit einer RTX 4090/RX 7900 XTX ein Cyberpunk in 1440p ohne Raytracing auf high...und dann noch auf 90FPS limitiert?
Der Schwurbler hat schon genug gezeigt... wie einen 1600X mit einer RTX 3090 in 720/1080p/mid. Kein Schwein spielt mit so einer Kombination und schon garnicht mit solchen Einstellungen.
 
Zuletzt bearbeitet:
Tun sie nicht, HU wĂ€hlt die Einstellungen so, dass sie möglichst nah am eigentlichen usecase sind, ohne ins CPU Limit zu rennen. Solange die Einstellungen bei allen Karten gleich sind, doch auch völlig in Ordnung. Aber das sagt viel ĂŒber deine ObjektivitĂ€t und Kenntnisse aus.

Wovon redest du eigentlich? Die 6800 ist einer der effizientesten Karten auf dem Markt. Hab ich kĂŒrzlich erst bei einem Kumpel undervolted. Igor hat genau zu der Karte ein gutes Video gemacht. Was du hier vom Stapel lĂ€sst, ist echt nicht auszuhalten, unreflektiert und in keinerlei Kontext zu irgendetwas.
 
Zuletzt bearbeitet:
Dem TE wĂŒrden allerdings sachliche Aussagen mehr helfen als eure persönliche PrĂ€ferenz zu Rot oder GrĂŒn inklusive Kritisieren der Meinung des anderen. Im Ausgangspost hat der TE ja schon angedeutet, dass Raytracing eine Rolle spielen kann. Der von ihm aufgezeigte Monitor hat Gsync UnterstĂŒtzung. Die Richtung ist damit also Nvidia.
 
Wan900 schrieb:
Wenn man Effizienz, Treiber und weitere Randparameter mal außen vor lĂ€sst und du rein nach der aktuellen Leistung entscheiden musst, ist es doch ne einfache Kiste:

Willst du Raytracing nimm die Nvidia, wenn nicht nimm die AMD.

Bei Raytracing (und konkret bei den 1% Lows) ist AMD noch mindestens 1Gen hinter Nvidia und liegt dort selbst unter einer 3080.
Weiß gar nicht was es hier zu diskutieren gibt.

Anhang anzeigen 1322950
Nimm Cyberpunk 2077 da raus sieht es eher zwischen 3090 und 3090TI aus....
 
Ja_Ge schrieb:
Dem TE wĂŒrden allerdings sachliche Aussagen mehr helfen als eure persönliche PrĂ€ferenz zu Rot oder GrĂŒn inklusive Kritisieren der Meinung des anderen. Im Ausgangspost hat der TE ja schon angedeutet, dass Raytracing eine Rolle spielen kann. Der von ihm aufgezeigte Monitor hat Gsync UnterstĂŒtzung. Die Richtung ist damit also Nvidia.

Da bin ich völlig leidenschaftslos was den Hersteller angeht. Hatte beide schon zu genĂŒge. Momentan wĂŒrde ich keine der beiden Hersteller in der aktuellen Gen kaufen wollen. Da Nvidia ja klar aufzeigt, wie das lineup aussehen wird, sind die genauso wie damals die 3070 mit 8 GB und die 3080 mit 10 GB raus, wie fĂŒr viele andere potenzielle KĂ€ufer auch. AMD mĂŒsste erst einmal die Treiber auf die Reihe bringen, dann wĂ€re eine 7800xt wahrscheinlich ab 3ten Quartal denkbar.

Soviel besser ist Nvidia in Sachen Raytracing nicht mehr. Besonders der erste unreal engine 5 Titel mit Raytracing hat gezeigt, dass AMD halt doch gut ist. Fortnite spiele ich zwar nicht, aber zeigt das es eine Sache der Implementierung ist. die UE 5 engine ist ja auch CD projects neue lizenzierte engine. Bin gespannt wie es dann in Zukunft aussieht.

Cyberpunk ist eine nette Machbarkeitsstudie. Besonders der Raytracing Overdrive Modus ist ja nett gemeint, aber in der Praxis Mal wieder Marketing fĂŒr den Verkaufsstart der 40er gen. Bevor die benötigte Hardware so gut verbreitet ist, dass der praktische Nutzen fĂŒr mehr als 3 Prozent der Gamer relevant ist, vergehen noch ein paar Jahre, also werden 99 Prozent der Studios es ohne Finanzspritze von Nvidia sicher nicht so implementieren.

Okay, wenn der Monitor tatsĂ€chlich nur gsync hat und kein freesync compatible von Nvidia bekommen hat, wĂŒrde ich auch eher zu Nvidia greifen. Hast du ja sicher ĂŒberprĂŒft, um eine fundierte Empfehlung treffen zu können?!

Edit: laut dem ersten Post vom Ersteller will er sich bald einen neuen Monitor kaufen. Modell und gsync wird gar nicht genannt. Hab ich was verpasst?
 
Zuletzt bearbeitet:
pookpook schrieb:
Nimm Cyberpunk 2077 da raus sieht es eher zwischen 3090 und 3090TI aus....
1. Warum sollte ich einen aktuellen Vorzeige-Raytracing Titel rausnehmen? Weils ein Nvidia Sponsored Titel ist? Im Umkehrschluss mĂŒsste ich dann aber auch alle AMD-Sponsored Titel, wie z.B. Metro, mit raus nehmen.

2. UnabhĂ€ngig davon sind auch bei anderen Raytracing-Titeln die 1%-Lows (welche nunmal fĂŒr ein Smoothes Gameplay enorm wichtig sind) eher auf oder hinter einer 3080. (siehe Screenshot unten).

1675955322071.png


Ich will keine AMD-Karte schlecht reden, aber wenn Raytracing, dann Nvidia.
 

AnhÀnge

  • 1675954973920.png
    1675954973920.png
    213,5 KB · Aufrufe: 103
Zuletzt bearbeitet:
Gerade die 1% Lows sind aber auch stark von dem Speicherinterface und genĂŒgend VRAM abhĂ€ngig. Hat Igor auch fortnite mit ue 5, Hogwarts und Forspoken getestet? Das wĂ€re ja Mal echt interessant. Ansonsten sind, wir wir seit Jahren wissen, die Testergebnisse immer stark von den getesteten spielen und den Einstellungen abhĂ€ngig. Deshalb unterscheiden sich die Ergebnisse der Tests immer so stark. Ich kann Tests von 5 Seiten nehmen und alle zeigen mir ein anderes Bild der gleichen Grafikkarte.

Ja, gesponserte Titel sind halt immer gefÀhrlich, weil sie das Bild verzerren. ZusÀtzlich ist Cyberpunk halt einfach eine Machbarkeitsstudie, wie bereits oben beschrieben. Die Anzahl der Leute, die das vor 2 Jahren voll aufdrehen konnten, war wahrscheinlich lÀcherlich gering.

Edit: es handelt sich bei der von Igor getesteten Karte um GeForce RTX 4070 Ti SUPRIM X 12 GB. Also dem absoluten Premiummodell von msi. Die wird sicherlich noch 150 Euro teurer als die UVP von 900 Euro sein. Die 1% Lows sind jetzt nicht so schlecht, als das man es krass merken sollte. Mal schauen ob die Treiber hier noch was drehen können.

Leider ist keiner der aktuellen Titel von Igor getestet worden. Leider nur ein Teilbild der Wahrheit.
 
Zuletzt bearbeitet:
C0rteX schrieb:
Hat Igor auch fortnite mit ue 5, Hogwarts und Forspoken getestet?
Hogwarts? Liegt sicher am Speicher.....;)

Hogwatrs.png

Nach Forspoken der nĂ€chste SoftwaremĂŒll der unoptimiert auf die Spieler losgelassen wird.
Raytracing on... Nvidia vor AMD kann man erwarten, aber bitte doch nicht so.
Da muss noch was vom Entwickler kommen.
 
Okay, ich verwende Mal deine vorherige Logik gegen dich und bezeichne die 4070 ti als MĂŒll, weil sie nur unspielbare 19 fps in 4 k schafft. 😉

Ich finde Tests in denen 1000 Euro Karten unter 45 fps erreichen, Mal als bedingt aussagekrĂ€ftig, aber du hast dich wirklich angestrengt etwas zu finden. 😂 RT ohne upscaling verwendet ja eher niemand, weshalb ich solche Benchmarks meist sehr uninteressant finde, weil nicht praxisnah.

Es gibt noch keine optimierten Treiber fĂŒr das Game. Mal schauen wie es danach aussieht. Gestern hat Nvidia einen neuen veröffentlicht, der es wohl nur schlimmer gemacht hat.

Das Raytracing in Hogwarts ist auch eher schlecht implementiert. Da wird bestimmt noch etwas daran gemacht. Die Optik durch RT sieht zum Teil eher mager aus. Mal sehen wie es in 3 Monaten mit ordentlichen Treibern aussieht. GrundsÀtzlich schlecht ist die grafische Umsetzung allerdings nicht.
 
Zuletzt bearbeitet:
Ich klinke mich hier mal aus, weil die Diskussion zu weit fĂŒhrt.

FĂŒr mich hat die neue AMD-Gen zu viele "Wenns" und "Abers" auch wenn der Speicher schön groß ist.

Falls aber dein BauchgefĂŒhl eher zu AMD tendiert, greif zu.

Was dir auch in der Entscheidung helfen könnte: Eher 4K oder eher 1440p mit RT?
Das könnte dich auch nochmal in eine bestimmte Richtung lenken.
 
  • GefĂ€llt mir
Reaktionen: BunkerKillar
Derzeit kann man eigentlich nur falsch liegen. Alles ist im Umbruch. In 3 Monaten sieht die Welt schon wieder ganz anders aus. Treiber, Patches, neue Games, unreal engine 5 und und und. Wenn du noch ein paar Monate warten kannst, kommt AMD vielleicht auch mit der 7800xt in die pushen. Die könnte vielleicht das rundere gesamtprodukt zu einem "vertretbaren" Preis (falls es sowas ĂŒberhaupt noch gibt) werden. Weiß aber leider auch keiner.
 
  • GefĂ€llt mir
Reaktionen: BunkerKillar
ich dachte die Antworten wĂŒrden vielleicht zu eine bestimmten GPU tendieren
wenn aber daraus eine Diskussion geworden ist sind die beide wohl in Ordnung
werde mir wohl einfach das beste angebot kaufen

danke fĂŒr eure hilfe
 
Die Frage ist leider nicht binĂ€r. Es gibt 50 Faktoren die dabei eine Rolle spielen können und subjektiv beurteilt werden. Wenn's sofort sein muss, dann wirst du definitiv ein Wagnis eingehen mĂŒssen.
 
C0rteX schrieb:
Okay, ich verwende Mal deine vorherige Logik gegen dich und bezeichne die 4070 ti als MĂŒll, weil sie nur unspielbare 19 fps in 4 k schafft. 😉
Meine Logik...weil ich das Spiel als SoftwaremĂŒl bezeichne? Muss ich nicht verstehen.
Anscheinend hast Du nur gesehen, dass AMD hinten liegt und Du deswegen sofort auf Angriff stellst.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Mathias_J
@C0rteX leider sind die meisten games mit meiner GTX 1070 kaum noch spielbar
Ich hatte mir eine RTX 3080 zum Release zur UVP gekauft die aber nicht geliefert wurde.
Nach zwei Wochen wurde mein Geld zurĂŒck erstattet und die Preise sind wie ne Rakete nach oben geschossen

als die Preise letzten Sommer normal wurden dachte ich mir warum sollte ich jetzt ein zwei Jahre altes Produkt zur damaligen UVP kaufen, die neuen gpus kommen ja im Herbst raus, aber fĂŒr ĂŒber 1000€

lÀnger warten mag ich halt nicht mehr, anfang mÀrz werde ich mir wohl einfach das beste angebot holen

aber danke fĂŒr die beratung
 
  • GefĂ€llt mir
Reaktionen: C0rteX
DaHell63 schrieb:
Meine Logik...weil ich das Spiel als SoftwaremĂŒl bezeichne? Muss ich nicht verstehen.
Anscheinend hast Du nur gesehen, dass AMD hinten liegt und Du deswegen sofort auf Angriff stellst.

Lies dir noch Mal dein geschriebenes in diesem Thread durch, und du wirst die 19 fps in deinen BeitrÀgen entdecken, auf die ich mich beziehe. Du hast mich offenbar noch nicht verstanden. Ist nicht so schlimm.

Hier aber Mal der neuste Test von Computerbase zum Thema 12 GB. 😉

https://www.computerbase.de/2023-02...itt_erst_ab_16_gb_ist_man_wirklich_sorgenfrei
 
@Wan900

Ja Raytracing is besser auf ein Nvidia Karte aber so schlecht ist es auch nicht auf eine 7900XT. Plus reicht die 12GB? Wenn ich sehe Forspoken und Hogwarts anschaue ist 12GB zu wenig.....

Und Thema Cyberpunk klar mit DLSS3 ist Nvidia deutlich besser aber FSR 3.0 kommt noch...
 
ZurĂŒck
Oben