Brauche ich eine 1000 Eur Grafikkarte?

Wenn es dir sehr um Starfield geht, solltest du eine AMD Radeon favorisieren. Denn so wie derzeit aussieht, wird Stafield kein DLSS anbieten.

Heise Artikel zum Thema Starfield vom 14.07.2023

Ob das dann irgendwann nachgereicht wird oder nicht, wird dir wohl keiner sagen können.
 
@Tuetensuppe mit wakü Umbau wenn richtig aber auch nur dann wenn Ziel bekannt.
 
AMD wird wohl diesen Monat, vielleicht auf der Gamescom, neue Grafikkarten vorstellen die bis Ende dieses Quartals in den Handel kommen sollen.
Da Starfield an 6.9. releast werden soll kann man erstmal die Tests der neuen Karten abwarten.
Welche Karten kommen weiß aber noch keine, die Gerüchte sprechen von:
RX 7700
RX 7700 XT
RX 7800
RX 7800 XT
oder sogar von einer RX 7950 XT
Aber bis ende Oktober sollen die Karten im Handel sein.
 
Ob du eine neue 1k Grafikkarte brauchst weisst du nur selber. Jedenfalls würde es mich wundern wenn eine 2080 mittlerweile trotz Dlss2 zu Kernschrott angehört und man nicht mehr damit akzeptabel zocken kann. Würde das Game erstmal anzocken und paar Patches abwarten und schauen wie es läuft.Erscheint mir nicht sinnvoll jetzt so eine Investition zu tätigen ohne das Game mal überhaupt angespielt zu haben; was wenns nicht Spass macht oder oder? Was Neues oder eine neue gebrauchte Karte kann man ja immer noch kaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha, TR2013 und Müritzer
Eventuell ist mein Kaufberatungsthread (https://www.computerbase.de/forum/threads/welche-rtx-4080-fuer-diese-anforderungen.2152084/) hier interessant. Ich habe recht ähnliche Anforderungen gehabt, wobei die Ausgangslage bei mir mit einer GTX 970 deutlich schwächer war. Aber ansonsten auch hohe Auflösung, ähnliches Netzteil und die gleichen Spiele. Bei deiner Karte könnte man auch erstmal ausprobieren wie es mit DLSS läuft und dann erst eventuell aufrüsten.
 
"Brauchen"? Nein, ganz bestimmt nicht.
"Wollen"? Vermutlich schon, sonst hättest du den Thread nicht eröffnet.

Deine RTX 2080 ist alles andere als langsam. Nutzt du denn auch DLSS? Bei deiner Auflösung ist das ausnahmslose Pflicht!

Ltcrusher schrieb:
Denn so wie derzeit aussieht, wird Stafield kein DLSS anbieten.
Aber FSR - und man bricht sich keinen Zacken aus der Krone, wenn irgendwo ein Pixel nicht ganz so "geil" wie mit DLSS aussieht.
 
  • Gefällt mir
Reaktionen: Müritzer
GrumpyDude schrieb:
Ich kann mich manchmal nicht rational entscheiden, treffe desöfteren eine Gefühlsentscheidung. Wenn ich bei Mydealz ein RTX4090 Angebot für 1500 sehe, überlege ich manchmal zu bestellen. Ich kann mir eine Graka auch für 1500 EUR leisten aber ich glaube nicht dass ich die wirklich brauche.
Mal als Gedankenanstoß:
Ich brauche ein Auto um auf dem Land zur Arbeit, zum Einkauf und sonstwas zu kommen.
Vom 10 Jahre alten Gebrauchten bis zum Mercedes Neuwagen ist die (Preis-)Spanne auch extrem groß.
Funktionell schafft das jedes Auto, also brauche ich auch nicht wirklich mehr.
Wenn man allerdings bei neuen Autos in einer Anzeige mal sieht, wieviele Stunde meines Lebens man dann im Auto verbringt ist die Frage eher, will ich es in der Zeit nicht schön haben?
Die Frage, bzw der Maßstab ist dann also eher ein anderer, als ein rationales Brauchen.
Was kann ich mir leisten, ohne woanders Abstriche zu haben und bietet es mir mehr Komfort?
 
  • Gefällt mir
Reaktionen: GrumpyDude
Ok hab mich jetzt ein wenig eingelesen und die Rasterizer FPS von 4070ti ist 3% weniger als bei der 7900XT.

Die 4070ti ist nicht viel teurer als die 7900XT. Die 4070ti hat weniger maximale Leistungsaufnahme.
Die 4070ti hat potenziell die besseren Features (bessere RT Performance, falls irgendwann bei einem SPiel wichtig) und DLSS schätze ich besser als FSR ein. Vor allem letzteres ist für mich ein Argument da ich bei Cyberpunk schon viel DLSS eingesetzt hatte und mir das gut in Erinnerung geblieben ist. Auch bei JA2 ist DLSS eine echte Hilfe.

Weiterer Nachteil der 4070ti ggü 7900XT: VRAM.

Nun die Frage: Wie wichtig ist VRAM?
Ich habe in diesem Forum oft um Kaufberatung gebeten und immer das Argument für VRAM für Radeon bekommen, bei verschiedensten Generationen.
Leider hat sich das VRAM Argument langfristig immer schwach erwiesen, da die GPU schon zu langsam wurde bevor es ins VRAM Limit kam. Ich erinnere mich an die lebhaften Diskussionen für 8GB Vram bei der 390X, die aber nicht wirklich wichtig war im Gegensatz zur damaligen Nvidia Generation.
 
Grovy schrieb:
mit den 600w könnte es eventuell etwas eng werden.
Es gibt keinen Grund ein 600 Watt Straight Power (Das Spitze afaik 650Watt sogar hat) zu wechseln. Nicht bei 4070Ti oder 4080. Auch nicht bei 7900ern.
 
Gortha schrieb:
Nicht bei 4070Ti oder 4080. Auch nicht bei 7900ern.
Du darfst nicht die Lastspitzen vergessen, eine 4080 kann da schon bis zu 408 W ziehen und dann noch die CPU die ja auch sowas macht. Nicht so hoch aber beide zusammen können schon mehr brauchen al das NT bietet.
 
GrumpyDude schrieb:
Ok hab mich jetzt ein wenig eingelesen und die Rasterizer FPS von 4070ti ist 3% weniger als bei der 7900XT.

Die 4070ti ist nicht viel teurer als die 7900XT. Die 4070ti hat weniger maximale Leistungsaufnahme.
Die 4070ti hat potenziell die besseren Features (bessere RT Performance, falls irgendwann bei einem SPiel wichtig) und DLSS schätze ich besser als FSR ein. Vor allem letzteres ist für mich ein Argument da ich bei Cyberpunk schon viel DLSS eingesetzt hatte und mir das gut in Erinnerung geblieben ist. Auch bei JA2 ist DLSS eine echte Hilfe.
Ich würde aufgruind des Technologievorsprings derzeit auch eher zu NVidia, also 4070Ti oder 4080 greifen.
Raytracing kommt immer mehr und da finde ich dise Argumentation "Aber in reinem Raster ist die AMD schneller" als Augenwischerei an. Denn es fehlt objektiv ohne RT einfach Grafikqualität, als wenn man sagen würde AMD reicht es in High zu Testen und die Ergebnisse mit NVIdia Ergebnissen die in Ultra enstanden sind zu verleichen.
Leider ist NVidia da einfach weit vorne - plus die Energieeffizienz. Meine 4070Ti braucht in WoT etwas unter 100 Watt bei 152FPS gelocked. UV sei Dank.
Ergänzung ()

Drewkev schrieb:
Das ist mittlerweile anders und VRAM kann man halt nicht ersetzen.
Wenn 12 GB in einer Auflösung ausreichen, dann bringen auch keine 16 GB oder 20 GB Vram mehr.
Zumal 12GB NVidia VRAm = ~14 GB AMD VRam sind.
Ergänzung ()

Müritzer schrieb:
Du darfst nicht die Lastspitzen vergessen,
Glaub mir, das NT hat damit NULL Probleme.
Abseits dessen macht jeder mit dem entsprechenden Wissen über die Vorzüge von UV auch Untervolting.
 
  • Gefällt mir
Reaktionen: wtfNow
Drewkev schrieb:
Das ist mittlerweile anders und VRAM kann man halt nicht ersetzen.
Konkrete Beispiele für Games bei denen die 12 GB einer 4070Ti nicht ausreicht? Vor allem bei meiner Auflösung (3440x1440) oder auch von mir aus bei 4K wobei ich mir wahrscheinlich keinen 4K Monitor in den nächsten 3-4 Jahren zulegen werde (finde 21:9 perfekt).
 
@GrumpyDude
Oh da gibt es einige, sogar einen ganzen Thread der sich nur dieser Thematik widmet. Wer das abstreitet ist einfach nicht auf dem aktuellen Stand, sorry.

Vor allem bei Games die erst kürzlich erscheinen werden oder sind merkt man das teils deutlich. Mit meiner RX 6900 XT und 2560x1440 bin ich selten bei unter 10GB, dabei spiele ich "nur" auf Hoch (Preset).
 
  • Gefällt mir
Reaktionen: GrumpyDude
Hab mal kurz überflogen, in dem Thread geht es allgemein um den VRAM Bedarf, nicht um "12GB sind heute schon viel zu wenig". Dabei wird da auch noch VRAM Reservierung und Nutzung gerne zusammengewürfelt.

Ich spiele aktuellste AAA Titel in UHD mit einer 12 GB Nvidia Karte, sofern verfügbar mit DLSS, jedes Spiel mit maximalen Texturen und alles läuft butterweich, Praxiserfahrung.
Wie denn auch wenn gerade erst frisch die 8GB Karten für immer öfter als zu wenig erklärt werden.
12GB sind 50% mehr, bis das nicht genug ist sind wir schon 2 Generationen weiter.

Trotzdem würde ich Tests zu Starfield abwarten... "AMD sponsored" kann viel ausmachen, im positiven wie im negativen.
 
  • Gefällt mir
Reaktionen: Apo, GrumpyDude und Gortha
einfach n weiteres Praxisbeispiel: hab ne 3080ti mi 12GB, spiele 4K meist mit DLSS Quality und lass mir über Afterburner immer die Stats anzeigen und Speicher läuft bei der nicht voll… alle Spiele laufen butterweich…vollgelaufen ist der bei meiner vorherigen 6900XT mit 16 GB bei Cod Warzone, was nach ca. ner halben Stunde zu Mikroruckeln geführt hatte. Generell war die 6900XT “ruckliger“ als die 3080ti, auch in anderen Spielen. Allerdings reicht mir die Leistung insgesamt nicht mehr so recht und auch ich überlege zu upgraden…

ich verstehe dich, dass du das Geld sinnvoll investieren willst, aber wie es der Großteil hier schon geschrieben hat…warte auf die Benchmarks des Spiels und entscheide dann… bei gleichem Preis würde ich aufgrund meiner Erfahrung immer zum Nvidiamodell greifen, aufgrund der preislichen Unterschiede macht sicher auch der Blick auf und (vllt auch für mich) der erneute Test mit einem AMD-Modell Sinn…
 
  • Gefällt mir
Reaktionen: Apo, GrumpyDude, Gortha und eine weitere Person
Zurück
Oben