Lohnt es sich in meinem Fall von 5060ti auf 5070 ?

Die Spielehersteller MACHEN bereits weniger Profit weil sie am Markt vorbei entwickeln mit dem AAA-Rotz - sie ändern aber ihre Strategie nicht, da die Leute immer noch das drölfzige Dumm Dumm COD jedes Jahr kaufen oder die immer schlechter werdende Soccer Simulation mit Glücksspiel integriert.

Nvidia ist der Consumer Markt komplett egal. Gemessen an dem was die im Datacenter Bereich verdienen ist der Consumer Markt ein Abschreibungsobjekt.
 
JMP $FCE2 schrieb:
Durch die RAM-Krise wird der Marktanteil der 8 GB-GPUs wieder steigen, und selbst der arroganteste, blauäugigste AAA-Hersteller kann es sich nicht leisten, die Massenkundschaft zu vergraulen.
Die Spieleentwicklung orientiert sich bei AAA-Spielen normalerweise an der leistungsstärksten Endverbraucherhardware ( = RTX 5090).
Die Spiele laufen doch trotzdem noch auf alter/schwacher Hardware, nur eben dann mit Verringerung der Texturauflösung bei zu wenig VRAM und/oder Verringerung der Renderauflösung.

Dass man theoretisch das Spiel auf 4K und Ultra stellen kann, bedeutet ja nicht, dass man das auch tun muss.
Ich habe in meinem Zweit-PC eine Arc A380. Selbst darauf laufen viele Spiele in 720p noch hinnehmbar.
Solche Spiele wie CS2 in 720p sind sogar auf dem IGP meiner CPU möglich.

Um einen WQHD, oder 4K-Monitor wirklich ausnutzen zu können, müssen es schon 16GB VRAM oder mehr sein. Einen 4K-Monitor finde ich keinen grundsätzlichen Fehler, denn man kann die Auflösung ja trotzdem herunterstellen.

Ob es einem Wert ist, für eine 5070 TI 300€ mehr zu zahlen, nur damit Nvidia draufsteht, muss man selbst entscheiden. ;)
 
rollmoped schrieb:
Die Spieleentwicklung orientiert sich bei AAA-Spielen normalerweise an der leistungsstärksten Endverbraucherhardware ( = RTX 5090).
Warum sollten sich Entwickler und Publisher an den Flagschiffen orientieren, welche (außerhalb dieses Forums) nur von einem winzigen Prozentteil der potentiellen Käufer genutzt werden? Zumal Desktop GPUs idr. schneller veröffentlicht werden als die Entwicklungszeit vieler moderner AAA-Titel dauert und die genauen Specs einer RTX 6090 oder gar 7090 den Entwicklern die heute an den nächsten großen Spielen sitzen, noch garnicht bekannt sind.

Die Spieleentwicklung orientiert sich daher an dem was der mit Abstand größte Teil der potentiellen Kundschaft nutzt: Die aktuelle Konsolengeneration. Darauf müssen die Spiele gut laufen und daran wird sich logischerweise auch orientiert und am meisten optimiert.
Alles darüber hinaus ist mehr oder weniger "netter Luxus", das erkennt man ja allein daran, wie überproportional viel mehr Leistung einzelne Grafikoptionen auf der maximalen Stufe gegenüber der zweithöchsten kosten, selbst wenn der optische Vorteil oft sehr gering ausfällt.
Zumal die Konsolen als "Orientierungsziel" auch den Vorteil bieten, dass sie im Vergleich zu Desktophardware recht lange konstant bleiben: Die PS4 kam 2013 auf den Markt und hatte selbst nach Release der PS5 2020 für einige Jahre relevante Nutzerzahlen.
 
Xes schrieb:
Warum sollten sich Entwickler und Publisher an den Flagschiffen orientieren, welche (außerhalb dieses Forums) nur von einem winzigen Prozentteil der potentiellen Käufer genutzt werden?
Weil es keinen Sinn ergibt, für IGPs zu entwickeln, nur weil die meisten das haben und dann kommen am Ende Texturen raus, die für 720p gedacht sind und in 4K wie Matsch aussehen.

Wenn du nicht mehr mit und für High End Karten entwickeln würdest, würdest du ja nur die Grafikqualität verringern und verhindern, dass man sie höher stellen kann. Du würdest also aktiv High End Karten davon ausschließen, Vorteile zu bringen (außer mehr FPS). Du würdest auch verhindern, dass Nvidia oder AMD bessere Gaming-Karten entwickeln (wozu denn dann auch?)
Warum sollte man das tun? Ich suche beispielsweise Spiele zum Teil auch danach aus, ob sie unter den graphisch attraktivsten sind. Ein Spielestudio würde sich da im Wettbewerb mit anderen Spielen selbst ins Bein schießen, wenn sie ihre Ultra-Grafik künstlich limitieren.
Leute mit langsameren Karten können mit gesenkten Details und Auflösung trotzdem erreicht werden.

Indie Spiele liefern in der Regel nicht aus Gutmütigkeit für Leute mit langsamen GPUs keine höhere Grafik sondern weil das Budget da oft nicht für AAA-Grafik eingeplant ist.

Dass die Leute schlechtere Grafikkarten kaufen, weil ihnen die High End Karten zu teuer werden, mag sein. Aber dass die Spieleentwickler ihre Grafik deswegen in Zukunft beschneiden, damit man mit schlechteren Karten noch auf Ultra spielen kann, bezweifle ich stark. Der VRAM-Verbrauch (auf Ultra) wird sicher weiter steigen.
 
Angesichts des Leistungshungers vieler moderner Spiele habe ich auch nicht den Eindruck, dass wirklich für die breite Masse optimiert wird. Vielleicht geben sich die Entwickler noch für die Konsolenversionen etwas Mühe, bei der Portierung für den PC ist das aber nicht mehr erkennbar. Mit jedem Jahr wächst gefühlt der Leistugnshunger der Spiele, obwohl es nicht jedes Jahr eine neue Konsole gibt.
 
rollmoped schrieb:
Weil es keinen Sinn ergibt, für IGPs zu entwickeln, nur weil die meisten das haben und dann kommen am Ende Texturen raus, die für 720p gedacht sind und in 4K wie Matsch aussehen.

Man kann Texturen einfach runterskalieren. Ein Spiel, das auf einer RTX 2070 oder dergleichen mit erträglichen Abstrichen nicht mehr vernünftig läuft, ist komplett am Markt vorbei entwickelt, und verdient einen Shitstorm.
 
rollmoped schrieb:
Die Spieleentwicklung orientiert sich bei AAA-Spielen normalerweise an der leistungsstärksten Endverbraucherhardware ( = RTX 5090).
Das würde mich wundern, denn erstens gibt es längst mehr Notebook-Gamer die auf irgendwas zwischen RTX 3050 Mobile und RTX 5070 Mobile zocken als Desktop-Gamer, und auch die Desktop-Gamer zocken in der Regel auf irgendwas zwischen RTX 3050 / RX 7600 und RTX 5070 / RX 9070.

Gerade die RTX 5090 ist ein absolutes Ethusiastenprodukt.
 
Mein Browser hat gerade eine richtig lange Antwort gelöscht daher hier nur die Kurzfassung:
rollmoped schrieb:
Der VRAM-Verbrauch (auf Ultra) wird sicher weiter steigen.
Auf Ultra ja, aber solange die aktuelle Konsolengeneration mit 16GB shared RAM auskommen muss und die vordersten Plätze der Steam Hardwareumfragen mit Nvidia Karten aus der x50, x60 und x70 aus verschiedenen Generationen mit idr. 8GB VRAM belegt sind, werden die Entwickler dafür Sorge tragen, dass ihre Spiele mit genau derartiger Hardware gut spielbar sein wird, denn das sind >90% der Kundschaft.

Gut spielbar bedeutet natürlich nicht zwingend, dass die Games mit einer 8GB x60 Karte auf alles in Ultra, 4K native und 240fps laufen, sondern aus Sicht der Entwickler mit derartiger Hardware subjektiv gut aussehen und gut spielbar flüssig laufen. Was das konkret in Settings und FPS bedeutet muss jeder Entwickler selbst entscheiden.

rollmoped schrieb:
Aber dass die Spieleentwickler ihre Grafik deswegen in Zukunft beschneiden, damit man mit schlechteren Karten noch auf Ultra spielen kann, bezweifle ich stark.
Nach oben hin wird man sich natürlich Gedanken machen wie viel Entwicklungs-, Implementierungs- und Optimierungsaufwand man in die höchsten Grafikoptionen steckt: Bessere Texturen sind ja vergleichsweise einfach implementiert. Aber kaum ein Entwickler dürfte den Aufwand treiben Dinge zu implementieren die viel Arbeit erfordern aber kaum jemand nutzen kann, selbst wenn sie mit einer x90 Karte deutlich besser aussehen und damit flüssig laufen könnten.
(Außer Nvidia winkt mit viel Geld um den Kram als Techdemo und Verkaufsargument für ebenjene x90 Karten bewerben zu können.)
Entsprechend bin ich mir sicher, dass derzeit schon einige Features aus der Planung von Spielen in der Entwicklung gestrichen werden, die optische Vorteile bringen könnten, es der Aufwand aber schlichtweg nicht wert ist wenn zu wenige Leute davon einen nutzen hätten, mangels tauglicher Hardware.

Würde man sich an der stärksten verfügbaren Hardware orientieren wären ja auch Features wie Full Raytracing bzw. Path-Tracing ja viel weiter verbreitet.
 
Zurück
Oben