News Grafikkarten-Gerüchte: GeForce RTX 4080 & RTX 4070 Ti stehen wohl vor dem Aus

Quidproquo77 schrieb:
Ich habe weniger Speichernutzung als auf meiner Radeon 7 und liege meist bei 7 bis 10GB.
Man kann auch etwas hassen (ohne das ich morgens mit geballter Faust aufwache) und versuchen halbwegs rational zu bleiben.

Ich habe nicht behauptet das in nem Jahr jedes einzelne Spiel bei 4k Probleme macht, aber die Frage ist halt ob man ne 1000 Euro Grafikkarte kauft um Aufbaustrategiespiele oder Counterstrike zu spielen, ich denke das man da AAA Titel spielen will.

Und nun erklär mir mal wieso Nvidia eine 4070ti mit 16gb verkauft wenn laut dir für 100% der Spiele in 4k immer unter allen Settings 12gb reichen wird?

Ich kann ein weiteres nennen, wo starke Probleme machte mit 12gb aber nicht so mit 16gb etliche Monate nach Release das RT Upgrade von Witcher 3. Es ist immer noch so das die 7900xtx trotz Nvidia favorisierten Test, mit Upscaling und max RT also beides Features wo AMD schlechter ist, trotzdem kann die 7900xtx gleich ziehen in 4k wobei bei Upscaling das ja eh fake 4k sind und Anfang jahr waren 12gb einfach ne katastrophe.

Jaja ich weiß nicht gut optimiert, aber die Liste der nicht gut optimierten Games ist sehr lang, und irgendwann wenn genug Leute 16gb haben wird nicht massiv nach optimiert mit Tricks um diese Speichergrueppel zu versorgen, genauso wie niemand mehr massiv Entwicklungszeit investiert um games mit 8gb ram gut zum laufen zu bringen.

Nachmal bitte spar dir ne Sachdiskussion ich spreche A ueber zukuenftige Games primaer, nenne aber hier und da ein paar aktuelle Beispiele weil wenn hier und da schon 12gb zum Problem werden kann das natuerlich nur schlimmer werden kann, oder glaubst das in 10 Jahren die Spiele weniger Hardware vorraussetzen wenn in 10 jahren nicht warum dann sollten sie in 1 Jahr weniger verbrauchen sie verbrauchen (brauchen) in 1 Jahr logischerweise mehr wie heute im Schnitt.

Und das 2. noch wichtigere Argument ist das Nvidia nun ueberhalb von 550 Euro nur noch 16gb verkauft ab naechstem Jahr, also Nvidia glaubt nicht das fuer solche Leistungsklassen 12gb reicht, oder sie verarschen die Kunden laut dir, das sie ueberteuerte Karten die billiger sein koennten mit komplett nutzlosen 16gb verkaufen und 20gb bei der 4080.

Zumal selbst wenn du recht haben solltest mein Hauptpunkt der war das die Kunden das offenbar mehrheitlich so sehen, sonst wuerden die 4070ti staerker verkauft und nicht hinter der 7900xtx und teils in Amerika hinter der 4090 liegen das selbe mit der 4080.

Zumal Witcher 3 ein Nvidia Gameworks Titel ist und alleine deshalb staerker auf Nvidia optimiert wird. Best case, Gameworks, RT und Upscaling und die 4070ti kann sich trotzdem nicht absetzen von der 7900xtx.
 
Zuletzt bearbeitet:
danyundsahne schrieb:
Genau aus dem Grunde, finde ich diese gezielte Abzocke auch sehr bedenklich und unterstütze den Laden nicht.
Wenn sich jemand ne GPU zu Release oder besser vor Release einer anderen holt, reicht ihm die Performance ja wohl. Da gibt es genau 0 Gründe später rumzuheulen. Zu Zeit X reicht die Performance.
Neue Generation wäre schlussendlich das selbe. Da jammert auch keiner rum, dass die alte GPU auf einmal selbst von billigeren geschlagen wird.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Camin und Leereiyuu
Eine 4070 Super wäre ein Upgrade von der 3070ti zu überlegen. Kommt nah an die 4070ti ran und für 3440x1440 sollten 12GB ggf. reichen. 4070ti Super ist dann wieder zu teuer ☹️
Will nicht mehr so viel Geld für Hardware ausgeben. DLLS3.5 macht viel her, besonders in Night City 👌🏻
Aber die 3070ti ist auch noch ok, jedoch gibt es zwischendurch paar Ruckler. Liegt bestimmt an RT obwohl Ultra-Performance an ist.
 
bondki schrieb:
Wenn sich jemand ne GPU zu Release oder besser vor Release einer anderen holt, reicht ihm die Performance ja wohl. Da gibt es genau 0 Gründe später rumzuheulen. Zu Zeit X reicht die Performance.
Neue Generation wäre schlussendlich das selbe. Da jammert auch keiner rum, dass die alte GPU auf einmal selbst von billigeren geschlagen wird.
Oh, wie lange lese ich schon Forenbeiträge...nicht nur hier auf CB....und überall das Gleiche wenn NV einen "Super" Refresh mit mehr Leistung und/oder VRAM bringt...
Die Kommentare wiederholen sich.

Klar, jammern nicht alle, aber doch so einige. Und immer wieder sind sie überrascht, dass NV sowas bringt :D

Jedes Jahr das gleiche ;)
 
Für die 4080 Founders Edition habe ich vor einem Jahr 1500€ gezahlt, die 4070 (TI) war noch nicht erschienen, 4080er Customs auch nicht. Muss sagen, ich habe zwar 16GB aber mit 12GB würde ich bei brandaktuellen Spielen auch noch gut zurecht kommen. Das 12GB zu wenig sind, das halte ich für ein Luxusproblem sozusagen. Und ich denke auch nicht, dass man viel mehr als 12GB brauchen wird, jedenfalls solange keine PS6 heraus kommt, denn auch die PS5 PRO hat "nur" 16GB Speicher für alles. (Ja ich weiß, kann man so nicht 1:1 vergleichen, ist aber ein Indikator für zukünftige Games.
 
  • Gefällt mir
Reaktionen: Experte18
stillermitlese schrieb:
Ich weiß nicht ich habe cyberpunk 2077 und alan wake 2 mit PT gezockt das kam mir sehr zu gute. Nvidia sind die einzigen die innovation antreiben das muss auch entlohnt werden
Und genau das ist das Problem. Alan Wake 2 ist doch ohne DLSS etc gar nicht mehr vernünftig spielbar von den FPS her. Da ist DLSS Fluch und Segen zugleich.
 
  • Gefällt mir
Reaktionen: feris
Wie warum? Weil die Entwickler (siehe Alan Wake 2) die Spiele beschissen programmieren und sich auf DLSS verlassen. Das ist faktisch gesehen Mist.
Das man das überhaupt noch erklären muss.
 
  • Gefällt mir
Reaktionen: feris, Galarius und McTheRipper
@Bügelbernd
In welchem Spiel sind Path Tracing und GI Raytracing denn großartig effizienter umgesetzt als bei Alan Wake 2?
 
  • Gefällt mir
Reaktionen: juwa, Quidproquo77, MrHeisenberg und eine weitere Person
stillermitlese schrieb:
gott sei dank damit sie die grafikfeatures weiter pushen können und dlss und was nicht sonst noch alles was uns gamern zu gute kommt :)
Ich versteh nicht, wie manche Menschen tatsächlich glauben können, dass proprietäre und dazu nicht von anderen lizenzierbare Lösungen etwas wären, wovon am Ende unterm Strich die Kunden profitieren.

Nvidia schadet den Entwicklern, die gezwungen sind mehrere Upscaling Lösungen zu implementieren, was einfach Zeit und Geld kostet, und den Spielern, die dann je nach Spiel und Grafikkarte sinnfrei Nachteile in Kauf nehmen müssen.
 
  • Gefällt mir
Reaktionen: feris, Lupin III und McTheRipper
Bügelbernd schrieb:
Wie warum? Weil die Entwickler (siehe Alan Wake 2) die Spiele beschissen programmieren und sich auf DLSS verlassen. Das ist faktisch gesehen Mist.
Das man das überhaupt noch erklären muss.
Das man nicht merkt das upscaling die zukunft ist und ue 5 nicht mal mehr einen nativen modus hat wie wir es kennen merkt man wie wenig ahnung du hast von dem was du da sagst.
Ergänzung ()

KurzGedacht schrieb:
Ich versteh nicht, wie manche Menschen tatsächlich glauben können, dass proprietäre und dazu nicht von anderen lizenzierbare Lösungen etwas wären, wovon am Ende unterm Strich die Kunden profitieren.

Nvidia schadet den Entwicklern, die gezwungen sind mehrere Upscaling Lösungen zu implementieren, was einfach Zeit und Geld kostet, und den Spielern, die dann je nach Spiel und Grafikkarte sinnfrei Nachteile in Kauf nehmen müssen.
Was inteerssiert ob proprietär? Was ändert das für dich als gamer? Welche nachteile ich sehe mehr fps bei besser bildqualität!! das ist wahnsinn :daumen:
 
Trelor schrieb:
In welchem Spiel sind Path Tracing und GI Raytracing denn großartig effizienter umgesetzt als bei Alan Wake 2?
Der nächste der es nicht versteht. Wahnsinn. Nochmal: Die Hersteller geben einen Mist auf ordentliche Programmierung ohne DLSS und sagen sich: "Ach, mit DLSS läuft das schon irgendwie".
 
  • Gefällt mir
Reaktionen: SweetOhm
@Bügelbernd
Aber hast du ein Beispiel eben dafür?

Der Trend aktuell ist es Rasterbeleuchtung als Option zu streichen und nur noch verschiedene Formen von Ray-Tracing anzubieten, als unordentliche Programmierung würde ich das nicht unbedingt werten.

Einen Temporalen Super Sampler nimmt man dann ja eh und allzu überzeugend fand ich TAA implementationen nie.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
stillermitlese schrieb:
Das ist unmöglich in einem Forum. Nvidia hat objektiv bei weitem die besseren Karten. Das ist Fakt.
Die bessere Karte (Einzahl) ! Und zwar "lediglich" die 4090.
Das "Gedöns" (RT, FG, DLSS, RR ........) ist nur was für Feature Junkies (um den längeren zu haben).
Schon mal was von FPS/€ gehört/gelesen (welche Leistung bekomm ich für mein Geld) ?!?
Wenn die 4090 (ca. 2000 €) mal außen vor lässt, hat AMD zu ihren Gegenspielern jeweils ein ebenbürtiges Produkt im Portfolio (meist sogar günstiger und mit mehr RAM).
Und das war auch früher schon so (RDNA3 vs. Ampere).
Genau das sind die Fakten !!
 

Anhänge

  • PL Index RT.jpg
    PL Index RT.jpg
    476,1 KB · Aufrufe: 76
  • Bench FPS € RR 2023.jpg
    Bench FPS € RR 2023.jpg
    421,4 KB · Aufrufe: 74
  • Bench FPS € RT 2023.jpg
    Bench FPS € RT 2023.jpg
    438,9 KB · Aufrufe: 71
  • Bench RR 2023.jpg
    Bench RR 2023.jpg
    452,6 KB · Aufrufe: 70
  • GPU Bench 2022.jpg
    GPU Bench 2022.jpg
    412,3 KB · Aufrufe: 79
  • Gefällt mir
Reaktionen: feris und Galarius
Bügelbernd schrieb:
Der nächste der es nicht versteht. Wahnsinn. Nochmal: Die Hersteller geben einen Mist auf ordentliche Programmierung ohne DLSS und sagen sich: "Ach, mit DLSS läuft das schon irgendwie".
Woran machst du das fest? Weil es nicht so performt, wie du es dir vorstellst?
Du verstehst es nicht.

SweetOhm schrieb:
Das "Gedöns" (RT, FG, DLSS, RR ........) ist nur was für Feature Junkies (um den längeren zu haben).
Deine Subjektive Wahrnehmung entspricht nicht den Fakten.
RT, DLSS, FG und RR sind Gamechanger, ganz gleich wie häufig die AMD-Elite es versucht runterzuspielen.
Selbst in diesem Forum liest man immer häufig von AMD Usern, die über die RT Leistung ihrer Karte enttäuscht sind.

SweetOhm schrieb:
Wenn die 4090 (ca. 2000 €) mal außen vor lässt, hat AMD zu ihren Gegenspielern jeweils ein ebenbürtiges Produkt im Portfolio (meist sogar günstiger und mit mehr RAM).
Und den Verbrauch/die Effizienz ignorieren wir einfach mal. Du legst dir die Faktoren einfach so aus, dass AMD besser dasteht und stellst es als neutral hin :freak:.
Features werden einfach so als nichtig erklärt, weil du sie persönlich nicht willst (warum wohl ;)).

@SweetOhm aka Onkel Föhn, wieso hast du dich eigentlich umbenannt? ;)
 
Zuletzt bearbeitet:
Bügelbernd schrieb:
Der nächste der es nicht versteht. Wahnsinn. Nochmal: Die Hersteller geben einen Mist auf ordentliche Programmierung ohne DLSS und sagen sich: "Ach, mit DLSS läuft das schon irgendwie".
Entweder du nennst konkrete Beispiele oder lässt es gleich bleiben.
Ich geb dir darüber hinaus noch nen Tipp mit:
Mit der UE ist der mehr Aufwand für dlss gleich null, weils direkt ein Plugin gibt.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
Couldn't care less, fasst es von mir aus gut zusammen.
Warte auf Blackwell oder RDNA4 (was ja leider wohl nur ein Midrange Chip wird?), die Gen ist viel zu teuer und ich hoffe, Intel kann noch n Wörtchen mitreden. Finde deren RT Leistung ansprechend genug, jetzt muss nur noch Rasterleistung kommen.
 
SweetOhm schrieb:
Die bessere Karte (Einzahl) ! Und zwar "lediglich" die 4090.
Das "Gedöns" (RT, FG, DLSS, RR ........) ist nur was für Feature Junkies (um den längeren zu haben).
Schon mal was von FPS/€ gehört/gelesen (welche Leistung bekomm ich für mein Geld) ?!?
Wenn die 4090 (ca. 2000 €) mal außen vor lässt, hat AMD zu ihren Gegenspielern jeweils ein ebenbürtiges Produkt im Portfolio (meist sogar günstiger und mit mehr RAM).
Und das war auch früher schon so (RDNA3 vs. Ampere).
Genau das sind die Fakten !!
dsfdsw.jpg


du hast selbst da ein amd logo als bild drinnen :lol: :volllol:.damit hat sich ja jede objektive diskussion erübrigt vor allem bei dem stuss den du geschrieben hast.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
stillermitlese schrieb:
dann bin ich glücklich abgezogen worden als ich alan wake 2 in voller pracht spielen durfte.:)
Und wie "glücklich" wohl all die 7900´er Besitzer sind WRC in voller Pracht günstig spielen zu dürfen ;)
 

Anhänge

  • WRC 4K.jpg
    WRC 4K.jpg
    659,4 KB · Aufrufe: 93
Nice Cherrypicking. Man kennt es ja nicht anders von dir Onkel Föhn.
90% der Spiele laufen auf Nvidia besser, also suchst du dir immer die Perlen raus, die auf AMD besser laufen und stellst sie als Allgemeingültig hin.
Blöd nur, dass WRC kacke ist und selbst bei den Fans der Serie nicht gut wegkommt.
 
  • Gefällt mir
Reaktionen: H6-Mobs
Zurück
Oben