Test Nvidia GeForce RTX 3090 im Test: Die größte GeForce für eine kleine Zielgruppe

Mr Peanutbutter schrieb:
Die 3090 kann aber kein DLSS 3, und av1
AV1 können beide nur decoding kann bis jetzt sowieso nur Intel ARC wie DP 2.0 mit 8k auch Intel only ist. 😉
 
RitterderRunde schrieb:
Die RTX 3090 kostet jetzt oft 1099€ sollte sie jetzt die Tage auf 999€ neu fallen, wäre es doch ein guter Deal oder?

Weil die 4080 12GB soll laut Nvidia langsamer sein als die 3090 zum Beispiel und zudem teurer

Empfinde ich als den deutlich besseren Deal, so wie schon die 2080ti zur 3070 (8gb)
Nur das die 4000er diesesmal auch mehr Features hat.

Zwischen 2000 und 3000 gab‘s ja keine fehlenden Features.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coeckchen
RitterderRunde schrieb:
Welche GPU fandest du damals besser?
Auch noch heute:
Die 2080ti
Mehr Speicher, deutlich mehr Leistung wenn man oc betreibt (beide natürlich),
Real preis.
Keinen Nachteil bei den Features.
Mehr Speicher mehr Potenzial


Wobei die 3070 zur uvp auch gut gewesen wäre in 2020, gab‘s nur leider nicht. Und jetzt Ende 2022 noch 8gb?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
ich finde sowieso krass, das die 4080 16GB einfach mal 1600€ kostet...

Wenn du also mehr Speicher willst als eine 4 Jahre alte 2080Ti ... muss man soviel auf den Tisch hauen.

Bin gespannt was noch passiert, denn nämlich zwischen der 4080 16gb und der 4090 ist ein riesengroßer Leistungsgap... Rieche ich da eine "Super/Ti"?
 
Ich habe mir heute eine PNY 3090 bei einem Händler (gebraucht) für 800€ bestellt. Wird richtig durchgetestet und falls mir was auffällt geht sie halt wieder zurück. Der Preis war aber top und bin gepannt!
 
  • Gefällt mir
Reaktionen: Maxminator
Genau das meine ich und ich habe den Eindruck das viel VRAM für baldige Zeit Standard wird.
 
Nur so am Rande meine MSI 4090 ist heute gekommen meine FPS in Hunt Showdown sind quasie verdoppelt und ein kleiner Blick in BF2042 dort ging es von 100 auf 140 FPS und hänge im CPU Limit, wenn man Raytracing einschaltet sinken die FPS kein Stück erst wenn man Upscaling nutzt bekommt man die Karte Down.
 
  • Gefällt mir
Reaktionen: Affenzahn
Die Leistungsaufnahme schreckt mich irgendwie total ab bei der 3090.

Zudem hat Nvidia letzte Woche die Performance Tabelle von der 4080 12GB und 16GB veröffentlicht.

Bei Raster ist die 4080 12Gb praktisch gleich schnell wie die 3090 Ti.

Mit 285W Leistungsaufnahme zudem knapp 100W weniger als die 3090 oder 150W weniger als die 3090 Ti.

Will sagen, eigentlich will ich mittlerweile nur noch 4080 12GB bzw. 4070 für unter 1000€

Dann noch UV dann bin ich bei unter 250W locker.

Ergo 3070 Niveau mit viel mehr FPS. 🥹

Aber bis die 4070 kommt wird noch viel Zeit vergehen. Ich rechne min 6 Monate.
 
@RitterderRunde

So jetzt sind die Monate vergangen ,die Karten teilweise erhältlich ,der Preis hoch ,aber du hast trotzdem nicht gekauft ,was wird es nun für eine GK ?
 
Ziel ist aktuell folgendes:
4090 FE (denn bei mir passen nur 3 Slot GPUs rein) + Winkel Adapter für den 12V Anschluss.

Beides bekomme ich aktuell nicht…
 
Passen beide in mein Gehäuse nicht.

Ich benötige den 90° Adapter den man nirgendwo bekommt^^
 
War sie kurz zu haben????
 
Welche der beiden GK wäre euch mehr Wert, wenn ihr ohne Mehrkosten wählen könntet RTX 3090 oder RTX 4070ti ?
 
absolut die 3090. sie wird langfristig auch besser performen. 24gb ist einfach nice
 
  • Gefällt mir
Reaktionen: Affenzahn
MDRS66 schrieb:
Welche der beiden GK wäre euch mehr Wert, wenn ihr ohne Mehrkosten wählen könntet RTX 3090 oder RTX 4070ti ?
die Frage der Frage jede Gen. Die 3090 hat mehr Vram. Die 4070ti hat mit 12gb ausreichend Vram und die Stärke von DLSS3, nutze ich sehr gerne weils sämtliche CPU Bottlenecks ausradiert. Flight Sim auf 120fps von 40 in New York ist schon nice. Zudem haben sämtliche 4000er einen deutlich besseren Kühler. Glaub ich würd die neuere nehmen.
 
DLSS3 ... ist zwar nice, aber nur wenige Games supporten es.

Ich würde es stark abhängig machen, "Was du spielst".

Spielst du Fortnite? Dann 3090 z.B.

Fortnite unterstützt nicht mal mehr DLSS 2.0 seit November.
 
Zurück
Oben