News Nvidia GeForce RTX 3090 Ti: Erste Custom-Modelle von Asus, EVGA und Colorful

Also sehen wir bei der nächsten Generation dann 4 Slot Kühlungen :freak:
 
  • Gefällt mir
Reaktionen: GTrash81, aid0nex, Dimitri Kostrov und 2 andere
Axxid schrieb:
Komplett irre. Vor ein paar Jahren hat der ganze Gaming PC noch <500W gebraucht.
Das kann auch heute noch so sein. 6600XT und 5600X kombiniert komme ich mit einem Gesamtsystem etwa bei 200W-250W Vollast raus.
Den dreifach höheren Verbrauch, höhere Geräuschemissionen, massiv höheren Anschaffungspreis und größeren Dimensionen (Mini ITX System) muss einem 4K erstmal Wert sein.
Ich bleibe daher bei Full HD und schaue mit Sorge auf diese Entwicklung.
 
Nebuk schrieb:
aber wenn man sich die Leistungsaufnahme von über 500 Watt anschaut

Ja, das denke ich mir auch... mein persönliches Limit sind 160/170W (wie bei der RTX2060 / RTX3060).

Mit einem 500W Ölradiator lässt sich ohne Probleme im Winter ein 20m² Zimmer heizen. Für so eine Karte braucht es dann eine Wasserkühlung, wenn es ruhiger sein soll.
 
OldZocKerGuy schrieb:
Hat aber trotzdem noch immer gereicht.
Das ist ja die Ansichtssache. Im Wortsinne, was Optik und visuelle Immersion angeht.

Kingdom Come Deliverance z.B. sieht für ein 2018er Game z.B. noch top aus, vor allem dank HD Texturen und Ultra High Settings.

Aber diese Ultra High (bereits als "Future Hardware Settings" im Spiel deklariert) und Advanced Settings haben eine 1080Ti in UWQHD seinerzeit auf 15 (!) fps geschreddert (zur Erinnerung, das war die stärkste GPU als KDC released wurde) , eine 2080Ti auf unter 30 fps geknechtet und sogar mit der 3090 jetzt habe ich teilweise nur 50 fps, aber generell immerhin endlich über 60 im Schnitt.

Man "muss" nicht überall Ultra Settings haben, aber je nach für UWQHD und 4K werden die Leistungsanforderungen an die GPU weiterhin zunehmen und nicht weniger.

Eine 3090Ti wird für ein GTA VI maximiert optisch auch nicht mehr reichen. Vielleicht für 30 fps.
 
Also ich würde so einen Backstein nehmen... Für 1000 € und auf 250 Watt einbremsen :mussweg:

Etwas langweilig sind die Hersteller schon, altes Design nur 2cm Dicker.
Eine 40cm Karte mit Quadripple Lüfter wäre doch was :D
 
Oder einfach mit vernünftigen 120x25 mm Lüftern. :D
 
  • Gefällt mir
Reaktionen: stainless_steve, NMA und RaptorTP
CB-Andi schrieb:
Ich bin jedenfalls raus...... Ist den Unternehmen herzlich egal, das weiss ich.
Nicht nur den Unternehmen, dem Käufer genauso, sonst wäre die Nachfrage nicht so groß.
SavageSkull schrieb:
st doch eher die Frage, was du mit was vergleichst.
Nimmst du zb 200W und schaust dir die 200W Karte von der letzten Generation an, dann ist die aktuelle 200W Karte schneller und damit auch effizienter.
Die Performance pro Watt zu vergleichen mag zwar eine bessere Effizienz bescheinigen, nur kann das nicht im Sinne des Umwelt- und Klimaschutzes zu sein. Ich sehe eher ein Problem darin dass es für die Hersteller keinen Grund gibt den Verbrauch insgesamt zu senken.
Was nützt mir die beste Effizienz wenn ich am Ende mehr Verbrauche als vorher? Das macht wirtschaftlich für mich als Verbraucher schon keinen Sinn. Bei den Haushaltsgeräten klappt es ja auch wunderbar, es gibt gesetzliche Vorgaben und die Hersteller finden passende Lösungen dafür. Am Ende habe ich die gleiche oder bessere Leistung mit weniger Stromverbrauch und Kosten.

Das kann ich mir bei CPUs und GPUs genauso gut vorstellen gäbe es eine Obergrenze wie viel ein Chip maximal verbrauchen darf. Ich bin überzeugt dass die Ingenieure in der Lage wären z.B. die Leistung einer RTX 3090 mit max. 200W zu erreichen. Dafür müsste man halt mehr in Forschung und Entwicklung investieren und dafür gibt es derzeit überhaupt keine Anreize.
 
Geforce FX 3090 Ti Excellence Accelerator with RTX Ready

Das wäre doch mal ein Name.
Sind die dann auch alle 10 MHz schneller, wie die Standard Ti?
Ähnlich der RX 6500?
Ergänzung ()

Sturmwind80 schrieb:
Dabei soll doch Ende des Jahres schon die 4000er Reihe erscheinen und das mit einem 2fachen Performance Zuwachs...
Die zählt als Supercomputer und darf nur unter Auflagen ins Ausland exportiert werden hust
Ergänzung ()

Painkiller72 schrieb:
Ich meine war erwartest du denn ? Wer mehr Leistung will, der muss halt leider auch den höheren Verbrauch in Kauf nehmen.
Kurioser weise gab es tatsächlich mal Geforce Karten, wo der Nachfolger weniger Strom gezogen hat, trotz doppelten Takt
 
  • Gefällt mir
Reaktionen: GTrash81, aid0nex, Onkel Föhn und 4 andere
Rockhound schrieb:
Nimmt die Leistung pro Watt eher ab mit den neuen Karten?
Innerhalb einer Architektur ja. Es gibt einen Sweetspot und je mehr Leistung man aus der Arch pressen möchte, desto weiter entfernt man sich von diesem Sweetspot.
 
  • Gefällt mir
Reaktionen: GTrash81, GERmaximus, Fun_King2k und eine weitere Person
Sturmwind80 schrieb:
Dabei soll doch Ende des Jahres schon die 4000er Reihe erscheinen und das mit einem 2fachen Performance Zuwachs...
Wenn die Mining Leistung auch das doppelte ist, werden die wieder viele viele Monde nicht kaufbar sein.
Ergänzung ()

hahaqp schrieb:
Und hatte nur einen Bruchteil der Leistung.
Ja und nein.

90% plus hier nutzen ihren PC zum spielen. Und da hat sich grafisch wenig getan, nur die HW Anforderungen werden immer höher, um das gleiche wie vor 5 Jahren darzustellen.

Also braucht man die Mehrleistung nur für die Faulheit der Spieleschmieden.
 
  • Gefällt mir
Reaktionen: Shy Bell und Onkel Föhn
andi_sco schrieb:
Kurioser weise gab es tatsächlich mal Geforce Karten, wo der Nachfolger weniger Strom gezogen hat, trotz doppelten Takt

Nenn mir dazu mal ein Beispiel bitte, und komm mir jetzt nicht mit Hardware von vor 15 Jahren.
 
Ja im Winter macht die für mich schon Sinn da ich mit Gas heizen muss .
Aber um Himmels Willen nicht im Sommer da ist es warm genug :)

Aber dennoch kann ich ein paar Hardware Enthusiasten verstehen die 4K alles auf max haben wollen .
 
Wer will denn jetzt noch Ampere?
 
  • Gefällt mir
Reaktionen: stainless_steve, GTrash81, GERmaximus und 3 andere
netbuster21 schrieb:
Ich habe eine RX 6800 XT mit 300 Wat
Ich beitreibe meine 3090 FE mit UV und leicht reduziertem Takt. Habe maximal 300W (peak) dümpelt bei Volllast eher so um die 280W rum.
Das ist richtig Klasse
 
  • Gefällt mir
Reaktionen: Leereiyuu und Triky313
Es gibt sie also doch :)

Naja gut... mann, nich das ne 3080 immer noch viel zu viel Geld kostet.. braucht man an 3090 TI gar nicht denken... is ja mittlerweile wie "neue Küche ? ooder Grafikkarte ?" - "3 Wochen Urlaub auf Bora-Bora ? ooder ne kleiner Klumpen Silizium?"
 
  • Gefällt mir
Reaktionen: Onkel Föhn
CB-Andi schrieb:
Wäre es nicht mal an der Zeit zu versuchen mehr Leistung bei gleichem Verbrauch zu generieren?
Ja. Aber dazu müssten sie was neues machen. Nvidia selber hat nur (nach bisherigen Infostand) für die 3090ti gar nichts eigens geleistet. Der hauptsächliche Unterschied wird der schnellere Speicher sein und augenscheinlich hat der das Ziel (mehr Performance bei gleicher Leistungsaufnahme) verfehlt, weshalb jetzt die ganze Karte mehr schlucken wird.

Nochmal klar formuliert:
Es ist keine neue Gen, es ist irgendwas zwischen mehr Karten in der gleichen Gen und leichter Refresh. Leichter Refresh Minus trifft es ganz gut.
 
Zuletzt bearbeitet: (Nochmal klar formuliert)
Sturmwind80 schrieb:
Dabei soll doch Ende des Jahres schon die 4000er Reihe erscheinen
Soll und "Ende des Jahres" sind die natürlichen Feinde, wenn man jetzt eine neue Karte haben will und nicht erst irgendwann in einigen Monaten. Wer aus der Corona Geschichte nichts gelernt hat und hofft auf eine 4090 zeitnah zum Release und halbwegs zur UVP, der tut mir jetzt schon irgendwie leid.
 
  • Gefällt mir
Reaktionen: stainless_steve, iron_monkey und Trent
CDLABSRadonP... schrieb:
Ja. Aber dazu müssten sie was neues machen.

Was eine "Ti" noch nie war. Da wurde immer nur an der Mhz-Schraube gedreht und vielleicht noch ein bisschen mehr RAM draufgepackt und das wars.
Keine Ahnung wo auf einmal diese komischen Anforderungen herkommen, dass eine Ti jetzt was neues sein sollte...
 
Shio schrieb:
Nenn mir dazu mal ein Beispiel bitte, und komm mir jetzt nicht mit Hardware von vor 15 Jahren.
Klar, weil es bei so alter Hardware ja auch immer problemlos funktioniert hat.
Der Sprung von Geforce 256 zur 2 war einmalig, zeigt aber, das die Effizienz, auch durch einen besseren Fertigungsprozess, besser werden kann.
Und das erwarte ich irgendwo von allen drei großen Herstellern! Intel zähle ich schon mal dazu.

Das man mit den 100W der RX 6500 nicht weit kommt, empfinde ich schon etwas als traurig. Da wurde auf Teufel komm raus nur der Takt erhöht.
Und die Ryzen APU 4500 von @konkretor dürfte meinen 3500 leicht absägen. Allein durch mehr Effizienz.
 
Mir stellt sich auch die Frage, wozu man jetzt (Ende März) noch eine High-End-Ampere-Karte braucht für einen extrem hohen Preis...mit einer sehr hohen TDP? Die 4000er wird noch dieses Jahr released und die neuen Multi-Chiplet-GPUs von AMD auch (was ich als interessanteste GPU empfinde). Und ob dann verfügbar oder nicht, die Presse wird Benchmarks haben und man kann dann immer noch entscheiden ob es sich lohnt.

Zudem suche ich immer noch einen Adapter von 12VHPWR 16Pin auf die normalen 8er-Pin-Anschlüsse. Wer kauft sich denn für tausende Euro schlecht verfügbare High-End-Grafikkarten und stellt dann fest, dass er nochmal hunderte Euro für ein neues Netzteil ausgeben muss, was zwar vorgestellt, aber noch nicht auf dem Markt ist?

Und ein Adapter würde bei 3 x 8Pin auch nur 525W (3 x 150W + 75W) schaffen, wenn er in den Spezifikationen bleibt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Recharging
Zurück
Oben