News Nvidia GeForce RTX 3090 Ti: Erste Custom-Modelle von Asus, EVGA und Colorful

Shio schrieb:
Was eine "Ti" noch nie
Die erste lief tatsächlich mit optimierter Fertigung vom Band und war aber ebenfalls nur zur Überbrückung gedacht.
 
Palomino schrieb:
Die Performance pro Watt zu vergleichen mag zwar eine bessere Effizienz bescheinigen, nur kann das nicht im Sinne des Umwelt- und Klimaschutzes zu sein. Ich sehe eher ein Problem darin dass es für die Hersteller keinen Grund gibt den Verbrauch insgesamt zu senken.
Man muß sich auch mal vor Augen führen, von was wir hier reden. Das sind Gamergrafikkarten für den Einzelhandel. Die machen am Gesamtverbrauch von der IT, die in erster Linie ihre Energie in Servern verbrät und auch bei den Einzelkunden, die in Größenordnungen mehr mit Laptops und Tablets unterwegs sind, als mit Selbstbau Desktopsystemen, praktisch kaum etwas aus.
Auf die eine verkaufte Intel CPU, die 200W Spitze hat, werden mehrere hundert 15-35W mobile CPUs verkauft. Diese eine CPU zu limitieren, ändert absolut gesehen, nichts an dem Verbrauch der IT Gesamt.
Palomino schrieb:
Was nützt mir die beste Effizienz wenn ich am Ende mehr Verbrauche als vorher? Das macht wirtschaftlich für mich als Verbraucher schon keinen Sinn.
Frag mal Serverlandschaften, ob das für die als Verbraucher Sinn ergibt oder nicht. Wenn die einen Server hinstellen, der mit einer CPU doppelt soviel Leistung bei 1,5fachen Stromverbrauch bringt und dafür der alte Dual Sockel Server rausfliegt macht das für die einen ziemlich großen Sinn und die tauschen dann auch.
Für dich als Einzelperson, ist es ja freigestellt was du kaufst. Du kannst immer noch die neue Grafikkarte kaufen, die den gleichen Verbrauch hat, als deine alte, aber trotzdem schneller ist, oder du kannst eben auch mehr Strom verbrauchen und noch schneller werden.
Palomino schrieb:
Bei den Haushaltsgeräten klappt es ja auch wunderbar, es gibt gesetzliche Vorgaben und die Hersteller finden passende Lösungen dafür. Am Ende habe ich die gleiche oder bessere Leistung mit weniger Stromverbrauch und Kosten.
Naja das es da "klappt" würde ich nicht sagen. Die Vorgaben werden ins Lächerliche gezogen und die Hersteller müssen dann schummeln (ähnlich wie die Abgas vorgaben bei den Fahrzeugen). Das Ende sind dann Kühlschränke die noch giftigeres Kühlmittel haben und deren Pumpe deutlich überlastet ist und das ganze System früher kaputt geht, oder Staubsauger die Probleme mit Teppichen bekommen. Schön das der Vorwerk mit seiner extra angetriebenen Walze im Kopf das gut hinbekommt, nur kann/will sich nicht jeder den 800€+ Luxussauger leisten. Der 150€ Billosauger muß das auch schaffen können und darf hier nicht limitiert werden.
 
  • Gefällt mir
Reaktionen: Anakin Solo
Die Verbrauchswerte sind außerhalb meines Powerbudgets, bei 500Watt nur für die GPU bräuchte ich im Sommer zwangsläufig eine Klimaanlage und das ist es mir nicht wert.
Zudem waren viele der letzten PC-Ports auf die ich mich gefreut habe absolute Katastrophen (z.B. Final Fantasy VII Remake, Stranger of Paradise) - dann kann ich auch mit 200W auf der PS5 zocken, wenn ich dort eh das bessere Erlebnis bekomme.

Ich fürchte allerdings, dass sich die Karten trotzdem gut verkaufen werden.

Wird dann wohl eine RTX 4060(Ti) für mich, die dürfte dann wohl bei 300W liegen....
 
  • Gefällt mir
Reaktionen: guillome und Recharging
Shio schrieb:
Keine Ahnung wo auf einmal diese komischen Anforderungen herkommen, dass eine Ti jetzt was neues sein sollte...
Nur, damit wir nicht aneinander vorbeireden: Diese komische Anforderung stammt von @CB-Andi.
Mit diesem Satz...
CDLABSRadonP... schrieb:
Ja. Aber dazu müssten sie was neues machen.
...sollte klargestellt werden, dass es eben keine neue Gen ist.

Anderes Subthema:
Shio schrieb:
Was eine "Ti" noch nie war. Da wurde immer nur an der Mhz-Schraube gedreht und vielleicht noch ein bisschen mehr RAM draufgepackt und das wars.
Nein. Bereits die allererste 560ti, die erste moderne ti, war ganz anders geschnitten. (Vollausbau des Refresh-Chips direkt zum Start) Ohnehin hat das ti-Kürzel kein System bei Nvidia.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus und Shio
Ich versuche es noch einmal und so, dass das hoffentlich nicht wieder als Off-Topic abgeschossen wird:

Gibt es einen Grund warum gerade jetzt Karten mit Rekordwerten beim Verbrauch angekündigt werden?

Oder noch spezieller, warum man jetzt diese Karte ankündigt?
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Laphonso
andi_sco schrieb:
Klar, weil es bei so alter Hardware ja auch immer problemlos funktioniert hat.
Der Sprung von Geforce 256 zur 2 war einmalig, zeigt aber, das die Effizienz, auch durch einen besseren Fertigungsprozess, besser werden kann.

Was kommt als nächstes? Wir vergleichen Fortschritte im Autobau von 1930?
Einfach lächerlich so Steinzeithardware als Vergleich zu nehmen.
 
  • Gefällt mir
Reaktionen: JohnDeclara
Rockhound schrieb:
Nimmt die Leistung pro Watt eher ab mit den neuen Karten?
Da Nvidia auch den Fertiger wechselt, von Samsung 8nm auf TSMC 5nm, wäre selbst eine Effizienz auf Augenhöhe ein Armutszeugnis.
Samsungs 8nm waren schon schlechter als die bisherigen 7nm von TSMC.
Eine Unbekannte bleibt halt noch wie Nvidia ihre Karten einstellt, bzw. zu was sie von der AMD Radeon Konkurrenz gedrängt werden.
Besonders die Modelle 3070Ti und 3080 (oder jetzt 3090Ti) haben bisher gezeigt:
a) das stock Powerlimit ist bereits deutlich überm Sweetspot (mindestens 15%)
b) GDDR6X Speicher verbraucht auch mehr als er Performance bringt
c) Ich finde auch, dass alle RTX3000er sich deutlich mehr Spannung nehmen, als sie brauchen. Im Umkehrschluss kann ich mich kaum an eine Nvidia Generation erinnern die so dermaßen viel Undervolting Potenzial hatte.

Es hängt also von Nvidia selbst ab wie sie ihre Karten einstellen oder positionieren müssen.
Spätestens als User hat man die Möglichkeit mit Hand anlegen eine extrem effiziente Karte hinzukriegen.
 
  • Gefällt mir
Reaktionen: GTrash81, CDLABSRadonP... und Sturmwind80
Wenn die Karten wirklich alle soviel verbrauchen, fände ich einen Vergleichstest mit Powerlimit (200 Watt oder so) echt interessant, weil auf mehr als 250 Watt hab ich definitiv keinen Bock.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
  • Gefällt mir
Reaktionen: GERmaximus, Onkel Föhn, Dai6oro und 2 andere
Bin auf die Tests gespannt, bei der Abwärme müssen die Kühler am Ende ja immer mit ziemlicher Drehzahl laufen... Oder riesig groß werden oder beides :evillol:
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wattwanderer schrieb:
Gibt es einen Grund warum gerade jetzt Karten mit Rekordwerten beim Verbrauch angekündigt werden?
Weil wir an den derzeitigen physikalischen Limits sind in der Fertigung der Dichte bzw. Konzentration der Chips, Technik und Architektur an sich.

Die aktuellen Demos der Unreal Grafikengine z.B. zeigen wohin die Reise geht.

Man kann sich eine superbe GPU wie z.B. die 1080TI aus vergangener Zeit (ein halbes Jahrzehnt alt...) irgendwann nicht mehr schönreden, wenn man in aktuellen Games die Transition zu UWQHD und 4K Gaming und alles jenseits der High Settings haben möchte. Und/oder Raytracing.

Um diese Power zu fluten steigen die Verbrauchswerte am äußeren Ende des High End leider nicht mehr linear zur Leistung.

Wer die 3090 GPU Power für 300 Euro und 200 Watt haben will, muss wohl dann eben noch 4,5 Jahre warten auf eine Nvidia 5060 oder so.
Dann reicht das aber nicht für 4K Gaming (jenseits von High Settings) in 2026, das ist das Dilemma. Und hat auch nicht die 24GB VRAM wie die 3090 heute.


Edit: Und eine 3090Ti wirkt dann "mäßigend" auf die Nvidia 4000er GPUs im Herbst, weil wir da auch zahlreiche GPUs jenseits der 300 Watt "Mauer" erwarten, mindetens ab der 4080 aufwärts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: t3chn0
@CDLABSRadonP...
Für die 3090 vs. 3090Ti reicht ja ein schneller Vergleich der FE
Shader: 10496 vs. 10752 (+4%)
Boost Takt: 1695Mhz vs. 1860 (+9%)
Speicherbandbreite: 936GB/s vs. 1008GB/s (+7%)
TDP: 350W vs. 450W (+28%)

Kann also nur noch schlimmer werden :freak:

Echt schade, dass Asus bei einer 500W Karte wieder den Luftkühler wählt, ich hätte erwartet die 3090Ti bringen sie nur als Strix LC.
 
Painkiller72 schrieb:
aber leider erwartet jeder Käufer eine potenzielle Leistungssteigerung gegenüber seiner Vorgängerkarte.
Also ich denke das liegt doch in der Natur der Sache dass man von einem Nachfolgeprodukt mehr erwartet als vom Vorgänger. Wäre ja schlimm wenn das nicht so ist.
Ergänzung ()

RaptorTP schrieb:
"normalerweise" ist Optik ja Geschmackssache. Aber EVGA schafft es irgendwie selbst die Top of the Line Karte wie Ramsch aussehen zu lassen.
Haha, ja da bin ich absolut bei dir. :D
 
  • Gefällt mir
Reaktionen: RaptorTP
Also solange Karten in der oberen Mittelklasse keine 600W ziehen ist für mich alles gut. Die angesprochene ist ja für absolute Enthusiasten die die letzten fps aus ihrem System kitzeln wollen. Hoffe der neue ATX-Standard ändert das auch nicht.
 
Früher dachte man, dass mit jeder Fertigungsstufe und Generation mehr Leistung bei weniger Verbrauch daher kommt... das war so bis zur Pascal Serie so stimmt's?!

Tja... 2+C Grad incoming und die Firmen drehen an der Leistungsschraube. Durch „Rt Cores“(u.ä.) und immer noch grottig optimierten Games steigt der Verbrauch immer weiter.
Weil sie es nicht hinbekommen gibts dann noch Dinge wie DLSS und FSR etc.

Wer hätte das vor 5-6 Jahren gedacht...
 
  • Gefällt mir
Reaktionen: GTrash81, Alphanerd, Onkel Föhn und eine weitere Person
Shio schrieb:
Was kommt als nächstes? Wir vergleichen Fortschritte im Autobau von 1930?
Einfach lächerlich so Steinzeithardware als Vergleich zu nehmen.
gelöscht

Immerhin wurde nicht nur die Effizienz gegenüber dem Vorgänger wesentlich verbessert, sondern auch nochmals innerhalb der Reihe.

gelöscht


Nur, weil es in neuerer Zeit nicht anders gemacht wurde, heißt es nicht, das es nicht besser geht.
Nicht umsonst habe ich geschrieben, das der Sprung vom Ryzen 3500 zum 4500 merkbar ist und sich gut in den Benchmarks widerspiegelt.
Und das ist definitiv keine "Steinzeithardware"
 
Zuletzt bearbeitet: (Entschärft)
Also mit Verzicht auf das ganze RGB-Bling-Bling könnte man schon mal ein paar Watt sparen... Bald haben Mainboards dann nur noch einen PCI-e Slot, da der Rest vom x-Slot Kühler der Grafikkarte verdeckt sein wird... Da hilft wohl nur mal ein Auge auf die zukünftigen Intel-GPUs zu werfen...
 
andi_sco schrieb:
Du, dann lass es und stell dich bockig in die Ecke.

Immerhin wurde nicht nur die Effizienz gegenüber dem Vorgänger wesentlich verbessert, sondern auch nochmals innerhalb der Reihe.

Das ist halt total hirnrissig sowas zu vergleichen.
btw, wenn man nur von der Fillrate ausgeht, sind heute Grafikkarten um einiges effizienter als deine so geliebte Steinzeithardware.
andi_sco schrieb:
Das es den Horizont einiger Menschen schnell überschreitet

Ja deiner ist anscheined überschritten wenn man sich nur in der Vergangenheit befindet.

andi_sco schrieb:
Nur, weil es in neuerer Zeit nicht anders gemacht wurde, heißt es nicht, das es nicht besser geht.

Machts einfach besser 4Head. :freak:

andi_sco schrieb:
Nicht umsonst habe ich geschrieben, das der Sprung vom Ryzen 3500 zum 4500 merkbar ist und sich gut in den Benchmarks widerspiegelt.
Und das ist definitiv keine "Steinzeithardware"

Du willst mir gerade verkaufen das der Sprung sich gut wiederspiegelt?
Der Mittelklasse 3400G ist gerade mal 14% langsamer als die Highend APU die 1.5 jahre später gestartet ist.
1648464911115.png
 
Mensch bei solchen Wattzahlen sollte wohl jeder von uns in 4 Solar Balkonkraftwerke investieren, damit wir unser Hobby in solchen Dimensionen in Zukunft noch rechtfertigen können über den Tag :D
 
  • Gefällt mir
Reaktionen: fox40phil, 7r1c3 und Onkel Föhn
Zurück
Oben