News GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt?

ThirdLife schrieb:
Der Cache zieht genauso Saft wie ein IF.

Das genau zu beziffern fällt natürlich schwer. Ich denke schon, dass auf den Gaming Ablegern ein kleineres Interface plus IC etwas effizienter ist. Am Ende muss man das aber wieder in der Gesamtheit sehen. Bei Nvidia dürfte auch der recht hoch getaktete GDDR6x einiges schlucken. Ob das Interface da dann noch den Braten fett macht, wage ich auch zu bezweifeln, zumal der GA102 schon nicht ganz klein ist und mit viel Cache noch ein Stück größer gewesen wäre, bei einer zumindest anfänglich nicht so optimalen Ausbeute bei Samsung. Was macht das im Gesamtverbrauch aus und welche Nachteile erkauft man sich damit wieder. Schwer als außenstehender zu sagen, aber sagen wir so, der heilige Gral ist es auch nicht, je nach Anwendung aber sicher eine gute Überlegung. Das AMD nicht bei allen Produkten darauf setzt und Nvidia es nicht einfach übernimmt sollte ganz gut zeigen, dass es eben nicht für alle Bereich das Mittel der Wahl ist. Es ist immer ein Trade-off und da sitzen auf beiden Seiten gut bezahlte Ingenieure, die das optimale für den anvisierten Einsatzzweck rausholen.

ThirdLife schrieb:
Technisch gesehen klingt letzteres für mich performanter, weil man als Tradeoff höchstens leicht höheren Verbrauch hat, wenn überhaupt, aber nicht auf Seiten der Leistung einsparen muss.

Ja dürfte es auch wirklich sein. Ein Grund wird sein, dass Nvidia die Chips deutlich breiter aufstellt und mit einem Chip sowohl im Computebereich punkten möchte, als auch Gamingkarten daraus baut. Bei RDNA2 sieht man ja ganz gut, dass sie außer beim Gaming oftmals ziemliche Krücken im vergleich sind. Da treffen zwei unterschiedliche Designphilosophien aufeinander. Der hybride Ansatz kostet etwas Energie und etwas Chipfläche. Bei der Anzahl an Rechenwerken dürfte das aber gut vertretbar sein, denn so ein riesen Chip ist auch nur effizient, wenn man die Rechenwerke bei Laune hält und sich nicht der halbe Chip langweilt, weil die Daten nicht nachkommen. In der Gesamtrechnung dürften die Nachteile nicht so groß sein, wenn man die Leistungsaufnahmen anstrebt, die aktuell durch die Gerüchteküche geistern. Da kann ich dann verstehen, wenn man die letzten paar Watt opfert um dann in allen Lebenslagen beim Speicher ruhe zu haben.
 
  • Gefällt mir
Reaktionen: ThirdLife
Das wird doch immer irrwitziger...

Und das schlimme ist ja, dass die ganzen Soy-Devs mit ihren Baukästen NOCH schlampiger in der Programmierung sein dürfen, weil der Endverbraucher hat ja die Rechenpower. Und irgendwann brauchen stinknormale Websites vor lauter Bloat Ryzen 7 CPUs und RTX Grafikkarten nur um überhaupt mit dem dahingeschlotzten Bloat klarzukommen :D
 
  • Gefällt mir
Reaktionen: Shoryuken94
Was kommt nach "Titan"? Alles über der 1kW-Klasse nennt sich dann "Celestial". Die gibt es dann aber nur noch per Zuteilung und bevorzugt für Leute mit Photovoltaikanlage > 10 m² auf dem Dach.
 
Shoryuken94 schrieb:
Ja dürfte es auch wirklich sein. Ein Grund wird sein, dass Nvidia die Chips deutlich breiter aufstellt und mit einem Chip sowohl im Computebereich punkten möchte, als auch Gamingkarten daraus baut. Bei RDNA2 sieht man ja ganz gut, dass sie außer beim Gaming oftmals ziemliche Krücken im vergleich sind. Da treffen zwei unterschiedliche Designphilosophien aufeinander. Der hybride Ansatz kostet etwas Energie und etwas Chipfläche. Bei der Anzahl an Rechenwerken dürfte das aber gut vertretbar sein, denn so ein riesen Chip ist auch nur effizient, wenn man die Rechenwerke bei Laune hält und sich nicht der halbe Chip langweilt, weil die Daten nicht nachkommen. In der Gesamtrechnung dürften die Nachteile nicht so groß sein, wenn man die Leistungsaufnahmen anstrebt, die aktuell durch die Gerüchteküche geistern. Da kann ich dann verstehen, wenn man die letzten paar Watt opfert um dann in allen Lebenslagen beim Speicher ruhe zu haben.
Das ist eben genau der Knackpunkt, nVidias Karten sind eigentlich Datacenter Derivate die man mit Takt und Strom auf Gaming-Leistung prügelt. AMD hat hier spezifisch für den Gaming Bereich designed und bietet mit den Instinct Karten ein separates Design an.
 
  • Gefällt mir
Reaktionen: Shoryuken94 und sikarr
ThirdLife schrieb:
Der Cache zieht genauso Saft wie ein IF.
Nicht genauso. Ein näher am Chip liegender Cache, der einen großen Teil der VRAM-Zugriffe abfangen kann, verbessert die Effizienz, weil die Datenübertragung hier weniger Energie kostet.

Shoryuken94 schrieb:
Verstehe ich nicht. Das macht keinen Unterschied, du kannst höchstens minimal eine ungleichmäßig aufgeteilte Bestückung etwas verschleiern, macht AMD aber auch nicht. Für eine gleichmäßige Bestückung kommt es am Ende nur auf die physischen Speichercontroller an.
Wenn du durch Cache genug RAM-Zugriffe abfedern kannst, kannst du das Speicherinterface verkleinern. Wenn nicht, brauchst du ein größeres Interface.
Die Größe vom Interface, die du aus Performancesicht haben möchtest, passt aber nicht immer zur Interfacegröße für die Speichermenge, die du gerne realisieren würdest.

Mit einem großen Cache kann man die beiden Faktoren ein Stück weit voneinander entkoppeln. AMD zeigt das doch bei den RX 6000ern sehr schön. Die großen Karten bis hin zur 6900XT haben alle nur ein 256 Bit Interface, was prima zu 16 GB Speicher passt. Ohne Infinity Cache wären die 256 Bit hier völlig unterdimensioniert.
 
  • Gefällt mir
Reaktionen: Shoryuken94 und ThirdLife
Es verbessert die Effizienz sicherlich, aber ist eben auch kein Allheilmittel. Ich bin echt gespannt auf den Schlagabtausch mit den neuen Karten.

Zugriffe abfangen ist aber auch nur limitiert möglich innerhalb der Cache Size, eben je nachdem wieviel nachgeladen werden muss kann das auch schnell unschön werden oder in bestimmten Anwendungen limitieren.

Die Frage ist, was würde ein grösseres IF den Radeon Karten noch bringen ? Hängt sicherlich auch stark vom Design der Arch ab. Evtl. profitieren die dann gar nicht so stark davon, nVidia aber schon ? Da bin dann leider raus vom Verständnis her.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Gast12345 schrieb:
Inwiefern sind die Energiepreise denn relevant für den Käufer einer 2.500€ GPU?
das müssen die jeweiligen Käufer für sich festmachen. Es ist doch aber nicht nur der Chip an sich, es ist doch auch noch mehr drum herum. Kühlung, Lautstärke, Platz. Dazu kommen CPUs und Boards die auch immer mehr ziehen. 8€ mögen nicht viel sein aber ich dachte auch mal bei den Spritpreisen "was regen die sich über 2ct mehr oder weniger auf" seit ich ein Auto habe weiß ich es ;)
AYAlf schrieb:
Mit 900W könnten die neuen Karten auch für Miner unerschwinglich werden.
Ach das ist die Miningbremse, na dann bin ich dafür :D
domian schrieb:
Und wie soll dieses "Umdenken" aussehen - Stagnierende Leistung und einzig Effizienzsteigerung durch Strukturverkleinerung und Design im einstelligen Prozentbereich? Dafür dann aber bei der neuen Generation richtig blechen müssen? Sowohl betriebswirtschaftlich für die AGs als auch für die Käufer ein unbefriedigendes Szenario.
ka, bin kein Chipdesinger. Weniger Energieverbrauch bei gleicher oder Steigender Leistungsaufnahme zur Vorgeneration wäre schön. Die Karten werden wieder kleiner und leichter zu kühlen, nebenbei sinken auch noch die Produktionskosten da das Boardlayout nicht so groß und komplex sein muss. ein Drittel des Boards geht doch nur für die Energieversorgung drauf.
XPS schrieb:
Von der Dauer, wie lange dann eine neuen Gen auf sich warten lässt reden wir da noch gar nicht!
Die Karten haben jetzt schon mehr als genug Leistung, sieht man ja wie lange die Karten schon am Markt sind.
 
Beitrag schrieb:
Die Größe vom Interface, die du aus Performancesicht haben möchtest, passt aber nicht immer zur Interfacegröße für die Speichermenge, die du gerne realisieren würdest.

Mit einem großen Cache kann man die beiden Faktoren ein Stück weit voneinander entkoppeln. AMD zeigt das doch bei den RX 6000ern sehr schön. Die großen Karten bis hin zur 6900XT haben alle nur ein 256 Bit Interface, was prima zu 16 GB Speicher passt.

Das stimmt schon, im Grunde widersprechen wir uns da nicht. Aber ob Cache oder nicht. Die Speichermenge die du realisieren möchtest hängt vom Physischen Interface ab. Daran ändert der Cache selbst nichts. Du brauchst am Ende ein Interface, dass zum geplanten Speicherausbau passt.

Sieht man ja jetzt bei den nächsten Karten ganz gut. Bei der angepeilten Leistung stehen den Karten 24 GB z.B. sehr gut. Das lässt sich über 384 Bit wunderbar realisieren. Bei 256 Bit wie bei AMD stehst du dann halt zwischen 16 und 32 GB

Ob du jetzt mit dem IC die Bandbreite besser nutzbar machst oder nicht ist relativ egal. Du musst am Ende trotzdem ein Interface verbauen, dass die gewünschte Bestückung zulässt. Möchte AMD 24 GB verbauen, müssten sie auch ein 384 Bit Interface verbauen und massig Cache, wenn man die Verhältnisse aus Cache Interface halbwegs gleich behalten möchte, oder sie müssten ein mickriges 192 Bit Interface und eine Doppel Bestückung fahren, was sehr teuer wäre und selbst mit Cache wohl nicht genug Leistung bringt. Am Ende braucht man ein Interface, was zum Speicherausbau passt. Mal passt das eine besser, mal das andere. Durch den OC kann AMD aber natürlich eine Nummer tiefer stapeln, wenn es um die Leistung angeht
 
  • Gefällt mir
Reaktionen: ThirdLife
sikarr schrieb:
Die Karten haben jetzt schon mehr als genug Leistung, sieht man ja wie lange die Karten schon am Markt sind.
In deinem Szenario vielleicht, für 4K MAX inkl Raytracing usw. ist meine 3090 zu Release schon zu langsam gewesen und das wird sich mit der 4000er Serie wohl auch noch nicht zu 100% ändern!
Des weiteren nutze ich schon manche Games in 8K und wenn ich dort dann irgendwann 165FPS Cap habe können Sie gerne wieder an der Effizienz Sparen!

Bis dahin ist mir der Preis und der Verbrauch solcher Hardware vollkommen egal, da ich aktuell ca 100€ im Monat nur für den PC Zahle (10-15Std Laufzeit) und bei 900W GPU wären es dann vielleicht 150€ und ?
Ich zahle für das Ganze Haus inkl Klimageräte und einem Meerwasser Aquarium über 500€ Strom aktuell da ist der PC ne Lach Nummer gegen (Klimageräte 8KW) (Aquarium 1,7KW - 12Std pro Tag) usw.

Also hört doch Bitte auf über dinge zu Urteilen oder zu Spekulieren, die euch gar nicht Interessieren oder ihr auch gar nicht die Zielgruppe seit!
Die Nachfrage nach so einer Hardware ist sehr sehr Groß nur eben nicht für den Normal Verbraucher...

Die Karten sind Definitiv zu langsam für das was sie Beworben werden und das ist 4K / 8K Gaming und da muss mehr kommen viel mehr!
 
@GINAC
Nur wäscht die die Titan weder die Wäsche, bäckt einen Kuchen oder macht dir die Haare trocken.
Es sei denn du brauchst solche Hardware zum Arbeiten. Sonst, eher ein Spaßobjekt 😉.
Beim Wäsche waschen usw. Gibt es einfach physikalische Grenzen wie man aus Strom Wärme macht. Man könnte eine Waschmaschine sicherlich noch mit Wärmepumpe bauen, aber beim Föhn und Ofen ist Schluss...
 
  • Gefällt mir
Reaktionen: XPS
XPS schrieb:
Die Nachfrage nach so einer Hardware ist sehr sehr Groß nur eben nicht für den Normal Verbraucher...

Was meint den Steam zu dem Thema Nachfrage?

mit frdl. Gruß
 
600W werden wohl auch bei der kommenden Instinct MI300 Grafikkarte von AMD/RTG (natuerlich im Daten-Center Bereich) kommen, wenn man den Geruechten von Tom/Moore's Law is Dead glaubt:


Allerdings ist das, was AMDs/RTGs MI300 CDNA3 unter der Haube haben soll schon ziemlich beeindruckend mit bis zu 4 Chiplets (8 Compute-Dies) in 5nm gefertigt (bis auf in 6nm gefertigten IO Dies), HBM3 Ausstattung, und PCIe5.0 Anbindung im 3D-Stacking-Paket/Format, um vernuenftig zu nVidias kommender Hopper GPU gegenhalten zu koennen.

Natuerlich gibt es im Data-Center Bereich auch ganz andere (ausgereifte und ausgefeiltere) Kuehlloesungen und Geld dafuer spielt da nicht so eine grosse Rolle wie im normalen Konsumenten-Segment/-Markt, so gesehen gehen die 600W da schon voll in Ordnung und wundern deutlich weniger.
 
Zuletzt bearbeitet:
900 Watt 900 Watt 900 Watt

Mein gott kauft eine gt1030 oder eine Ähnliche AMD Gpu und seit glücklich das ganze geheule bei jedem Artikel der Nvidia beeinhaltet und eine Watt angabe dabei ist

Das fing bei der 3090ti an und wird ja immer schlimmer typisch Deutsch alle wollen 8k 240hz/fps zocken und am besten passiv Gekühlt und ohne strom stecker an der GPU

AMD mag sicher effizienter sein aber seit fast 10 jahren auch eben nur die nr.2 und hängt in jeder Technologie hinterher sei es RT oder DLSS und in der Heutigen zeit wo ne gpu mal eben 1500-2500€ kostet kauf ich mit sicherheit nicht die nr.2

Die rtx 4000 Serie wird wieder wie Geschnitten Brot weggehen beim Release das war immer so und wird immer so Bleiben nicht umsonst ist Nvidia nunmal die nr.1 und hat das Monopol

Ich freue mich Wahnsinnig das es endlich ein Ordentliches Powerlimit gibt und die GPU mal zeigen kann was sie kann und man nicht mehr so beschnitten ist mit den mini Powerlimits der 3090

Nicht umsonst habe ich auf meine 3090 ein 520 Watt powerlimit geflashed damit sie endlich mal ihre volle leistung entfallten kann
 
  • Gefällt mir
Reaktionen: calippo und XPS
Benni1990 schrieb:
alle wollen 8k 240hz/fps zocken

Was 8k angeht, wage ich zu bezweifeln, dass dem tatsächlich so ist, zumindest wenn man/n der Steam Umfrage Glauben schenken mag.

Benni1990 schrieb:

Nix Deutsch, nix typisch. Allein günstig muss es sein, was sich in einer Gesellschaft, die vorrangig auf Überfluss setzt, sich relativ einfach bewerkstelligen lässt.

Das Problem an sich ist doch nicht einmal das Produkt selbst, sondern der Verbrauch, der sich ankündigt, eben weil nicht jeder gewillt ist, sich derart verschwenderisch zu geben.

Das Argument Neid halte ich ebenfalls für unangebracht, hält man/n sich mal die Einkommensentwicklung vor Augen, nur muss der Wille auch vorhanden sein, derart tief in die Tasche zu greifen und das für ein Stück Technik, dessen Halbwertszeit schon mit Erscheinen arg limitiert scheint.

Auch frage ich mich bei aller Liebe zur Technik, warum Kritik derart unerwünscht ist. Mal gesetzt den Fall ich würde solch eine Anschaffung tätigen, was interessiert mich, wie andere darüber denken. Ich entscheide doch für mich ganz allein, welche Anschaffungen ich tätige und in welchen Rahmen dies geschieht.

Nur wenn ich dann in einem Forum dies öffentlich zur Schau stelle, sollte ich mich nicht in Verwunderung üben, wenn Kritik am Produkt wie ander eigenen Person erfolgt. Zuspruch - sofern denn tatsächlich erwünscht - lässt sich in den jeweiligen Foren/Threads einholen.

Der Beitrag als solcher schimpft sich doch nicht "Bilder eurer HiFi-Stereo-Anlagen" oder so, sondern der Ticker lautet: GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt? Und natürlich war doch abzusehen, dass dies nicht nur Begeisterung hervorruft.

mit frdl. Gruß
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr
GUN2504 schrieb:
High End wird demnächst nicht nur in der Anschaffung teuer :D

Lass mal zusammen rechnen:
GPU 900W (4090ti)+ CPU 300W (Intel 13900K) + DDR5 + Mainboard
Da wird gerade mal ein 1.500 W Netzteil ausreichen ^^ :freak:
Hab im Garten noch nen Stromerzeuger mit Benzinbetrieb. Der macht 3000 Watt.
Den werfe ich an, langes Kabel ins Haus und Voila... ausreichend Strom :D.
Und... langt wahrscheinlich, wenn ich Glück habe, auch noch
für die nächste Generation Nvidia-Grafikkarten :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GUN2504
Zurück
Oben