News GH200 Grace Hopper Superchip: Nvidia setzt als erster Anbieter auf HBM3e mit 5 TB/s

dgschrei schrieb:
260kW Abwärme aus EINEM Rack.
Ich frage mich auch gerade: 210 von den Oschies in ein Rack? Passt das da überhaupt rein??? Pro Blade vielleicht 4 von den Dingern, aber vermutlich mehrere Höheneinheiten hoch (um die Abwärme gekühlt zu bekommen). :confused_alt:
 
dgschrei schrieb:
260kW Abwärme aus EINEM Rack.
Nicht in einem Rack, in einem Regal aus mehreren Racks nebeneinander.
Wie nennt man mehrere Racks nebeneinander? :confused_alt: :D
 
..und am ende brauch man dann trotzdem DLSS 1337 um hohe fps zu fahren, nativ schaffen die karten ja eh nichts mehr..
 
blubberbirne schrieb:
Unser Lederjackenfreund macht doch alles richtig in Moment. Klar sieht der Gamer das anders. Aber aus Wirtschaftlicher sicht muss man hier echt seinen Hut vor dieser Leistung ziehen.
Ja das muss man leider. Leider weil es eben auch zum Nachteil von uns Gamer geht. Aber klar Produkte wo er 30k macht - und ich gehe davon aus mit entsprechender Marge haben einen anderen Stellenwert als selbst die 4090 heute.. Da muss er fast 20 absetzen heute (wobei vermutlich sogar noch mehr) und ich weiß nicht ob er da die selbe Marge einfährt.
 
Vitche schrieb:
Die sind teuer, keine Frage, aber im Vergleich zu Hopper spottbillig. Richtig wäre also eher der Schluss, dass Nvidia die "günstigen" (lol) Gaming-Produkte mit den Profi-Karten querfinanziert.

Ach ja, die angeblichen Gutmenschen bei nVidia, dafür sind Jen-Hsun Huang & Co. auch so bekannt, wer's glaubt (sorry, aber das liest sich wie ziemliches Markenfan-Geblubber/Märchen) :lol:?

Natürlich zählt für nVidia nur der Maximalprofit und Gamer sind bei denen schon lange unterste Priorität, das gibt sogar JayzTwoCents zu, der aktuell wieder munter für nVidia Grafikkartenkauf wirbt (dafür womöglich von nVidia gesponsort wurde oder zu viele nVidia Aktien hält?) und die aktuell durch die Bank preis-leistungstechnisch überlegenen (die in einer anderen Liga spielende RTX 4090 einmal ausgenommen) RDNA3 Grafikkarten von AMD/RTG nicht berücksichtigt (als ob es nur nVidia geben würde :rolleyes:).

Das folgende Video von MLID fasst das auch ganz gut zusammen:


Die Gamer-Kundschaft ist am Ende wieder die angeschmierte, welches wenig verwundert, Hauptsache nVidia bereichert sich maximal im A.I. dGPU Bereich, denn dort kann man jetzt den richtig großen Reibach machen (noch mehr als zuvor beim Kryptomining-Boom) und nVidia bekommt vor lauter Gier den Hals 'mal wieder nicht schnell genug voll.

Es bleibt die Hoffnung auf eine platzende A.I.-Blase, aber bis das passiert, könnten noch Jahre vergehen. Es ist schon witzig/ironisch, dass sich nVidia als erste an einer Technik (HBM Speicher, in dem Fall dem 3e) als erste bedienen, die von AMD damals mitinitiert und -entwickelt wurde, damit man bandbreitentechnisch aufholt.
Ergänzung ()

nlr schrieb:
Wie nennt man mehrere Racks nebeneinander?
Hm, ich schlage spontan einmal Cluster oder Verbund vor ;).
 
Zuletzt bearbeitet:
Pleasedontkill schrieb:
Verstehe hier nur den Teil mit CPU nicht. Weil NVidia = GPU (✓) NVidia = CPU (X)
Ergänzung ()


Es wird noch witziger , NV plant GTX16xx noch mal frisch auf zu legen 2023. Weil es gibt da sicher ein paar arme Schlufis denen man noch nicht das letzte Hemt ausgezogen hat mit soeiner Abzocke!

NVidia, wir lieben dich! ...so wie es die Vorführ-KI gesungen hat.
wie AMD mit ihrer RX 580 die sich jetzt in China 16GB gönnen darf
 
Oh man... AI ist kein "Fressfeind" von uns.

Ohne starke AI-Tools könnte man kaum Chipdesigns für neue Fertigungen bringen

Neue Fabs werden immer teurer, damit sich der Bau lohnt benötigt es mehr als nur Grafikkarten.

Die ganze Produktionskette in der Halbleitertechnik profitiert... Etc.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coeckchen
Averomoe schrieb:
Das stimmt nicht. GeForce wirft für sich alleine bereits Gewinne ab.
Ist so schwierig zu sagen, da die Kosten für Grundlagenforschung und grundlegende Arch Entwicklung auf mehrere Sparten aufgeteilt wird. Sind halt Synergieeffekte.
 
  • Gefällt mir
Reaktionen: stevefrogs
Nicht nur, das die Nvidia-Beschleuniger 92 Mio Euro weniger kosten. Die verbrauchen auch je Jahr mal locker 5-10 Mio Euro weniger an Strom...
 
Performator schrieb:
Und wir betteln bei Nivida um 16GB VRAM für die 4070.
Die Lederjacke lacht sich scheckig, nimmt uns aus, und mästet damit seinen Grace Hopper.
Im Businessbereich wird auch nicht wegen jedem Euro mehr gejammert, und der Preis für mehr VRAM mit HBM (!!! der eh deutlich teurerer ist) wird anstandslos bezahlt.
Ergänzung ()

HaRdWar§FreSseR schrieb:
Dort schmeißt Nvidia mit dem Speicher um sich, was das Zeug hält und wir das Gesindel müssen uns mit 12 GB zufriedengeben, danke AMD. Man, muss sich das mal auf der Zunge vergehen lassen 5TB pro GPU saber.
Du verstehst den Unterschied von DDR6X zu HBM? Ich glaube nicht, daß Du Dir in nächster Zeit eine GPU mit HBM kaufen wirst oder kannst.
Ergänzung ()
`
nlr schrieb:
Nicht in einem Rack, in einem Regal aus mehreren Racks nebeneinander.
Wie nennt man mehrere Racks nebeneinander? :confused_alt: :D
Rackschrank?
 
nutrix schrieb:
Im Businessbereich wird auch nicht wegen jedem Euro gejammert, und der Preis für mehr VRAM mit HBM (!!! der eh deutlich teurerer ist) wird anstandslos bezahlt.
Ergänzung ()


Du verstehst den Unterschied von DDR6X zu HBM?
Ja HBM wird im Businessbereich eingesetzt und ist teurer als GDDR6X Speicher und jetzt?

Der GDDR6X Speicher ist günstiger und dort spart Nvidia, was ich nicht nachvollziehen kann.
 
nutrix schrieb:
Es gibt doch GPUs mit mehr VRAM, 4080, 4090... wo ist Dein Problem?
Habe kein Problem, ich weiß nicht mal, was du von mir willst schlecht geschlafen? Ist ja gut, dass du eine andere Meinung hast, lass mir doch auch meine.
 
HaRdWar§FreSseR schrieb:
Habe kein Problem, ich weiß nicht mal, was du von mir willst schlecht geschlafen? Ist ja gut, dass du eine andere Meinung hast, lass mir doch auch meine.
Ich bin nicht derjenige, der sich hier beschwert, jammert, und Fakten durcheinander bringt. Fakt ist, Businesskunden bezahlen mehr VRAM und HBM, Privatleute und diverse Gamer jammern über jeden €. Deine Aussage ist falsch, es gibt GPUs mit mehr VRAM, nur nicht für Deine Preislage. Kauf Dir eine 4080 (oder AMD Pendant) anstatt der 4070, und schon hast Du genügend VRAM.
 
Zurück
Oben