News Nvidia DGX GH200: 256 Grace Hopper Superchips liefern 1 ExaFLOPS FP8 für KI

Unfassbar beeindruckend, was technisch schon so alles möglich ist! Schon fast schade, dass manche Technologien wie etwa HBM3 es kaum oder nur schleppend in den Consumer-Markt schaffen. Eine RTX 5090 mit HBM3 wäre lecker :D
 
7H0M45 schrieb:
kW/h gibt es also nicht, sondern entweder kW oder kWh.
Leistungsänderungsgeschwindigkeit ist durchaus eine gängige Größe bei Kraftwerkstechnik. Allerdings eher in MW/min. :p

Auch echt beeindruckend wie viele hier Probleme mit einfachster Physik haben. Ich hätte gar nicht mehr den Elan das zu korrigieren. Da ist Hopfen und Malz schon verloren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maxrl und 7H0M45
bensen schrieb:
Leistungsänderungsgeschwindigkeit ist durchaus eine gängige Größe bei Kraftwerkstechnik. Allerdings eher in MW/min. :p
Ok, ja bei Leistungsänderung, da macht das ganze Sinn. Aber das hat ja jetzt absolut nichts mehr mit der NVIDIA Karte hier zu tun. Noch sind sie Gott sei Dank nicht so groß und träge, dass das ein Problem wäre 😂
 
  • Gefällt mir
Reaktionen: maxrl
McLovin14 schrieb:
Das System zieht ja trotzdem 300 W zu jedem Zeitpunkt.

Aber nun einmal pro Stunde, wenn man es in der Einheit berechnet, die man bezahlt.

Auf der Rechnung stehen 300 Wh und die kosten XY pro kWh, weswegen die Bezahlung in kW/h abgerechnet wird.

Wie man es rechnet, ist jedem selbst überlassen. So lange man versteht, was dort passiert, ist alles i.O.

Daher sagte ich, Einheiten werden benutzt wie Unterhosen.

mfg

p.s.

Die 300 Watt, von denen du redest, sind komplett richtig. Sie sagen aber absolut nichts aus, wenn man den Verbrauch pro Stunde oder pro Tag berechnen will. Oder gar pro Jahr.

p.s.s.

Oder wer redet über die maximale Leistung seines KfZ, wenn er über den Durchschnittsverbrauch redet?
 
[wege]mini schrieb:
Aber nun einmal pro Stunde, wenn man es in der Einheit berechnet, die man bezahlt.
Nein, das ist völliger Blödsinn. Hast du überhaupt versucht zu verstehen, was hier alle anderen geschrieben haben?
Du bezahlst für Energie, also einen bestimmten Preis pro kWh.
Watt pro Stunde ergibt einfach überhaupt keinen Sinn. Das wäre Leistung pro Zeit (also Energie pro Zeit pro Zeit).

[wege]mini schrieb:
Die 300 Watt, von denen du redest, sind komplett richtig. Sie sagen aber absolut nichts aus, wenn man den Verbrauch pro Stunde oder pro Tag berechnen will. Oder gar pro Jahr.
Doch, natürlich tun sie das. Energie ist die Leistung integriert über einen bestimmten Zeitraum. Wenn ich eine konstante Leistungsaufnahme habe, dann kann ich die entsprechend mit jeder beliebigen Zeitspanne multiplizieren und erhalte die benötigte Energie in dieser Zeitspanne.
Welche Energie braucht ein 300W-Gerät pro Sekunde? 300Ws.
Welche Energie braucht ein 300W-Gerät pro Stunde? 300Wh.
Welche Energie braucht ein 300W-Gerät pro Tag? 300Wd = 300W*24h = 7200Wh = 7.2kWh

Alles unter der Annahme, dass die 300W konstant über den entsprechenden Zeitraum aufgenommen werden.

Physik, 7. Klasse. Wirklich.
 
  • Gefällt mir
Reaktionen: nosound, maxrl und 7H0M45
[wege]mini schrieb:
Daher sagte ich, Einheiten werden benutzt wie Unterhosen
Das sag ich dem nächsten Polizisten, hab gedacht, das sind 30 m/s... Oh mann, so viel Ignoranz.
[wege]mini schrieb:
Die 300 Watt, von denen du redest, sind komplett richtig. Sie sagen aber absolut nichts aus, wenn man den Verbrauch pro Stunde oder pro Tag berechnen will. Oder gar pro Jahr.
Aber genau das tut es. 300 W*die Zeit = Energie, die mein Stromanbieter abrechnet. Schlag doch mal ne andere Einheit vor, die die Leistung darstellt.
[wege]mini schrieb:
Oder wer redet über die maximale Leistung seines KfZ, wenn er über den Durchschnittsverbrauch redet?
Ich seh den Verbrauch in kWh/100 km im Tacho. Und weil es Leute wie dich gibt, auch beim Laden in km/min. Zum Glück steht daneben die Lade-Leistung in kW.
 
  • Gefällt mir
Reaktionen: maxrl
7H0M45 schrieb:
Ok, ja bei Leistungsänderung, da macht das ganze Sinn. Aber das hat ja jetzt absolut nichts mehr mit der NVIDIA Karte hier zu tun. Noch sind sie Gott sei Dank nicht so groß und träge, dass das ein Problem wäre 😂
Grossabnehmer müssen durchaus das Hoch- und Runterfahren von Lasten mit dem Stromerzeuger kommunizieren. Da sind jetzt eher Aluschmelzen etc mit gemeint. Würde mich aber nicht wundern wenn da irgendwann KI-Rechenzentren auch zu gehören.
 
  • Gefällt mir
Reaktionen: maxrl und 7H0M45
[wege]mini schrieb:
Aber nun einmal pro Stunde, wenn man es in der Einheit berechnet, die man bezahlt.
Du bezahlst doch aber Euro pro kWh? Und eine Kilowattstunde ist nunmal eine Einheit für Energie. Nicht für Leistung und drst recht nicht für Leistung über Zeit.

[wege]mini schrieb:
Auf der Rechnung stehen 300 Wh und die kosten XY pro kWh, weswegen die Bezahlung in kW/h abgerechnet wird.
Kein Anbieter rechnet in kW/h ab! Diese Einheit ist im Bereich des Endrgieverbrauchs von Privathaushalten absolut sinnfrei. Sie beschreibt die Änderungsrate der Leistung, welche wiederum die Änderungsrate der Energie beschreibt:
kW/h steht zu kW steht zu kWh wie
m/s² steht zu m/s steht zu m.

[wege]mini schrieb:
Wie man es rechnet, ist jedem selbst überlassen. So lange man versteht, was dort passiert, ist alles i.O.
Du verstehst es aber offensichtlich nicht, das versuchen dir mittlerweile ca. 5 Leute zu erklären.

[wege]mini schrieb:
Daher sagte ich, Einheiten werden benutzt wie Unterhosen.
Der einzige, der hier Einheiten benutzt wie Unterhosen, bist du!

[wege]mini schrieb:
Die 300 Watt, von denen du redest, sind komplett richtig. Sie sagen aber absolut nichts aus, wenn man den Verbrauch pro Stunde oder pro Tag berechnen will. Oder gar pro Jahr.
Richtig, die 300 W sind eine Momentaufnahme. Wenn das System konstant 300 W zieht, dann kann ich den Energiebedarf errechnen, indem ich die Leistung mit der Zeit, für die ich den Energiebedarf ermitteln möchte, multipliziere. Sind die 300 W nicht konstant, so integriert man den Verlauf der Leistung über die Zeit und erhält ebenfalls den Energiebedarf.

[wege]mini schrieb:
Oder wer redet über die maximale Leistung seines KfZ, wenn er über den Durchschnittsverbrauch redet?
Nicht alles, was hinkt, ist ein Vergleich...

Die Diskussion hier bestätigt mich:
Ich könnte niemals Lehrer werden. Ich würde mental daran zugrunde gehen...
 
  • Gefällt mir
Reaktionen: nosound, maxrl und Web-Schecki
Wie die Leute sich hier wegen dem KW /(h) undsoweiter Seitenweise gegenseitig anpixxxen..herrlich. Nicht ausgelastet? :D

@Topic: Schon ein durchaus beindruckendes Stück Technik...Auch wenn ich nicht immer mit allem von Nvidia d'accord gehe..Sie haben schon teilweise interessante Dinge im Portfolio.;)
 
  • Gefällt mir
Reaktionen: Dittsche und [wege]mini
Yosup schrieb:
Grossabnehmer müssen durchaus das Hoch- und Runterfahren von Lasten mit dem Stromerzeuger kommunizieren. Da sind jetzt eher Aluschmelzen etc mit gemeint. Würde mich aber nicht wundern wenn da irgendwann KI-Rechenzentren auch zu gehören.
Das geht schon länger über die Rechenzentren der 4 Netzbetreiber.
Verbraucher und Erzeuger kommunizieren da in aller Regel nicht miteinander (ausgenommen sind diverse Sonderregelungen), sondern über die Kette Versorger -> Netzbetreiber -> Erzeuger (gerne auch als Dreieck) oder Netzbetreiber -> Erzeuger -> Versorger. Die Netzbetreiber haben übrigens auch Fernzugriff auf Großverbraucher, Kraftwerke, große Solarparks, Windräder, Pumpspeicher, .... und können da Intervenieren.
 
Alpha.Male schrieb:
undsoweiter Seitenweise gegenseitig anpixxxen

Wenn man sonst nix kann, muss man halt mit seinem begrenzten Wissen auch mal den Helden spielen.

Einheiten sind Denkhilfen und wer darauf rumreitet, hat sonst nicht viel, worüber er nachdenken kann.

Das versuchte ich ja aber schon die ganze Zeit zu erklären. Meine Denkhilfe ist Watt pro Stunde.

McLovin14 schrieb:
Ich würde mental daran zugrunde gehen.

Man kann nirgend wo hin gehen, wo man schon ist.

mfg

p.s.

Witzig wird es, wenn ich gesagt hätte, ich rechne in Watt je Stunde. Das wäre dann wieder "richtig". :evillol:

p.s.s.

Noch geiler wäre Watt mal Stunde. Gibt es nicht im Kunstunterricht. Wortwitze sind die geilsten.

Da es sowieso mit 1 Multipliziert oder Dividiert wird, ist es total egal. Aber dann würde es wieder "stimmen".
 
Zuletzt bearbeitet:
Tja, sollte nvidia den Gamer-GPU Markt verlassen, oder nur noch als "Hobby" ansehen, wird es für uns ziemlich duster. Da kann man nur hoffen das Intel es gebacken kriegt, sonst stehen wir mit nur noch einem nennenswerten GPU-Hersteller da.
Und wenn man sich deren Strategie was die Preise angeht und die "Lustlosigkeit" bei den GPU-Modellen anschaut, würde ich das noch nichtmal für so unwahrscheinlich halten.
Im AI Umfeld kann man halt noch viel mehr Geld verlangen, solange man die Spitzenhardware liefert. Bei Gaming-GPUs ist das Limit vermutlich erreicht.
 
Korben2206 schrieb:
wird es für uns ziemlich duster

Unwahrscheinlich. Der Markt ist einfach zu groß, um ihn verlassen zu wollen.

Korben2206 schrieb:
Bei Gaming-GPUs ist das Limit vermutlich erreicht.

Noch lange nicht. The Sky is the limit.

Die "Master Race" der Daddelkids müssen irgend wann begreifen, dass sie nur "Beifang" sind. So ein paar Stückchen vom Kuchen, werden sie aber immer bekommen.

Wenn dann noch zu viel übrig ist, den man nicht an die "Geldsäcke" verkaufen konnte, wird der Preis sogar richtig billig, falls man einen zu großen Kuchen gebacken hat.

mfg
 
[wege]mini schrieb:
mit seinem begrenzten Wissen
Vorsicht. Wer im Glashaus sitzt...

[wege]mini schrieb:
Einheiten sind Denkhilfen
Nein. Einheiten sind elementarer Bestandteil der Physik. Das sagt Wikipedia zum Thema physikalische Größe:
"Jeder spezielle Wert einer physikalischen Größe (Größenwert) wird als Produkt aus einem Zahlenwert (auch Maßzahl)[1] und einer Maßeinheit angegeben."
Einheiten in Gleichungen werden wie Zahlen behandelt.

[wege]mini schrieb:
Meine Denkhilfe ist Watt pro Stunde
Hat auch weiterhin null Aussagekraft.

[wege]mini schrieb:
Witzig wird es, wenn ich gesagt hätte, ich rechne in Watt je Stunde. Das wäre dann wieder "richtig".
Nein, wäre es nicht. "Je" impliziert einen Bruch, also W/h, was ja für die Betrachtung der Energie in diesem Zusammenhang irrelevant ist.

[wege]mini schrieb:
Noch geiler wäre Watt mal Stunde
Das hingegen wäre korrekt, oder wie man eben sagt: Wattstunde.
 
  • Gefällt mir
Reaktionen: nosound, 7H0M45 und Web-Schecki
Alpha.Male schrieb:
Nicht ausgelastet? :D
Es geht darum, dass man Blödsinn nicht unwidersprochen lassen sollte. Am Ende liest das noch ein ahnungsloser Siebtklässler und versemmelt die nächste Physikklausur.

McLovin14 schrieb:
Vorsicht. Wer im Glashaus sitzt...
Lass gut sein, wenn einer so kommt...
Da ist Hopfen und Malz verloren.
 
  • Gefällt mir
Reaktionen: nosound und 7H0M45
McLovin14 schrieb:
Das hingegen wäre korrekt, oder wie man eben sagt: Wattstunde.

Wie gesagt. Einheiten sind Grundlagen des Rechnens. Wenn man aber einem Mathematiker sagt, er betreibt eine Hilfswissenschaft, ist der natürlich auch beleidig.

Wattmalstunde ist völlig i.O. In deiner Welt "richtig".

In meiner Welt ist es ein Seitenfach des Kunstunterrichtes, wo man Watt malt.

Chill mal ein bisschen.

Ich kann berechnen, dass ein 1200 Watt Stromerzeugungsgerät, welches nur 5 Minuten läuft, weniger verbraucht als ein 300 Watt Gerät, welches eine Stunde läuft. Du auch. Also ist alles gut.

mfg
 
[wege]mini schrieb:
Unwahrscheinlich. Der Markt ist einfach zu groß, um ihn verlassen zu wollen.
Er schrumpft, und speziell bei nvidia, gewaltig:
1685432769920.png

[wege]mini schrieb:
Noch lange nicht. The Sky is the limit.

Die "Master Race" der Daddelkids müssen irgend wann begreifen, dass sie nur "Beifang" sind. So ein paar Stückchen vom Kuchen, werden sie aber immer bekommen.

Wenn dann noch zu viel übrig ist, den man nicht an die "Geldsäcke" verkaufen konnte, wird der Preis sogar richtig billig, falls man einen zu großen Kuchen gebacken hat.

mfg
Ja, das kann man richtig gut beobachten wie sie billiger werden über die letzten Montate... aber die Hoffnung stirbt ja bekanntlich zuletzt...

Schau dir mal die Keynote an, die Jensen gerade gehalten hast.. da erkennt man das Mindset des Mannes (und damit der Firma) sehr gut...
 
  • Gefällt mir
Reaktionen: [wege]mini
Korben2206 schrieb:
Schau dir mal die Keynote an, die Jensen gerade gehalten hast

Irgend wie kann ich mir auch vorstellen, dass sie mit AMD die Sparte für die Daddelkids zusammen schmeißen und dann unter dem Namen XYZ firmieren. Komplett, wird man aber diesen Markt nicht aufgeben.

mfg
 
@Korben2206 Hab mir die ersten paar Sekunden der Keynote angeschaut und es dann gelassen. Jensen hält die RTX 4060 Ti hoch mit den Worten "for our core gamers". Ja ne, Jensen, lass stecken! :lol:
 
  • Gefällt mir
Reaktionen: nosound
StefanArbe schrieb:
vor 20 jahren waren sie noch bei 1€ :D
joah, GPU Firmen waren lange Zeit sehr klein.
Ich hätte mir das auch nie ausgemalt, als ich 2014, kurz vor Maxwell-Release Shares gekauft hab. Ich bin ja immer nur von satten Gewinnen im GPU Sektor ausgegangen und damals war abzusehen, dass AMD keine Gegenwehr leisten kann, Nvidia somit die Preise hochziehen würde. Wohin die Reise führt war für mich aber überhaupt nicht klar.
Ergänzung ()

Korben2206 schrieb:
Er schrumpft, und speziell bei nvidia, gewaltig:
Es ist immer noch ein Milliardenmarkt für den man ohnehin entwickelt, man wäre Dumm rumliegendees Geld nicht mitzunehmen und Einfluss aufzugeben.
Man muss das ganze auch historisch betrachten, klar schrumpft der Markt nach den Rekordjahren/margen.
Wie viel Umsatz hat Nvidia im Gamingbereich in den letzten 10 Jahren je einzeln gemacht?
 
Zuletzt bearbeitet:
Zurück
Oben