News Herder-Supercomputer: Hunter-Nachfolger in Stuttgart setzt auf Zen 6 und MI430X

ascer schrieb:
Woher willst du das wissen? Insbesondere mit derartig unerschütterlicher Verlässlichkeit? Am Ende ist das doch nichts weiter als Ideologie.

Merkmal von Forschung war schon immer, zu ermöglichen, was gestern noch unmöglich erschien.
Verkennt man das pauschal und postuliert Unmöglichkeiten, hat man schlichtweg kein Argument handelt per Definition Ideologiegetrieben.

Von den Grünen wird ständig China gepriesen. Zur Wahrheit gehört aber ebenso, dass
1. China nur dort auf erneuerbare Energien setzt, wo sie auch sinnvoll eingesetzt werden kann (für industrie und Grundlast machen die sich keine Illusionen)
2. China in der nächsten Dekade mehr neue Atromreaktoren ans Netz nehmen wollen, als es derzeit in den USA insgesamt gibt
3. China auch Kohle und weitere Energieträger nicht abbaut
4. China seinen CO2 Gesamtausstoß und auch per capita jedes Jahr massiv erhöht

Konklusiv kann man da nur zu einem Schluss kommen => der Verzichts- und Sparkurs hat international längst verloren. Da Klima von globaler Natur ist, ist Verzicht und Sparen damit keine Lösung mehr. Es wäre damit längst überflüssig, "all in" auf Technologie zu setzen, denn technologische Lösungen werden global von quasi allen mitgetragen.

Dein Argumente - sind a) brand gefährlich.

Verkennt man das pauschal und postuliert Unmöglichkeiten, hat man schlichtweg kein Argument handelt per Definition Ideologiegetrieben.

Dein Argument hier ist Ideologisch. Ob es für gewisse Probleme technische Lösungen geben wird - weiß keiner.
Stand heute gibt es sie nicht. Nicht mal im Ansatz. Co2 Abscheidung funktiioniert bisher nicht. Die Vorzeigeanlagen emittieren mehr Co2 als das sie abscheiden.

Und das größte Problem. Wir haben nicht unendlich Zeit (sprich du brauchst nicht nur Lösungen - sondern du brauchst sie bald - merkste was da beißt sich was). Wenn die Kippunkte kippen, verstärken diese die Abwärtsspirale. Beispiel -> wenn die Permafrostböden in Sibieren auftauen emmitieren diese Böden dort gebundenes Co2 was wieder die Erwärmung beschleunigt und so mehr und tiefere Schichten dieser Böden auftauen... Kein Co2 Abscheider wird die zu erwartenden Mengen Co2 binden in kürzester Zeit...

Und noch was zu technologien. Die Menschheit hat gezeigt das es ja geht. Das Ozonloch wird kleiner. Aber keine Technologie war die Lösung - sondern das Weltweite Verbot war es. Nicht Technologie ist die Lösung - sondern intelligentes Handeln nach wissenschaftlicher Faktenlage.

Wie willst du das Massen-Artensterben aufhalten. Die Wissenschaft sagt wir kennen noch nicht mal das Ausmaß vollumfänglich... Technologien werden da nicht helfen..

Bezüglich China. Ja China ist ein Sonderfall. Und ja in China sind die Dimensionen einfach so groß, das allein der zu erwartbare Energieanstieg nicht alleine durch den Ausbau Erneuerbaren zu stemmen sein wird.

Aber sowohl die EU als auch die USA haben in Tendenz sogar leicht fallende Energieverbräuche. Und insbesondere beim schlimmsten Co2 emittenden - der Koghle Vortschritte gemacht.

China wird noch brauchen das Wachstum bei Kohle und die relative Kloghlelastigkeit zu verbessern. Das kommt aber. Und die neuen Karftwerke werden besser sein (Verbrennung/Filter) als alte Kohlekraftwerke die ersetzt werden.

Und zum Nuklear - such die Linie... Nuklear spielt keine echte Rolle in China und Weltweit. Nuklear ist überrepräsentiert in der EU und den USA [zum Weltdurchschnitt] und spielte aber z.B. in Deutschland mit um die 10% noch nie eine solche Rolle wie hier immer wieder einige tun...

1765282914584.png
 
  • Gefällt mir
Reaktionen: Col. Jessep, Skysnake und stefan92x
bensen schrieb:
Ich schrieb, dass Fernwärme am teuersten ist, ist absurd.
Ach so, ich hatte es verstanden wie 'Fernwärme ist im Mittel die teuerste Art zu heizen in Deutschland. Im Grunde völlig absurd.'
 
Naja im Vergleich zu den AI Monstern schon - die meisten Superrechner von Privatunternehmen werden in den Top Listen gar nicht erfasst bis auf ganz ganz seltene Ausnahmen.

Allein die Kiste von Musk hat aktuell 200.000 Prozessoren und ist nicht in der Liste vertreten

Jupiter dagegen auf dem 4. Platz der Top500 Liste hat 24.000 CPUs.....

Die ganze Supercomputer der IT Techriesen sind praktisch nicht in der Liste obwohl das inzwischen Monster sind und immer gigantischer werden.
 
Zuletzt bearbeitet:
GrumpyCat schrieb:
Hehe und die ersten Plätze der TOP100 der Supercomputer (die von AMD belegt sind) sind auch alles nur "Mini Cluster".
AMD war in computing schon immer stark, das Bild hat sich aber komplett verschoben hin zu AI Cluster die ganz andere Dimensionen haben und nicht gelistet sind.
 
Jo die Top Liste ist halt nicht mehr so relevant, die Megabollen stehen inzwichen bei Unternehmen und nicht mehr so an Unis.

Vioelleicht sind die bei FP64 oder so noch gut aber overall computing Power sind sicher alle in den Top500 Listen klein.

Eines der aktuellen AI Projekte von Amazon aktuell https://www.nuklearforum.ch/de/news...jekts-mit-x-energy-im-bundesstaat-washington/ da sieht man ja langsam die Dimensionen.
 
Zuletzt bearbeitet:
@Uzer1510 stellt sich nur wie immer bei solchen Nachrichten die Frage: Reden wir da über Datacenter? Oder über Cluster? Nicht jedes Datacenter voller Server ist so miteinander verschaltet, dass es nennenswerte HPC-Performance liefern könnte.

Das wird immer gerne verwechselt in diesen Diskussionen. Schönstes Beispiel um das zu illustrieren ist eigentlich Eagle (aktuell Nummer 5 der Top500). Ein HPC-Cluster, der in einem Azure-Datacenter steht. Nicht das ganze Datacenter.

Supercomputer werden in Datacentern aufgebaut. In einem Datacenter können mehrere Supercomputer stehen, oder nur einer, oder eine bunte Mischung aus Supercomputern und "klassischen" Serversystemen etc...

Auch das HLRS ist sozusagen ein Datacenter, das derzeit drei Systeme betreibt - Hunter, Vulcan und Hawk-KI Erweiterung (ja, so nennen die das Teil wirklich...)
 
naja denke die grossen AI Center von OpenAI Meta und Co sind doch zum trainieren da - die denke ich sind schon so verschaltet dass die maximal grosse Netze trainieren können - oder halt kleinere parallel.

Selbst 1 Mio oder auch 10 Mio CPUs sind doch eigentlich super wenig für so dicke Netze - in Richtung AGI wir man doch eher Richtung viele viele Millionen CPUs gehen die alle in einem Netz sind.

Ich meine bei so einem google Vortrag dazu hab ich gehört dass das Limit (also neben so trivialem wie Energie Kühlung etc) vor allem die Elektronengeschwindigkeit ist weshalb man so "Rechencluster" auf Wafer entwickelt weil da die Wege kürzer sind

Im Prinzip kann man ja sagen Stromverbrauch ~ Rechenleistung weil alle Aktivität ist doch am Ende eine Rechenoperation (ausser vielleicht NOP :D )
 
Zuletzt bearbeitet:
Uzer1510 schrieb:
naja denke die grossen AI Center von OpenAI Meta und Co sind doch zum trainieren da
Mit Training verdient man kein Geld, mit Inferencing (also der Nutzung von Modellen) schon. Training bleibt wichtig, aber Monetarisierung geht nur mit Inferencing, entsprechend verteilen sich auch die Kapazitäten.
Uzer1510 schrieb:
Selbst 1 Mio oder auch 10 Mio CPUs sind doch eigentlich super wenig für so dicke Netze - in Richtung AGI wir man doch eher Richtung viele viele Millionen CPUs gehen die alle in einem Netz sind.
Nein. Wenn du bei Nvidia kaufst, bekommst du 36 CPUs pro Rack. Du müsstest also 100.000 Racks aufstellen mit einem Stromverbrauch im Bereich 40 GW. Das ist nicht super wenig, sondern gut die Hälfte dessen, was Deutschland verbraucht. Da bist du also weit über allen realistischen Zahlen!
Uzer1510 schrieb:
Ich meine bei so einem google Vortrag dazu hab ich gehört dass das Limit (also neben so trivialem wie Energie Kühlung etc) vor allem die Elektronengeschwindigkeit ist weshalb man so "Rechencluster" auf Wafer entwickelt weil da die Wege kürzer sind
Genau. Das ist ein enorm wichtiger Punkt. Je größer (von den Abmessungen) dein Cluster wird, umso aufwendiger wird dein Netzwerk und umso mehr Strom frisst es.

Irgendwann ist der Punkt erreicht, an dem überproportional mehr für das Netzwerk verbraucht wird und kaum noch mehr Rechenleistung erzielt wird.

An dem Punkt macht es dann keinen Sinn mehr, einzelne Cluster zu vergrößern, sondern das Datacenter in mehrere kleine aufzusplitten. Und dadurch findest du in einem AI-Datacenter vielleicht 20 Teil-Cluster, die es alle in die Top500 schaffen könnten, aber eben keinen einzelnen, der den Spitzenplatz erreichen würde.
Uzer1510 schrieb:
Im Prinzip kann man ja sagen Stromverbrauch ~ Rechenleistung weil alle Aktivität ist doch am Ende eine Rechenoperation (ausser vielleicht NOP :D )
Und Netzwerk. Und Kühlung. Diese beiden Faktoren fressen ähnlich viel Strom wie die Rechenleistung an sich.
 
theGucky schrieb:
Das Klima könnte man heute schon retten
Ach ja? Und wie?
Selbst mit dem gesamten Geldvermögen könnte man kaum die gesamte Energieinfrastruktur elektrifizieren und überall Erneuerbare einsetzen bzw PV weil Wind ist kaum recyclebar. (Gfk, Beton)
 
stefan92x schrieb:
Nein. Wenn du bei Nvidia kaufst, bekommst du 36 CPUs pro Rack. Du müsstest also 100.000 Racks aufstellen mit einem Stromverbrauch im Bereich 40 GW. Das ist nicht super wenig, sondern gut die Hälfte dessen, was Deutschland verbraucht. Da bist du also weit über allen realistischen Zahlen!

Aber die Waferchips als das was ich da angesprochen da reden wir ja von bereits 1 Mio CPUs auf einem einzigen Chip (naja fast 900.000 das runde ich mal auf :D )

Mit NVidia ginge das nicht aber ob NVidia immer die Zukunft bleiben wird ist doch offen die AI Giganten machen doch zunehmend selber was.
 
Skysnake schrieb:
Ähm nein. Da gibt es noch mehr.
Sagen wir, das sind die drei, die einen als erstes auf der Webseite anspringen. Was weiß ich, was die noch im stillen Kämmerlein betreiben, im Gegensatz zu dir arbeite ich da nicht :D
Uzer1510 schrieb:
Aber die Waferchips als das was ich da angesprochen da reden wir ja von bereits 1 Mio CPUs auf einem einzigen Chip (naja fast 900.000 das runde ich mal auf :D )
Oh... du redest von sowas wie Cerebras Wafer Scale Engine? Die hat zwar 900.000 Cores auf einem Chip, aber das sind keine CPUs, es sind nichtmal CPU-Kerne. Als du von CPU geschrieben hast, dachte ich an Nvidia Grace. Wenn wir stattdessen über GPU-Kerne reden, dann kommen wir natürlich in die von dir genannten Größenordnungen. Ich meine ein NVL72-Rack kommt auf ca 1,4 Mio GPU-Kerne, das kommt also hin.
 
stefan92x schrieb:
Sagen wir, das sind die drei, die einen als erstes auf der Webseite anspringen. Was weiß ich, was die noch im stillen Kämmerlein betreiben, im Gegensatz zu dir arbeite ich da nicht :D
Ne ich arbeite da nicht, war aber erst kürzlich wieder mal dort 😉
 
Zurück
Oben