News Bis zu 1.000 Watt Verbrauch: Dells Aussagen zu Nvidia B100/B200 und was dahinter steckt

kalgani schrieb:
Ich warte auf die EU, die (ähnlich wie bei z.B. Staubsaugern) maximale Leistungsaufnahme reglementiert.
Hier wäre es eventuell sogar deutlich sinnvoller als bei Staubsaugern.
Die sollen lieber mal an der Effizienz arbeiten, dass eine Graka wieder mit 1x8 Pin an extra Strom klar kommt (225W Gesamtleistung) sollte eigentlich reichen.

Das die Grafikkarte nach der Heizung und Warmwasser der größte Energiefresser im Haus ist, ist langsam wirklich lächerlich!
Meine 4090 ist nicht weit weg von den 225w..... Nur weil ein Stück Hardware eine bestimmte Energie aufnehmen kann, heißt das noch lange nicht, dass sie es auch macht
 
MrHeisenberg schrieb:
Lest ihr alle nur headlines?! Es geht um Server und der absolute Verbrauch sagt gar nichts aus!
Ob ich jetzt zwanzig H200 oder fünfzehn B100, was juckt das die EU? Der Verbrauch liegt in beiden Fällen bei max. 15 kW.
Zumal es für Rechzentren ja sogar auch Regelungen zum Energie Einsparen gibt. Komme hier auch nicht mehr mit. Dachte Stammtisch ist Mittwochs zum Bergfest...
 
  • Gefällt mir
Reaktionen: Dark_Soul, Alioth und MrHeisenberg
dcz01 schrieb:
1000 W??? :O
Wo ist denn die Effizienz hin... :(
Seit wann definiert der Verbrauch alleine die Effizienz?
Ergänzung ()

kalgani schrieb:
Ok auch die Industrie sollte mit Strom nicht so um sich werfen und was meinst Du was sich die Consumervarianten davon gönnen?
[...]
Consumervarianten der Rechenbeschleuniger?
Du glaubst echt, dass die Produkte dort in deiner Daddelkarte landen?
Wie schon geschrieben: Die Leistungsaufnahme alleine sagt nichts über die Effizienz.

Und wofür? Ki Schwachsinn, Crypto Stumpfsinn und Börsenrechnerei.
Alles nichts was man (oder irgendwer) braucht, egal was der Hype meint.
Ernsthaft? Du hst überhaupt keine Ahnung, musst aber unbeding unqualifizierten Senf von dir geben?
 
  • Gefällt mir
Reaktionen: Alioth, MoinWoll und MrHeisenberg
Bei den NVidia Karten kann man schon sehen das die mit höher Leistungsaufnahme ineffizienter sind als die selben Modelle mit niedriger Leistungsaufnahme wenn man die SXM Modelle mit den PCIe Karten vergleicht.
NVidia verwendet übrigens nicht den erwähnten OAM Standard sondern ihr eigenes SXM format. Die A100 konnte in speziellen Konfigurationen sogar bis zu 500 W verbrauchen. Diese Karten sind halt so teuer das das es fast egal ist wie viel Strom die verbrauchen weil es anteilig egal ist.
 
LEDs schrieb:
Diese Karten sind halt so teuer das das es fast egal ist wie viel Strom die verbrauchen weil es anteilig egal ist.
Da ignorierst du jetzt aber den Faktor Abwärme und wie diese abgeführt wird. Also selbst wenn im Serverbereich die Effizienz ("fast") egal wäre (was sie nicht ist), ist der Verbrauch eben nicht egal.
 
nciht schrieb:
Da ignorierst du jetzt aber den Faktor Abwärme und wie diese abgeführt wird.
Abwärme ist bei Servern eigentlich auch kein Problem. Es gibt auch für Server Wasserkühlungs-Systeme oder mit anderen Flüssigkeiten, womit man die Wärme ausreichend gut von den Chips abstransportiert bekommt. Auch wird die Abwärme mittlerweile auch nicht mehr einfach in die Umgebung geblasen, sondern in die Heizung oder Warmwassererzeugung von Nachbargebäuden eingespeist.

Im Laufe der Servergeschichte hat man schon ganz andere Wärmemengen bewältigt. Die Cray 1 hatte bspw. nen Verbrauch mit "Netzteil" von 115 kW auf recht kleinem Raum und die ist auch nicht geschmolzen.
 
  • Gefällt mir
Reaktionen: MalWiederIch
wern001 schrieb:
Was mich wundert ist die Stromversorgung. Wenn das Ding auf 1V läuft wären das 1000A -> 1000 Ampere. Eine Küchenofen ist mit 3x 16A ausgestattet.
Richtig - bei 230V, das ist doch überhaupt nicht vergleichbar :rolleyes:
wern001 schrieb:
Ich finde schon aktuelle Stromversorung von Consumer CPU und GPU faszinierend.
Das es schief läuft sieht man ja an den 4xxx Nvidia GPU-Stromsteckern
Wegen der Handvoll Leute die unfähig sind einen Stecker richtig einzurasten? Und selbst die haben ihre Grafikkarte ersetzt bekommen …
 
mibbio schrieb:
Im Laufe der Servergeschichte hat man schon ganz andere Wärmemengen bewältigt. Die Cray 1 hatte bspw. nen Verbrauch mit "Netzteil" von 115 kW auf recht kleinem Raum und die ist auch nicht geschmolzen.
Hat die irgendwo auf der Fläche von wenigen Quadratmillimetern 1000W Abwärme erzeugt?

mibbio schrieb:
Es gibt auch für Server Wasserkühlungs-Systeme oder mit anderen Flüssigkeiten, womit man die Wärme ausreichend gut von den Chips abstransportiert bekommt.
Wozu wird sowas entwickelt, wenn die "Abwärme" angeblich seit den 70ern kein Faktor mehr ist (von "Problem" sprach ich nicht)? Die Entwicklung immer raffinierterer Kühlungen zeigt doch, dass die Abwärme nicht egal ist.
 
MalWiederIch schrieb:
Richtig - bei 230V, das ist doch überhaupt nicht vergleichbar :rolleyes:
Ampere bleibt Ampere egal wieviel Volt oder Watt. Hohe Volt Zahlen lassen sich leichter Transportieren als hohe Watt Zahlen.
Ich weiß das Gleichstrom in Leitungen weniger Wärme erzeugt als Wechselstrom. Aber es sind immer noch extrem hohe Ampere.
Eine normale Destkop-CPU erzeugt auf mm² 5-10x mehr Wärme als eine Herdplatte
 
wern001 schrieb:
Ampere bleibt Ampere egal wieviel Volt oder Watt. Hohe Volt Zahlen lassen sich leichter Transportieren als hohe Watt Zahlen.
Jetzt hat sich aber jemand selber verhaspelt. ;-)

Was das nicht-Zielpublikum hier nicht weiß/versteht: Die Dinger sind ja nur Teile des Gesamtsystems und der Mehrverbraucht (auch mit schlechterer Effizienz) kann durchaus am Ende effizienter sein, weil weniger Peripherie drumherum benötigt wird. insbeonsdere sehr breitbandige Interlinks sind inzwischen ein energetisches Problem - und nicht zuletzt auch Grund für die immer höhere Konzentration.

Es gibt viel Literatur dazu, aber sich einzulesen ist schwieriger als von einer GeForce auf den Profibereich "zu schließen".
 
  • Gefällt mir
Reaktionen: MrHeisenberg
nciht schrieb:
Die Entwicklung immer raffinierterer Kühlungen zeigt doch, dass die Abwärme nicht egal ist.
Die Abwärme ist in dem Sinne egal und kein Problem, als dass es eben ausreichend Möglichkeiten gibt, diese abzuführen. Dem Kunden ist am Ende auch egal, wie das Teil gekühlt wird, denn der kauft schlicht einen Server von HP, Dell, usw. mit Ausstattung XY und schiebt den in sein Rack.
 
Nagilum99 schrieb:
Jetzt hat sich aber jemand selber verhaspelt. ;-)



Es gibt viel Literatur dazu, aber sich einzulesen ist schwieriger als von einer GeForce auf den Profibereich "zu schließen".

Stimmt sollte Ampere heißen. Hab auch geschrieben "Wenn das Teil auf 1 Volt läuft" 1 Volt und 1000 Watt sind und bleiben es 1000 Ampere.
1000 Watt bei 230V sind ca 4,3 Ampere. Bei Kabelquerschnitte und Kontakte sind extrem die Ampere ausschlaggebend.
 
Zuletzt bearbeitet:
wern001 schrieb:
1000 Watt bei 230V sind ca 4,3 Ampere. Bei Kabelquerschnitte und Kontakte sind extrem die Ampere ausschlaggebend.
Korrekt, am Ende des Tages aber egal, die Systeme werden ja dafür ausgelegt. Dass da 100+A aus den Ausgängen kommen ist selbst bei ATX-Netzteilen keine Utopie mehr. Kommt halt mehr Kupfer in die Platinen oder man führt die Kabel näher an die Verbraucher.
Was hier auch oft übersehen wird: Die Träger (mit diversen Dice) sind riesig, da lassen sich 1.000 W ganz anders kühlen als bei einem übertakteten i7, wobei inzwischen gut zu sehen ist, wie sich die feinrippigen Kühler entwickelt haben, da geht inzwischen auch mit Luft viel mehr als "früher".

Am Ende ist es simple Mathematik ob weniger-effiziente oder mehr Beschleuniger das Gesamtsystem effizenter machen.
 
Zurück
Oben