iGameKudan schrieb:
Solange die Teile auf die Rechenleistung gesehen effizienter werden ist es doch egal, dass die TDP steigt.
Ist doch das gleiche wie das Mimimi damals zur 4090. Ja, die hat 450W TDP. War aber dennoch effizient…
ElliotAlderson schrieb:
So ein Quatsch. Es spielt keine Rolle, wie viel ne Server CPU verbrät, sondern wie Effizient sie ist.
Wenn eine 1000 W CPU schneller ist als fünf 300 W CPUs, dann ist erstere besser.
Jaein.
Wenn dein Rack nur 20kW kann, dann spielt das schon ne Rolle besonders in Colocation Datencentern weil die Kunden am Ende nicht mehr ihr Zeug betreiben können.
Im Großen gilt das auch für ganz Datencenter. Denn ab nem gewissen Bereich kannst du das einfach nicht mehr vernünftig mit Luft kühlen. Schon bei 300W CPUs hast du teils 200-300W nur für die Lüfter... Und die darf man eben auch nicht bei der Effizienzbetrachtung vergessen genau wie die Inlet Temps. Da gibt es immer mehr Zeug was 15Grad oder sogar 10 will wo früher durchaus auch 25 gingen. Also in der Phase wo sich die Centerbetreiber für Temps wegen Kosteneinsparung interessiert haben also die Warm-/Kaltgang Ära.
Da kotzen so einige ziemlich ab und stoßen an ihre Grenzen. Da hast du jetzt teils Datencenter für Millionen die nur 20kW pro Rack können und keine 10 Jahre alt sind. Teils werden ja wohl selbst heute noch so Center gebaut..
die Rechencenter Planer sind da oft extrem träge im Vergleich zum Rest der Industrie....
Zudem rennen immer mehr Leute in die Situation das Sie an Blech fast nichts mehr dastehen haben. Also im Zweifel nur noch einen Server um ihren Bedarf zu decken und dann kostet Redundsnz halt 100% Aufschlag. Während bei 100 Servern du nur 101 brauchst für ne n+1 Redundanz. Das ist VIEL günstiger im Vergleich.
ich selbst merke es ja bei den großen Systemen. Was vor ein paar Jahren noch 1000 Server waren sind jetzt noch 200-300. Und das ohne GPU. Mit GPU Systemen bist du dann schnell bei nur nicht Dutzenden oder noch weniger. Das wird dann bezüglich Ausfällen dann immer kritischer.
Bei 1000 Servern juckt es nicht wenn da was nen Monat steht weil der Dienstleister zwar billig aber ne Schnarchnase ist. Mit 100 oder noch weniger Servern bricht dir das immer mehr das Genick. Du musst also dein ganzes Betriebskonzept umstellen!
RAS und Redundanz wird dann immer wichtiger.
Yosup schrieb:
Sehe da insofern im Datacenter überhaupt kein Problem. Da zählt aus Umweltsicht nur die Effizienz, und die ist vermutlich in Ordnung, wenn man sich a) die Entwicklung der letzten Jahre und b) den Umstand, dass für jeden Kern nur ein paar Watt PowerBudget zur Vergügung stehen vor Augen führt.
Siehe oben. In gewissen Grenzen ja, aber diese werden von immer mehr Leuten überschritten.
mae schrieb:
Eigentlich ist gerade da langsam das Dennart-Scaling zu Ende gegangen
jup siehe weiter unten. Das Ende des Dennard Scalings hat uns da das Genick gebrochen.
ETI1120 schrieb:
Die gute alte Zeit der Halbleitertechnik ging ca 2005 zu Ende, den von nun an waren die Leckströme nicht mehr vernachlässigbar. Schlagworte: Ende des Dennard Scaling oder auch PoPowerwall.
Ähm Dennard Scaling hat jetzt erstmal nichts mit Leckströmen an sich zu tun. Diese beruhen auf statischen Energieverbrauch da sie bei einer bestimmten Spannung fließen.
Beim Dennard Scaling geht es aber um die dynamische Leistungsaufnahme durch das Umladen von Transistoren und da geht eben die Kapazität linear und die Spannung quadratisch ein. Man wurde also immer effizienter (superskalar) weil man die Spannung senken konnte. Das sieht man auch in den Top500 Graphen zur Leistungsentwicklung in 2008
Quelle für das Bild
https://www.nextplatform.com/2019/0...se-puts-permanent-dent-in-supercomputing/amp/
Ob jetzt 2005 oder 2008 oder 2010 ist egal, weil es kein absolut schlagartig Effekt ist sondern immer kleiner geworden ist. Soweit so gut.
@DevPandi das hätte dem Artikel gut getan.
@ETI1120 jetzt kommt aber der Punkt der nicht so ganz passt aus meiner Sicht, aber Ursache und Wirkung da sauber zu trennen ist schwierig.
Also Transistoren habe eine sogenannte Threshold Spannung die man bedingt durch unterschiedliche Dotierungsdichte steuern kann. Aber an sich ist das ein intrinischer Wert für eine Technologie wie NMOS und PMOS. Ändert sich also quasi kaum.
CMOS Schaltungen wie Sie heutzutage verwendet werden erfordern es aber das man die Transistoren in StrongInversion betreibt was erfordert das man eine gewisse Spannung über der Threshold Spannung agiert. Wie du siehst ist die Minimale Spannung also vorgegeben. Danach werden die Transistoren einfach sehr langsam und damit würde beim Umschalten zu viel Strom durch den Transistor fließen. Das sind in dem Fall dann auch KEINE Leckströme!
In die Formel für die dynamische Leistungsaufnahme geht die Frequenz noch linear ein. Man hallt also Volt quadratisch was nicht mehr relevant kleiner werden konnte und linear Frequnz und Kapazität. Die Kapazität konnte man noch teils skalieren da man die Strukturgrößen kleiner gemacht hat. Funktioniert aber nicht für alles. Stichwort Leiterbahnen.
Die Frequenz konnte also nicht mehr oder kaum steigen bei konstanter Leistungsaufnahme.
vor allem kam dann ja noch das immer stärker werdende Problem der Leckströme hinzu was letztlich die Frequenzskalierung gekillt hat.
Das DenndardScaling dreht sich alles in allem aber NICHT um die Leckströme. Das ist "einfach" nur noch ein Problem das durch das Ende des Dennard Scalings auch noch schlimmer wurde.
Was dann am Ende zu so Themen wie DarkSilicon geführt hat. Bei DarkSilicon geht es ja auch darum das man einfach gar nicht so viel Strom in den Chip/Schaltung rein bekommt um alles zu betreiben. Stichwort Pin Limit, Elektromigrarrion usw usf.
hatte ich in 28nm auch für ne analoge Schaltung. Ich musste quasi alles mit Metal für die Versorgungsspannungen zukleistern damit das Ding nicht instantan durchgeschmort wäre. Und das waren jetzt nur 4 Transistoren.... die Dstenleitungen habe ich gerade so noch reingequetscht. Und die heutigrn FinFet oder gar GAAFets sind da noch viel viel viel schlimmer...
ETI1120 schrieb:
Seit dieser Zeit wird das Herstellen von Halbleiterschaltungen immer aufwändiger, weil man sich ständig neue Tricks einfallen lassen musste, um in den Transistoren die Leckströme zu begrenzen.
nicht nur für die Leckströme. Die Elektromogrartion und überhaupt Fertigbarkeit hat auch wesentliche Anteile genau wie die Geometrien. Stichwort Single Layer depositon oder Gate Geometrie stichwort Planar vs FinFet vs GAAFet.
ETI1120 schrieb:
Auf der anderen Seite wurde das Powermanagement auch bei den CPUs immer wichtiger. D. h. abschalten nicht benötigter Transistoren.
Ja das stimmt durchaus.