News AMD Epyc im SP 7: Nach GPUs streben wohl auch CPUs die Kilowatt-Marke an

Sinatra81 schrieb:
Hat schon jemand geschrieben:

„Für mich geht das in die falsche Richtung!“

Oder hab ich es noch als erster geschafft? :evillol:
Du vergisst, dass das eine AMD und keine Nvidia bzw. Intel-News ist, ansonsten hätte sich hier auf CB doch garantiert jemand gefunden der das als erstes hingerotzt hätte ohne den Artikel zu lesen :p
 
  • Gefällt mir
Reaktionen: Sinatra81
stefan92x schrieb:
@UrlaubMitStalin Die erste Seite hier ist voll mit Beiträgen, aus denen hervor geht, warum das hier die richtige Richtung ist. Und dann gibts immer Leute, die lieber einfach ihre Einzeiler ins Forum rotzen, ohne auf die vorherige Diskussion einzugehen.
Stell Dir vor es gibt Leute die Deine Meinung nicht teilen. Leute die ihren Kommentar auch mit "imho" einleiten. Und dann gibts Leute wie Dich, die abweichende Meinungen nicht akzeptieren können. Aber ist ja nix Neues im Netz "alle doof die nicht meiner Meinung sind".

Aber passt schon, wenn ich Dich auf die Ignore-Liste setze, werde ich davon hoffentlich nicht mehr belästigt.
 
CDLABSRadonP... schrieb:
Hast du mal nachgemessen, wie viel der wirklich zieht, wie viel m³ (ja, hoch drei!) du hast und welche Temperatur vorher drinnen herrschte?
Schon mit 18° vorher drinnen kann ich mir das nämlich bei halbwegs großen Volumen kaum vorstellen...
Danke für die unnütze Belehrung, so was steht auf keinem 08-15 Heizlüfter. Ein Luftmessgerät hatte ich schon im Haus überall dran, aber am Heizlüfter, der quasi nie an ist?
Da wo er notwendig war, weil Heizung bei -10 Grad ausgefallen, hatte das Haus etwa 19 Grad am Morgen. Den Lüfter da angeschaltet, und nach 2h war es mollig warm. Danach noch einmal für die gleiche Dauer eingeschaltet. Am nächsten Morgen, und ein Techniker hat das Problem gelöst.
 
TomausBayern schrieb:
Stell dir sowas daheim vor: Counter Strike 2 in 20000fps 😂😂

Im Jahr 2000 haben wir Quake mit 1000 FPS gedaddelt.
Zu der Zeit haben Leute die Halflife Mod "Counterstrike" mit lahmen Rechnern noch in 640x480 gezockt.
Das Halflife von damals mit Counterstrike Mod kriegt man bestimmt heutzutage mit 10000-100000 FPS hin...Falls es nicht crasht.
Muesste Mal jemand versuchen, keine Ahnung ob es abschmiert 🤔

Schraeg war in CS immer wenn random Leute Heino, Stalhin oder MP3 Hilterplatten abgespielt haben oder random Leute auf Arabisch, Russisch oder 20 anderen Sprachen beleidigt haben.

Gaming war frueher viel lustiger, es gab kaum Regeln und alles war egal.

Es gab keine Influenza, Likes, Insta oder Smartphones und alles war echt und nicht fuer Clicks gestellt und niemand hat nichts gefilmt.

Tausend Sachen waren frueher schlecht, aber es war viel geiler und freier.

Niemand hat damals geahnt wie schlecht die Welt werden wuerde.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: TomausBayern
Topflappen schrieb:
Danke für die unnütze Belehrung, so was steht auf keinem 08-15 Heizlüfter. Ein Luftmessgerät hatte ich schon im Haus überall dran, aber am Heizlüfter, der quasi nie an ist?
Da wo er notwendig war, weil Heizung bei -10 Grad ausgefallen, hatte das Haus etwa 19 Grad am Morgen. Den Lüfter da angeschaltet, und nach 2h war es mollig warm. Danach noch einmal für die gleiche Dauer eingeschaltet. Am nächsten Morgen, und ein Techniker hat das Problem gelöst.
Dein Beitrag klang so, als würdest du das häufiger machen. Daher kam meine Nachfrage.
 
mae schrieb:
Jedenfalls wurden sowohl Tejas im Mai 2004 als auch K9 ungefaehr um dieselbe Zeit eingestampft
Es war Jahre im vorraus abzusehen dass das Dennard Scaling zum Ende kommen wird. Diese Erkenntnis war eine der Triebfedern für die Arbeit der ITRS.

Die Folie hat Paolo Gargini 1997 erstellt. Er hat sie in einem Vortrag von 2017 noch Mal gezeigt:
1756634204423.png

Paolo Gargini war eine der treibenden Kräfte hinter der ITRS und später hinter der IRDS.

Damals war er bei Intel für die Fertigung der X86 Prozessoren verantwortlich.

Im übrigen gibt es das Statement von Robert B Colwell, das er 2000 die Intel Microprozessor Group verlassen hat, weil er nicht an den Erfolg von Prescott geglaubt hat.

mae schrieb:
Stellt sich die Frage, wer recht hat.
1756579426056.png

https://www.numberworld.org/blogs/2024_8_7_zen5_avx512_teardown/

Alexander J. Lee hat Zen 5 einige Wochen auf Herz und Nieren strapaziert.
 
  • Gefällt mir
Reaktionen: Skysnake und mae
Dessi schrieb:
Sollte das Teil wirklich 256 Kerne haben - sind 1000 Watt rein gar nichts.
4W pro CPU Kern...
Meine Intel CPU schafft bis zu 50W auf einem Kern unter Single-Core Volllast...
Es sind sogar deutlich weniger pro Kern. Der IO-Die frisst selbst auch einiges an Leistung.
 
  • Gefällt mir
Reaktionen: JarlBallin
UrlaubMitStalin schrieb:
Stell Dir vor es gibt Leute die Deine Meinung nicht teilen. Leute die ihren Kommentar auch mit "imho" einleiten. Und dann gibts Leute wie Dich, die abweichende Meinungen nicht akzeptieren können. Aber ist ja nix Neues im Netz "alle doof die nicht meiner Meinung sind".

Aber passt schon, wenn ich Dich auf die Ignore-Liste setze, werde ich davon hoffentlich nicht mehr belästigt.

Deiner Meinung nach geht mehr Effizienz in die falsche Richtung?

Okay.
 
Wirkt aufs erste krass, ist aber eine Entwicklung in die richtige Richtung. Der Trend geht in Richtung immer größerer Packages mit entsprechend mehr Kernen anstatt mehrerer Sockel. Das ist effizienter und schneller.

Ich rechne eigentlich fix damit, dass wir in einigen Jahren riesige Sockel mit mehreren kW Leistung sehen werden.
 
Willst die Meinung ja nicht ändern, obwohl hier mehrfach erklärt wurde warum die Entwicklung zu mehr Effizienz führt.
 
Zuletzt bearbeitet:
radoxx schrieb:
Ich rechne eigentlich fix damit, dass wir in einigen Jahren riesige Sockel mit mehreren kW Leistung sehen werden.
Ich auch. Cerebras betreibt ja heute schon die Wafer Scale Engine in dem Bereich, und das Panel-Level-Packaging, was kürzlich vorgestellt wurde, geht ja auch in solche Größenbereiche.
 
  • Gefällt mir
Reaktionen: radoxx
ETI1120 schrieb:
Es war Jahre im vorraus abzusehen dass das Dennard Scaling zum Ende kommen wird.

Aber was Intel offensichtlich erst im Mai 2004 geglaubt hat (und bei AMD aehnlich), war, dass damit die Taktfrequenzsteigerungen auch vorbei sind (zumindest weit weg vom Tempo der 1990er). Und meine Vermutung ist, dass die geglaubt haben, dass sie die hoehere Leistungsdichte durch Kuehlung beherrschen koennen. Und da hat sich wohl kurz vor dem Mai 2004 eine vielversprechende Technologie als Luftschloss herausgestellt.


Sehr interessant, beim ersten Lesen hatte ich mich auf die Mikroarchitektur konzentriert:-). Vor allem, dass der 9950X unter Maximallast 3.8GHz runtergeht, dafuer 0.95V Kernspannung reichen, und der Prozessor dann durch das Amperelimit statt durch das Wattlimit begrenzt wird. Wobei die 160A Limit auch ein interessanter Kontrast zu der Beschwerde in einem anderen Thread sind, dass die Sapphire-Boards nur voltage regulators fuer 660A haben.
 
Juhu! Mehr Stromverbrauch! Hoffentlich auch höhere/gleich Effizienz.
 
@fef_ on_berg Die Effizienz steigt massiv an. Nurmehr etwa 3W pro Kern in dem Fall. Der Trend geht dahin, deutlich mehr Kerne ect auf ein großes Package zu vereinen anstatt auf mehreren Sockeln.
 
mae schrieb:
Aber was Intel offensichtlich erst im Mai 2004 geglaubt hat (und bei AMD aehnlich), war, dass damit die Taktfrequenzsteigerungen auch vorbei sind (zumindest weit weg vom Tempo der 1990er). Und meine Vermutung ist, dass die geglaubt haben, dass sie die hoehere Leistungsdichte durch Kuehlung beherrschen koennen. Und da hat sich wohl kurz vor dem Mai 2004 eine vielversprechende Technologie als Luftschloss herausgestellt.
Sorry dass ich so spät antworte.

Ich hatte auf Semiwiki gelesen dass Robert P. Colwell der maßgeblich in der Entwicklung von P6 und Williamette beteiligt war Intel wegen dem drohenden Fiasko des Endes des Dennard Scaling verlassen hat. ich dachte diese Stelle wäre in seinem Interview mit dem Computer History Museum. Es gab dort aber nur die Andeutung.

Allerdings wurde ich auf das Buch "The Pentium Chronicles" aufmerksam das Rober P. Colwell 2006 veröffentlicht hat. Dieses zu bekommen hat einiges an Zeit gebraucht, Heute war es im Briefkasten.

In "The Pentium Chronicles" schreibt Robert P. Colwell dass er nach Williamette nicht weiter an high-clock-rate Chips arbeiten wollte, da klar war dass sie in die thermal power wall laufen werden. Wie er an dieser Stelle andeutet hatte sie bei Williamette schon genügend andere Probleme (Ich muss das Buch noch lesen)

Es gelang Robert P. Colwell 1998 bis 2002 nicht die Roadmap von Intel zu ändern (weg von high-clock-rate Chips), also hat er 2000 das Micro Processor Design bei Intel verlassen und klar war dass er als CTO nichts beitragen konnte um Intel Consumer erfolgreich zu machen, hat er 2001 Intel ganz verlassen.

mae schrieb:
Sehr interessant, beim ersten Lesen hatte ich mich auf die Mikroarchitektur konzentriert:-). Vor allem, dass der 9950X unter Maximallast 3.8GHz runtergeht, dafuer 0.95V Kernspannung reichen, und der Prozessor dann durch das Amperelimit statt durch das Wattlimit begrenzt wird. Wobei die 160A Limit auch ein interessanter Kontrast zu der Beschwerde in einem anderen Thread sind, dass die Sapphire-Boards nur voltage regulators fuer 660A haben.
ich kenne mich da nicht aus wie viel Sicherheit erforderlich ist, aber ein Problem ist nun Mal dass der Wirkungsgrad dieser Bauteile kleinen Lasten ins Bodenlose abfällt. Und dann kommen andere und beschweren sich über den hohen Idle Verbrauch.
 
ETI1120 schrieb:
In "The Pentium Chronicles" schreibt Robert P. Colwell dass er nach Williamette nicht weiter an high-clock-rate Chips arbeiten wollte, da klar war dass sie in die thermal power wall laufen werden.

Das Interessante ist, dass AMD offenbar auch nicht an die thermal power wall geglaubt hat (mit dem von Mitch Alsup beschriebenen K9-Projekt). Hatten die nur FOMO, oder haben beide Firmen an eine Kuehltechnologie geglaubt, die das wegkuehlt.

ETI1120 schrieb:
Wie er an dieser Stelle andeutet hatte sie bei Williamette schon genügend andere Probleme (Ich muss das Buch noch lesen)

Ein Problem von Netburst war, dass sie viel mit Replays gemacht haben, das aber nicht in der Simulation erfasst haben (haben wohl gedacht, dass die selten genug sind, sodass sie keine Rolle spielen), und die Replays dann weitere Replays ausgelöst haben, und das den IPC stark beeinträchtigt hat.
ETI1120 schrieb:
ich kenne mich da nicht aus wie viel Sicherheit erforderlich ist, aber ein Problem ist nun Mal dass der Wirkungsgrad dieser Bauteile kleinen Lasten ins Bodenlose abfällt. Und dann kommen andere und beschweren sich über den hohen Idle Verbrauch.
Ich vermute, bei der extremen Überdimensionierung geht es darum, den Spannungsabfall unter Last zu minimieren, was hilft, den Prozessor fuer einen bestimmten Takt mit etwas weniger Spannung zu betreiben, was wiederum beim Übertakten ein paar MHz mehr bringt. Wenn man nicht übertaktet, braucht man das nicht.
 
Zurück
Oben