News AMD Epyc im SP 7: Nach GPUs streben wohl auch CPUs die Kilowatt-Marke an

Solange die Teile auf die Rechenleistung gesehen effizienter werden ist es doch egal, dass die TDP steigt.

Ist doch das gleiche wie das Mimimi damals zur 4090. Ja, die hat 450W TDP. War aber dennoch effizient…
 
  • Gefällt mir
Reaktionen: stevefrogs
Ich nehme einen als heizaggregat für meine Fritteuse!
 
Demnächst dann den PC an den Starkstrom hängen?
 
Krausetablette schrieb:
Welche sinnvolle Nutzung ergibt sich für Privatanwender bei Geräten, die nicht nur enorme Mengen Strom verbrauchen, sondern auch eine besonders leistungsstarke Kühlung erfordern?
Naja, Heute sind wir bei 500-1000 Watt für den High End GamingPC, wenn der zukünftige das doppelte verbraucht, aber die vierfache Leistung hat, geht die Rechnung weiterhin auf..
Vor 10 Jahren waren ~500 Watt viel, vor 20 warens 200 und noch 10 Jahre früher war der einzige Lüfter im System im Netzteil.
Außerdem ist ja weiterhin keiner gezwungen da mitzumachen, solang die Effizienz steigt.
Meine Systeme verbrauchen seit 15 Jahren um die 300 Watt und mir fehlt nix.
 
  • Gefällt mir
Reaktionen: MalWiederIch und derohneWolftanzt
Krausetablette schrieb:
Welche sinnvolle Nutzung ergibt sich für Privatanwender bei Geräten, die nicht nur enorme Mengen Strom verbrauchen…
KI für zu Hause statt auf den von Abo Modellen befeuerten Servern der großen US amerikanischen Anbieter? Unter anderem aus Datenschutz Gründen wäre das nicht nur für Privatnutzer sicherlich erstrebenswert.
 
  • Gefällt mir
Reaktionen: derohneWolftanzt
Hat schon jemand geschrieben:

„Für mich geht das in die falsche Richtung!“

Oder hab ich es noch als erster geschafft? :evillol:
 
  • Gefällt mir
Reaktionen: medsommer, MalWiederIch, derohneWolftanzt und eine weitere Person
Oh no, 4(?) Watt pro Kern. Wo soll das alles nur hinführen? 😭
 
  • Gefällt mir
Reaktionen: eSportWarrior, bart1983, Yesman9277 und 6 andere
Was mich wundert .. dass noch keiner das Meme gepostet hat.

1756482820240.webp
 
  • Gefällt mir
Reaktionen: Col. Jessep, Yesman9277, Winder und 3 andere
Viper816 schrieb:
AMD wird immer mehr zum Intel von heute.
Und Intel entwickelt sich mit dem auf Sparsamkeit gedowngradeten und eher erfolglosen ArrowLake zum neuen AMD.
So ein Quatsch. Es spielt keine Rolle, wie viel ne Server CPU verbrät, sondern wie Effizient sie ist.
Wenn eine 1000 W CPU schneller ist als fünf 300 W CPUs, dann ist erstere besser.
 
  • Gefällt mir
Reaktionen: stevefrogs, derohneWolftanzt, catch 22 und 5 andere
Viper816 schrieb:
AMD wird immer mehr zum Intel von heute.
Und Intel entwickelt sich mit dem auf Sparsamkeit gedowngradeten und eher erfolglosen ArrowLake zum neuen AMD.
Bei den aktuell 500 W für einen Epyc 9965X mit 192 Kernen bekommt jeder Kern rechnerisch ein thermisches Budget von knapp 2,6 Watt.

Schafft das dein Intel auch mit 2,6 W pro Kern?
Frage nur für einen Freund.......
 
  • Gefällt mir
Reaktionen: JarlBallin, derohneWolftanzt, Skudrinka und eine weitere Person
Erkekjetter schrieb:
PCs in die heimische Heizungsanlage integrieren kann.
Die Idee wäre doch gar nicht so verkehrt 🤣
Einfach eine CPU und GPU die genügend Leistung und Wärme produzieren und die direkt als Heizung verbauen. 🤣 Anschlüsse gibts dann "zum zocken" überall im Haus.
 
Nur 1 Liter in der Minute, was ist da los?
Ergänzung ()

lex30 schrieb:
Die Idee wäre doch gar nicht so verkehrt 🤣
Einfach eine CPU und GPU die genügend Leistung und Wärme produzieren und die direkt als Heizung verbauen. 🤣 Anschlüsse gibts dann "zum zocken" überall im Haus.
So habe ich es in unserem neuen Haus tatsächlich.
Edit 9800X3D und 4090 heizen mit^^ Der WaKü Kreislauf iat über 2 Stockwerke. Im Winter habe ich 14 Grad Wassertemperatur, wenn die Lüfter voll laufen. Im Sommer kühlt der PC das Büro, weil Luft hinten kälter rauskommt als Ambient.
 
  • Gefällt mir
Reaktionen: Dgini, fullnewb und lex30
Boulettendieb schrieb:
Naja, Heute sind wir bei 500-1000 Watt für den High End GamingPC, wenn der zukünftige das doppelte verbraucht, aber die vierfache Leistung hat, geht die Rechnung weiterhin auf..
Vor 10 Jahren waren ~500 Watt viel, vor 20 warens 200 und noch 10 Jahre früher war der einzige Lüfter im System im Netzteil.
550W waren damals einfach die sichere Größe für jeden PC. Heute frisst eine High End GPU so ein ganzes Netzteil alleine. Klar setzen wir irgendwie mehr pro Watt um. Ich finde die aktuellen Mobilprozessoren wirklich unglaublich. Ganze Computer samt Bildschirm, die mit 20W diverse 3D Spiele darstellen und mit 60W auch bei vielen gängigen Titeln wie GTA 5 durchaus 40-60 FPS erreichen? Das fetzt!
Umgekehrt glaube ich, dass wir auch unglaublich viel Leistung verschenken und verschwenden. Kürzlich meinte jemand zu mir, dass die FPS auf einen Zielwert festzulegen, verschwendete Kapazität meiner Hardware wäre. Da fragt man zurück: Was bringt es denn, wenn die Hardware 30% der berechneten Bilder nie angezeigt hat?
Und nach unten geschaut: Wie viel Spaß hatten wir im einem Gameboy oder Super Nintendo? Ich schaue mit großem Respekt auf die 3,58 MHz, die mir Super Mario World und viele weitere Spiele beschert haben. Klar beschränken sich die Details, aber dafür stimmt das Wesentliche.

Boulettendieb schrieb:
Außerdem ist ja weiterhin keiner gezwungen da mitzumachen, solang die Effizienz steigt.
Meine Systeme verbrauchen seit 15 Jahren um die 300 Watt und mir fehlt nix.
Und an diesem Punkt bin ich dir dankbar für diese Aussage. Initial dachte ich, du wolltest schulterzuckend einfach sagen: Ist halt so. Aber du tust das Gegenteil. Auch mein Rechner verbrät in der Regel 200-350 W je nach Spiel und Workload. Im Idle definitiv zu viel, aber ich erinnere mich noch gut daran, wie mein 420W Netzteil vor meiner R9 290X durch irgendwelche Spitzen in die Knie gegangen ist. Ich bin super glücklich, dass ich heute mindestens 4x so viel Rechenleistung habe und meine Spitzenleistung immer noch mit einem 550W Netzteil abgedeckt wäre. Viele FPS und Details, wo ich sowieso nichts bemerke, brauche ich nicht. Und Letzteres gilt für beide Richtungen: Das Silent Hill Remake hatte bekanntlich ein kleines Problem, dass im Nebel eine hochauflösende Landschaft gerendert wurde und dann vollständig durch den Nebel verdeckt wurde. Da dürfte man sich gerne mal wieder hinsetzen und optimieren. Immerhin hat eine Playstation 1 die Essenz des Spiel mit einem Bruchteil der verfügbaren Rechenleistung vorgegeben.
Und hinsichtlich Webentwicklung muss ich wohl nicht viele Worte verlieren, dass man sich durchaus die Frage stellen sollte, wohin der ganze RAM eigentlich verschwindet. :)


nomika schrieb:
Demnächst dann den PC an den Starkstrom hängen?
Na diverse Länder mit 100-120V Stromkreisen haben schon das Vergnügen, dass die stärksten ATX Netzteile auf dem Markt bei ihnen die Sicherung fliegen lassen, wenn der PC die volle Leistung abverlangt und Starkstrom hat auch nicht jeder zuhause. Das wird alleine gedanklich eine immense Barriere:
Hersteller: "Die meisten potenziellen Käufer können dieses Netzteile nicht betreiben, weil der Stromkreis nicht hoch genug abgesichert ist"
Kunden: "Ich muss die Elektroinstallation in meinem Haus anpassen (lassen), um diesen PC zu betreiben."
Und mal ganz anders: "Mit 3 kW Leistung könnte ich auch GoKart fahren und mein Wohnzimmer heizen"

Große Industrieprozessoren hin oder her. Mal eben Cinebench durchlaufen lassen und staunen, wie schnell die Kacheln berechnet werden, sollte man mit dem gebührenden Respekt und der aktuelle Threadripper hat ja schon wieder gezeigt, was für eine Immense Leistung da umgesetzt wird verglichen mit dem, was meine 12/24 Desktop Kerne da fabrizieren. Da finde ich es immer wieder ein bisschen amüsant, dass die Gamer von einer ultrateuren CPU dann hinsichtlich der FPS in ihren Spielen derart enttäuscht werden. :)

budspencer schrieb:
So habe ich es in unserem neuen Haus tatsächlich.
Edit 9800X3D und 4090 heizen mit^^ Der WaKü Kreislauf iat über 2 Stockwerke. Im Winter habe ich 14 Grad Wassertemperatur, wenn die Lüfter voll laufen. Im Sommer kühlt der PC das Büro, weil Luft hinten kälter rauskommt als Ambient.
Und ich dachte, ich wäre einer der wenigen Leuten, die manchmal ganz verrückte Ideen haben und gerne in die Tat umsetzen würden und für so manche Leute ist nicht ganz dicht bezeichnet werden. :daumen:
 
  • Gefällt mir
Reaktionen: Loro Husk, Skysnake, Boulettendieb und eine weitere Person
iGameKudan schrieb:
Solange die Teile auf die Rechenleistung gesehen effizienter werden ist es doch egal, dass die TDP steigt.

Ist doch das gleiche wie das Mimimi damals zur 4090. Ja, die hat 450W TDP. War aber dennoch effizient…
Im Nvidia Blackwell Ultra Artikel haben das nicht viele verstanden, hauptsache "hihi, Nvidia, viel Strom" Mimimi...
 
Technisch find ich des Irre wie sowas noch funktioniert. Wie schnell ein dünner Draht oder eine Platinenbahn bei 10 Ampere in Rauch aufgehen kann und da hat man ne CPU mit der filigranen Struktur wo jetzt gut 1000 Ampere umgesetzt werden. Kaufen werde ich mir sowas in der Leistungsklasse nie, krieg ich nicht mal mein 9800X3D ordentlich gekühlt, aber Faszinierend auf jeden fall :D
 
  • Gefällt mir
Reaktionen: Skysnake, Qyxes, Boulettendieb und eine weitere Person
Krausetablette schrieb:
Welche sinnvolle Nutzung ergibt sich für Privatanwender
also ich nutze meine Kerne für Image stacking und Panorama shots im astrofotografiebereich und anderen Nutzungen in Foto und Video, Encodierungen auf hohem Niveau bei maximaler Qualität und Dateigröße, 7 Zip für Rohdaten und die ein oder andere Berechnung und Simulation für den beruflichen Hintergrund ist auch dabei. deshalb nehme ich mehr Kerne, schnellere Kerne und vorallem mehr bandbreite mit Kusshand xd

ruthi91 schrieb:
Das ist schon beeindruckend wenn man laut News bei "exklusive IO-IMC" bei 2,6W pro Kern angekommen ist.
und gern vergisst man dabei dass diese kerne größer denje sind. sämtliche zieltaktraten, instruktionssets und kommunikation pro kern passt in diese 2-3W. ich glaube es darf keinen überraschen warum hier dennoch luft nach oben ist mit jeder neuen fertigung, größerem AXV usw. :D

desktop kerne sind immer komplett übertunt, im server sieht man was wirklich geht.
 
  • Gefällt mir
Reaktionen: stevefrogs, Dgini, Boulettendieb und eine weitere Person
@PS828
Ok überlesen, Du hast es ja oben geschrieben, hat sich wohl mit meiner Frage zeitlich überschnitten.
 
Zuletzt bearbeitet:
Im Prinzip sind das industrielle Maschinen, und wenn analog dazu eine Firma eine Teigknetmaschine mit 5 kW-Rührwerk vorstellt, dann fragt ja auch keiner "Puh, wie soll ich das zu Hause denn sinnvoll betreiben?"...

Sehe da insofern im Datacenter überhaupt kein Problem. Da zählt aus Umweltsicht nur die Effizienz, und die ist vermutlich in Ordnung, wenn man sich a) die Entwicklung der letzten Jahre und b) den Umstand, dass für jeden Kern nur ein paar Watt PowerBudget zur Vergügung stehen vor Augen führt.
 
  • Gefällt mir
Reaktionen: stevefrogs, Col. Jessep, konkretor und 3 andere
Zurück
Oben