News AMD Epyc 7Fx2: Hochfrequenz-CPUs mit mehr Takt, Cache und TDP

Balikon schrieb:
6Ghz mag vielleicht keine "physikalische Grenze" sein im Sinne von "darüber geht auf gar keinen Fall was noch nicht mal für eine Sekunde".

Diese Aussage, nachdem nachgewiesenermaßen bereits 8 GHz erreicht wurden... hat sie Dich große Überwindung gekostet? :-)

Ok, ich bin ja schon still. Ich vermute, wir können uns darauf einigen dass wir Prozessoren mit > 6Ghz in den nächsten 5 Jahren wahrscheinlich nicht im Mainstream sehen werden. Ich würde auch sagen in den nächsten 10 Jahren, aber da wirds dann beim Blick in die Glaskugel schon arg wolkig.
 
Hayda Ministral schrieb:
Diese Aussage, nachdem nachgewiesenermaßen bereits 8 GHz erreicht wurden... hat sie Dich große Überwindung gekostet? :-)
Hast du dir dazu auch die Kühlungsmaßnahmen angesehen? Niemals schaffen wir stabil 8ghz bei vertretbarem Aufwand.
Sorry aber Solche Aussagen sind mir echt neu bei dir. Man sieht ja schon was Intel tun muss, um 5,3ghz zu schaffen. Ökonomisch ist das schon lange nicht mehr sinnig.
 
Nagilum99 schrieb:
Eine Server CPU die 1 - 2 Threads auf 4,5 GHz bekommt, während die anderen 20 rumlungern, interessiert quasi keine Sau. Das ist 'n Nischenprodukt und kein Markt.
ganz so einfach ist es nicht. Kaum ein Server hat konstant Dauerlast auf allen Kernen. Aber wenn er muss dann kann er auf alle Kerne zurückgreifen. Zb Datenbanken. Die meisten Abfragen sind da sogar nur auf einem Kern zu rechnen da es schlicht schneller ist. Nur ab einem gewissen Schwellenwert wird parallelisiert.
Wir haben viele Server, nicht einer davon hat eine konstante Auslastung an die TDP heran - heißt es wäre immer Raum für nen höheren Takt auf wenig Threads.

Vollkommen irrelevant ob Desktop oder Server CPU.

Edit. wie gesagt, ich denke es geht dabei einfach um die thermische Dauerbelastung durch hohe Spannungs / Temperatursprünge innerhalb eines Siliziums.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZFS
So ist es. Ich würde gern einen Threadripper 3990X (64C/128T 2,9/4,3 GHz 256 MB) als Server CPU sehen. Für Datenbanken wäre das optimal. Aber die Richtung von AMD stimmt.
 
Na ich bin gespannt, wann die CPUs in Servern zu kaufen sein werden, die ersten Tests mit den HP Servern verliefen bei uns ganz gut, mit den neuen CPUs würde ich dann gerne mal Citrix ausprobieren, der Re-Invest der Farm steht ja an...
 
Laut Golem ist unter anderem auch der Hochfrequenz-Handel an der Börse. Wenn sie da nen Fuß rein bekommen wär das natürlich mega.
 
Irgendwie find ich es befremdlich wenn Softwarehersteller ihre Produkte pro Kern Lizenzieren. Damit torpediert man doch jeden Fortschritt der Hardwarebasis was die eigene Software zukünftig beschleunigen könnte.

Ich bin so ideslistisch dass mich dieses Verhalten wirklich stört und solche Leute eingesperrt gehören. Aber ich fürchte an solchen Methoden wird sich nicht viel ändern.
 
  • Gefällt mir
Reaktionen: TechFA und Schorsch92
ich frage mich ob es nicht auch einen markt für eine cpu mit sagen wir 8/16 x 4,4 ghz (turbo) und dafür entsprechend kleineren cache gibt um unter 280 watt zu bleiben? insbesondere der achtkerner liefert mit seinen nur zu 25% genutzten kernen ja sehr viel die-fläche für eine recht einfache kühlung und 4,4 ghz sind bei zen2 ja keine sehr hohe hürde. sollte doch relativ einfach zu realisieren sein, sofern denn ein markt für "hochfrequenz-cpus" bestehen sollte...

@PS828: ich könnte mir vorstellen, dass manche programme pro kern eine eigene instanz laufen lassen, dann ist das ähnlich wie eine lizenz je workstation in einem netzwerk zu sehen.
 
PS828 schrieb:
Irgendwie find ich es befremdlich wenn Softwarehersteller ihre Produkte pro Kern Lizenzieren. Damit torpediert man doch jeden Fortschritt der Hardwarebasis was die eigene Software zukünftig beschleunigen könnte.

Wie kommst du auf sowas?

"Früher" hast du 10 Serverlizenzen verkauft, damit genug Leistung für alle Benutzer da ist. Heute bietet ein Server mit vielen Kernen mehr Leistung als die 10 damals. Sollen die Softwarehersteller also nur noch ein Bruchteil vom dem verdienen was sie früher verdient haben?

Wie du siehst ist das eben nicht so einfach klar und die Lizensierung pro Sockel ist bei den meisten Produkten auch längst fällig geworden. Aus Anwendersicht wäre es natürlich toll, wenn man mit solchen CPUs Geld bei der Software sparen könnte, aber hier gibt es nun mal immer mindestens zwei Seiten.
Ergänzung ()

Lübke schrieb:
ich frage mich ob es nicht auch einen markt für eine cpu mit sagen wir 8/16 x 4,4 ghz (turbo) und dafür entsprechend kleineren cache gibt um unter 280 watt zu bleiben?

Natürlich gibt es einen riesigen Markt dafür und dieser wird auch bedient.
1586954430173.png

https://en.wikichip.org/wiki/intel/xeon_e

Diese ganzen 16, 32, 64C "Monster" machen bei kleineren Unternehmen überhaupt keinen Sinn.

Die entscheidende Frage dabei ist nicht die Ghz Zahl, sondern ob man den Speicher und/oder PCIe Lanes braucht oder nicht. Die Epyc CPUs oder die Intel Gold und Platinum CPUs sind für große Datenbanken gedacht und haben entsprechend viel Takt um nicht Geld bei den Lizenzen zu verschenken.

Daneben gibt es es noch die Desktop-CPU Ableger mit viel Takt z u einem Bruchteil des Preises, aber mit einer wesentlich schlechteren Speicherunterstützung. Die eignen sich dann halt wunderbar für kleinere Server.
 
Zuletzt bearbeitet:
Und einmal mehr überlege ich ob ich nach dem lesen der nachrichten makeup brauche. leicht grün vor neid
4 kerne und magere 6 mb L3 und dann dauernd sowas vor der nase.

ronrebell schrieb:
Und jetzt noch das selbe Spiel am GPU Markt bitte 🙏
meinst du halbe menge ALUs, doppelter takt und vierfacher energieverbrauch bei etwa gleicher performance (je nach situation mehr oder weniger) will irgendjemand?
also ich sicher nicht, bin froh wenn die graka sparsam und leise ist ^^
bin mir nicht ganz sicher wo es für viele ALUs auslastungsprobleme gibt, aber vermutlich nur bei geringen auflösungen. 320x200 Pixel gaming @ 1850 FPS anyone?
 
@xexex @Lübke eben, es gibt mehr als eine Seite der Medaille. Deshalb schrieb ich auch nur von einem Gefühl meinerseits. Es wirkt nicht kundenfreundlich und ist die Konkurrenz unter den Softwareschmieden wirklich so gering dass keiner da mal einen Preiskampf startet um sich einen Vorteil zu verschaffen? Da könnten andere Lizenzmodelle doch super sein, eben weil die Kunden damit große CPUs verbauen können und so insgesamt, wenn die Anwendung es zulässt, die Leistung erhöhen können was die kundenbindung steigert
 
  • Gefällt mir
Reaktionen: TechFA
PS828 schrieb:
Da könnten andere Lizenzmodelle doch super sein, eben weil die Kunden damit große CPUs verbauen können und so insgesamt, wenn die Anwendung es zulässt, die Leistung erhöhen können was die kundenbindung steigert

Es steht jedem frei statt CPU Lizenzen eben Benutzerlizenzen zu kaufen, es gibt also für beides ein Lizenzmodell.

Hier Preise für die Standard Edition von Oracle
1586967472970.png


Am Ende stellt sich halt die Frage wie viele Benutzer wie intensiv mit der Datenbank arbeiten. Bei wenigen Benutzern mit starker Datenbankauslastung wäre eine Benutzerlizenz vom Vorteil, bei vielen Benutzern die nur geringfügige Last produzieren ist das CPU Modell das richtige.

Anders sieht es natürlich aus, wenn man wie bei vielen Internetanwendungen gar keine benannten Benutzer hat, da bleibt einem oft nur die Kernlizensierung übrig.

Den Kunden interessieren übrigens "große CPUs" nicht, man kauft nicht etwas auf Halde was man aktuell nicht benötigt und in ein paar Jahren eh aus dem Support raus und veraltet ist. Das "Kernrennen" ist auch bei Servern abseits großer Rechenzentren mehr eine Image Sache.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
Hayda Ministral schrieb:
Muss ich mir die Kühlungsmaßnahmen für 8 GHt ansehen wenn die zu prüfende Aussage lautet dass es eine pyhsikalische Grenze bei 6 GHZ gibt? Nein, muss ich nicht.
Sorry aber das ist doch quatsch... Du solltest dich vllt echt mal mit Halbleitern beschäftigen...
https://www.uni-kassel.de/eecs/file...ebiete/FSG/Download/Lehre/ETP1/Halbleiter.pdf
Lesen macht Schlau



Hier bitte:
http://wgropp.cs.illinois.edu/courses/cs598-s16/lectures/lecture15.pdf
 
Zuletzt bearbeitet: (zitat entfernt)
@Rockstar85
Dein Text besteht nicht mal zur Hälfte aus Eigenleistung :D Schönes Copypaste haben wir hier und ich fürchte, du verstehst nicht mal, was du da wörtlich zitierst. Hier für alle noch mal deine Quelle, die du verschwiegen hast ( https://www.pcwelt.de/tipps/Deshalb-steigen-die-CPU-Taktraten-aktuell-nicht-mehr-10599375.html ). Dass die Dennard-Skalierung bei so kleinen Transistorgrößen nicht mehr funktioniert, heißt einfach nur, dass die Chips mehr Energie brauchen und dadurch noch heißer werden, was ja anscheinend sowieso das Hauptproblem bei höheren Taktfrequenzen ist. Aber das war ja sowieso klar. Die von dir bezeichnete pysikalische Grenze ist keine physikalische Grenze. Du hast dich nun mal geirrt, hast etwas nicht ganz richtig geschrieben. Kann ja passieren, ist ja nicht schlimm. Aber verteidige deine sprachliche Ungenauigkeit doch nicht noch über mehrere Beiträge. Außerdem lässt du außer Acht, dass später möglicherweise neue Technologien entwickelt werden, die es ermöglichen könnten weitaus höhere Taktfrequenzen zu realisieren.
 
bensen schrieb:
Was glaubst du denn wie gammelig die Yield ist?
...
Aber AMD wird sicherlich nicht viele Dies haben wo kaum ein Kern heile ist aber der komplette LLC.

Da werden insgesamt schon viele Dies künstlich beschneiden.

Der Yield von TSMCs 7nm ist erfreulich gut, bei ca 90% für die kleinen Zen2 Chiplets. dennoch purzeln selbstverständlich auch dort teildefekte Dies aus der Produktion.
Der L3 Cache belegt den Löwenanteil der Chipfläche. Ergo fällt ein Defect am wahrscheinlichsten auf den L3,

Insofern stelle ich die Aussage in Frage, dass AMD "sicherlich nicht viele Dies haben wo kaum ein Kern heile ist".
 
Gee858eeG schrieb:
Graphen wäre hier ne Option.. Aber der 14nm Prozess zeigt sehr wohl wo Ende ist und auch der 7nm Prozess
Aber wir reden von Silicium also sind die Grenzen bekannt.. Außerdem sind Taktgrenzen auch immer an Architekturen gebunden. Aber ist ja auch egal.. Hier geht ja nur noch nach gefühlen Fakten

Das Ahmdalsche Gesetz sagt ja auch, dass wir mit mehr Paralellisierung mehr Leistung erhalten, was man am Multithreadded sieht.. Ihr Argumentiert schon wieder wie mit dem Q6600 gegen den Dualcore ;)
Und man sieht doch schon wie viel mehr Energie Intel braucht um über 5Ghz zu kommen. Das Wird AMD aber genauso haben, trotz 7nm.. Mit jedem Schritt wird die Taktgrenze, (der Bereich wo Energie und Verlustleistung noch sinnig sind) nach unten geschoben. Schau dir einen Zen bei 4Ghz an... Und du verstehst dann vllt ja mal was ich meine. Aber klar Takt geht über IPC... Manchmal möchte man Hurra rufen, wie gut Marketing läuft. Aber Igor sagte ja auch schon beim Desktop Prozzi, dass es lustig wird.. Naja macht mal
 
Zuletzt bearbeitet:
Zurück
Oben