Notiz CPU-Gerüchte: AMD Raphael mit 16 Kernen bei 170 Watt TDP

Portal501 schrieb:
Ja komplett umgestiegen bin ich auch nicht. Habe schon noch ein Rechner der Aktuell ist. AMD Ryzen 9 5900X 32 GB RAM X570 Chipsatz RTX3080. 5TB SSD Speicher, 1 TB M.2. Ich mache nur ein Upgrade wenn es sinnvoll ist. Also alle 3 Jahre.
Dann bringt der Konsolenkauf ja auch eher wenig?
Mein Mainsystem wechsle ich i.d.R. alle 4 Jahre, die Grafikkarte je nachdem was ich brauche jede Generation oder jeder zweite Generation.
 
@thebagger single core also ich schreibe und rede immer von den allcore . Weil ich befinde mich eher weniger im single core. Wenn ich das was ich bei mir gefahren hatte auch bei dir fahren würde dann wird auch dieses System ordentlich heiß werden weil Vollast der CPU sicher ist. Wobei bei 90% CPU Auslastung gewiss noch Luft nach oben wäre. Aber auch das kann man schnell lösen. So so 7 Grad also kühler. Dann müsstest du bei meinen Test ja 83 Grad noch haben. Ich hatte die CPU zu der Zeit auf 4,3 GHz ohne Spannung Anpassung oder sonst was gehabt. Ansonsten sah der die 90 Grad nie bei mir. Ich habe nen noctua NH d15 also einen sehr guten Luftkühler. Und ja die machen schon was aus. Damit kannst du dann 200 MHz noch weiter nach oben takten lassen als ich. Dann ist aber auch Schluss. Wenn ich die Spannung anpasse also einfach da 1.2v einstellen dann dürften wohl auf 4,5-4,6 GHz gehen. Dann sind es wieder 200 Watt abzuführen und die 90 Grad ebenso wieder da. Noch mehr wird nicht mehr gehen weil ich habe nicht vor die 100 Gradmarke zu erreichen. Wobei das treibt den Stromverbrauch mich weiter nach oben.
Habe sonst nix an kühler bis auf einen 120 mm Gehäuse Lüfter im PC drinnen. Nur die 2 von der CPU Kühler und das war es. Also 3 Lüfter kann man sagen. Dafür nen riesen großes Gehäuse wo ich gewiss so groß ist das ich ne 570 Radiator drin stecken könnte wenn ich wollte. Aber 0 Erfahrung mit Wasserkühlung.

Und ich weiß das war ein voller Fehlkauf weil ich immer dachte großes Gehäuse bringe was bei den Temperaturen. Hier und mein Bruder kriegte ich das um die Ohren geworfen. Und muss mir noch immer anhören das wäre ja ein Minitisch . Einfach noch ne Platte drüber und fertig wäre der Tisch. Und mit dem Fehler muss ich halt nun leben. Dafür ist der PC allerdings relativ leise so gesehen und hat so gut wie keine Beleuchtung .

Das finde ich daher besser so. Kann auch Mal in der Nacht wo ich schlafe Videos umwandeln und ich dann ins Bett gehen ohne ne disco Beleuchtung im Zimmer zu haben. Ich bin anderst als die anderen kein Fan von Bling Bling und so. Nur die Leistung zahlt mehr nicht.
Mal sehen wie es weiter gehen wird. Zum Glück habe ich ja nen 5950x. Hatte ich dies nicht würde ich wohl auf dem Nachfolger warten oder wenn dann warten bis der 5950x weiter im Preis sinken würde. So würde ich es handhaben wenn ich die nicht hatte aber die lestung brauchen würde.
Ich war Anfang letztes Jahres sogar so verrückt gewesen mir einfach im Gedanken noch ein zweites 5950x system kaufen zu wollen. Damit bin ich weit schneller als ein 3970x und auch noch günstiger dabei gewesen. Aber naja das wäre wohl viel zu verrückt gewesen 2 Systeme gleichzeitig mit arbeit zu füttern.
Wobei das kann man wohl mit jedem system erreichen mit mehr Leistung da braucht es nicht die teuerste Hardware dazu.
 
NerdmitHerz schrieb:
Welche wakü nutzt du, dass die Lüfter hörbar werden?

Ich hab nen 5950x und meine wakü (custom loop) müssen sich die Lüfter nicht schnell drehen um meinen 5950x entsprechend zu kühlen.
Das Thema ist nicht die Fähigkeit zu kühlen, sondern wie die Lüfterkurve eingestellt ist. Hochdrehende Lüfter klingen da einfach nach viel zu aggressiven Settings.
 
stefan92x schrieb:
Das Thema ist nicht die Fähigkeit zu kühlen, sondern wie die Lüfterkurve eingestellt ist. Hochdrehende Lüfter klingen da einfach nach viel zu aggressiven Settings.
Aber gerade dass sollte bei einer WaKü ja nicht passieren, da die Lüfter ja normalerweise nicht nach CPU- sondern nach Wassertemperatur regeln und die ändert sich ja nicht sprunghaft.

Ich verstehe auch nicht, wie da bei einem 5950X die Lüfter plötzlich hochdrehen können, die CPU liegt im CB Test bei unter 70°C mit Prime95.
Mein 5800X hingegen ist ja generell deutlich heißer unterwegs und rennt im gleichen Test ins 90°C Temperaturlimit.
Ich hab auch ne AIO installiert, bei der die Lüfter ihre festen 900rpm machen, mehr hab ich noch nie gebraucht.
 
  • Gefällt mir
Reaktionen: WIEN

6 nm für den I/O-Chip, schön das sich dort auch was tut und keinen P+E Müll.

 
S77S77 schrieb:
Nur 1 kW, ohne /h
Wieso? Wenn Du den voll ausfährst, dann frisst das Teil 1Kilowatt pro Stunde.
Die 600 Pferdchen mögen ja stimmen, nur wann liegen die denn an? Und wieviel Sprit säuft die Karre dann, wenn die 600 Gäule anliegen? Da wirst Du keine Stangasverbräuche haben …
 
Taxxor schrieb:
Aber gerade dass sollte bei einer WaKü ja nicht passieren, da die Lüfter ja normalerweise nicht nach CPU- sondern nach Wassertemperatur regeln und die ändert sich ja nicht sprunghaft.

Ich verstehe auch nicht, wie da bei einem 5950X die Lüfter plötzlich hochdrehen können, die CPU liegt im CB Test bei unter 70°C mit Prime95.

wenn @stefan92x von einer aio redet dann mag das evtl stimmen. wobei selbst bei einer AIO kann man die lüfter entsprechend konfigurieren. hatte ne 360er aio für meine vorherige 3900x. die lüfter der aio waren nie plötzlich am hochdrehen

viele interpretieren wakü auch als aio. wobei aio nicht wirklich wakü ist :D
 
Unnu schrieb:
Wieso? Wenn Du den voll ausfährst, dann frisst das Teil 1Kilowatt pro Stunde.
kW ist die Leistung, kWh beschreibt, auch wenn es Kilowattstunden heißt, nicht den Verbrauch innerhalb einer Stunde, sondern die verrichtete Arbeit über einen Zeitraum(wenn der Zeitraum genau eine Stunde und der Verbrauch konstant ist, ist das die einzige Ausnahme, bei der es den Verbrauch innerhalb einer Stunde zeigt).

Leisungsaufnahme wird nie in kWh angegeben. Wenn du das Teil 2 Stunden laufen lässt, hast du immer noch 1kW an Leistung, aber nun 2kWh an verrichteter Arbeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: S77S77, Unnu und Substanzlos
Taxxor schrieb:
Ich verstehe auch nicht, wie da bei einem 5950X die Lüfter plötzlich hochdrehen können, die CPU liegt im CB Test bei unter 70°C mit Prime95.
Bei reiner Single-Core oder Multi-core Last ist mein 5950x auch relativ kühl. Es gab aber durchaus schon Teillast Szenarien, in denen meine 420er aio aufdrehen musste, da die Temperaturen auf über 85°c gingen.
 
borizb schrieb:
Weiß nicht wie gut du das Forum kennst, aber seit Jahren regt sich hier ein nicht unbedeutender
Teil der Leserschaft bei jeder Gelegenheit und in jeder Schärfe im Ton über Intel auf und kaum
einer über AMD - ganz egal was die machen. Ich denke, da kommt der zitierte Kommentar her.
Das ganze war vor Jahrzehnten genau umgekehrt. Da konntest du nichts pro AMD schreiben und wurdest dafür abgewatscht. Ich vermute mal, das ist einfach eine frage der Zeit, wann wer dran ist. Beides ist irgendwie fail. Aber so ist nunmal der Mensch. Nicht unbedingt logisch, noch fair.

PS: Die Entwicklung zu mehr Watt, finde ich sch... .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
ETI1120 schrieb:
Aber er hat eben keinen Arm-Kern gewählt.
Er hat das gewählt was seine Arbeitgeber ihm vorgeben. ;) Er sagt aber auch, dass heute, wenn er denn dürfte, auch eher RISC-V nimmt als x86 oder ARM und das auch wegen den ganzen Extensions, die es aufblähen. ;)
ETI1120 schrieb:
Und er hat viel Zeit darauf verwendet zu erklären dass X86 kein grundsätzliches Problem hat.
Jaein, weil er hier auf die Fragen des Redakteures genatwortet hat und es - auch in seinen Aussagen - um primär zwei Punkte ging: Die Befehle und damit verbunden die Decoder und auf die Weiterentwicklung der ISA die heute zu einigen Problemen führen und die Designs auch komplex machen.

Über die anderen Vor- und Nachteile der jeweiligen ISAs hat Jim Keller überhaupt nicht gesprochen und sie ware auch nicht Thema des Interviews.

RISC vs CISC (ARM vs. x86) wird heute oft immer noch auf den Decoder reduziert und entsprechend wir da auch sehr viel Bullshit verbreitet - ich bin da auch ein paar Fehlern erlegen, weil ich noch die "alten" RISC-Werte Intus hatte bis vor einige Zeit.

Aber es gibt auch andere Unterschiede zwischen ARM und x86, die ebenso Teilweise die Logik der einzelnen Bestandteile eines Kernes betreffen und entscheidend sind, wie Komplex eine Lösung ausfallen muss und welche Hilfsmittel man wann schon braucht.
ETI1120 schrieb:
Und ich fand seine Aussagen zur Arm-ISA nicht gerade wohlwollend.
Seine Aussagen ware weder zu ARM noch x86 wirklich wohlwollend, wenn man es genau nimmt und er hat beide - stark vereinfacht - als Bloatware bezeichnet, weil sie über die Jahre verfettet und vermüllt wurden.

ETI1120 schrieb:
Dass die Firestorm-Kerne so schnell sind liegt an den ganzen Hardwareeinheiten und Caches die Apple eingebaut hat. Wenn wir schon anandtech zitieren:
... das schreibe ich aber in fast jedem Thema zum M1 wobei das mit dem Cache nicht ganz stimmt, auch dazu habe ich die passende Rechnungen mal hinzu gefügt.

Die Leistung der Firestorm-Kerne beruht auf einem richtig breiten fetten Design: Decoder der 8-Befehle pro Takt schafft. Ein Backend, dass mit 6 INT-ALUs und 4 * 128 Bit-VEC-ALU (Neon) daherkommt. Dazu ein riesiges Register-File - was auch zum Teil notwendig ist, müssen 31/32-Register pro ALU vorgehalten werden. Dazu kommt ein riesiger Out-of-Order-Buffer zur Sortierung und die Buffer für die Branchprediction sind auch nicht ohne!

Ein so großes Front- und Backend wollen auch mit Daten gefüttert werden, gerade die Befehle müssen quasi in riesiger Geschwindigkeit vorliegen und in den Decoder geschaufelt werden. So ein breites Design bedingt sehr breite Caches und würde an kleinen Caches quasi verhungern und würde die Leistung nicht auf die Straße bringen.

Die Caches haben natürlich einen Anteil daran, aber große Caches alleine helfen am Ende wenig - SunnyCove zu WillowCove - wenn man nicht an anderen Stellen auch entsprechende Anpassungen vornimmt.
ETI1120 schrieb:
Intel ist mit Alderlake von einem 4-wide auf ein 5-wide decode gewechselt. Ob der Autor recht damit hat, dass die X86 nicht breiter werden können, weil die variable Instruktionsbreite ähnlich breite Decodedesigns bei X86 verhindert, kann ich nicht beurteilen.
Nö, bei AlderLake ging es von einem 4-wide Decode sogar auf einen 6-wide Decode. Im INT-Bereich des Kernes ging es von 4-wide auf 5-wide.
ETI1120 schrieb:
Ich finde es übrigens witzig, dass Apple mit den M1-SoCs APUs bereitstellt, wie wir seit Jahren von AMD erwarten. Dabei hat Apple auch die erforderliche Softwareunterstützung bereitgestellt.
Ja, dass muss man Apple an der Stelle auch lassen. Ich werde kurz flapsig: "Metal is for everyone!". Im Endeffekt zeigt sich hier auch Apples Bemühung saubere APIs, Frameworks und Co für ihr Betriebssystem umgesetzt zu haben, die man nutzen soll. Es gibt für alles irgendwas, was man nutzen soll, statt "nativen" ISA-Code.

Da kann sich Microsoft mal eine Scheibe von abschneiden. Mal sehen, wie es mit der neune "Win32" wird.
Nixdorf schrieb:
Schon ist das ein eher knappes Rennen, und der Ryzen ist noch nicht einmal aus der aktuellsten Generation und auf einem älteren Fertigungsverfahren (TSMC N7 zu N5). Bei den absoluten Werten ist der M1 Max dennoch vorne, auch weil hier 10 gegen 8 Kerne antreten.
Die Rechnung hab ich schon angestellt und es kommt halt drauf an, was man wählt als Ausgangsbasis:

https://www.computerbase.de/forum/threads/apple-silicon-m1-ultra-2-x-m1-max.2075111/post-26692669

Wählt man die 45 W, stimmt es, geht man auf den M1 dreht sich es wieder, da ist Apple haushoch überlegen. Der M1 ist dabei nähet an 6900 und Core i7/9 was die Leistung angeht.

Im Endeffekt kann man hier alles Errechnen und jede Aussage stützen.
 
  • Gefällt mir
Reaktionen: Zer0Strat
Hi DevPandi
man muss halt Apple zugute halten das sie das Thema eigene CPUs sehr gut angegangen sind, sie haben sich die Experten von den Wettbewerbern ARM AMD Intel geholt und ihnen eine Bühne gewährt die sie sehr gut nutzen konnten, da die Umgebung einzig Apple ist ist sie auch frei von Altlasten was es doch deutlich einfacher macht so etwas zu entwickeln, und in dem Beispiel hat das Geld sein übriges beigetragen.
lg
 
DevPandi schrieb:
Wählt man die 45 W, stimmt es, geht man auf den M1 dreht sich es wieder, da ist Apple haushoch überlegen. Der M1 ist dabei nähet an 6900 und Core i7/9 was die Leistung angeht.
Mir ging es primär darum, dass man den M1 eben nicht mit Desktop-Prozessoren vergleichen sollte, die bewusst oberhalb ihres Sweet Spots laufen. Genau das wurde hier aber im Thread mehrfach gemacht. Man hat die x86-Eisen raus geholt, die Apple in den absoluten Werten deutlich schlagen, und oh Wunder, da war dann speziell bei den Intel-Brechstangen-CPUs die Effizienz im direkten Vergleich unterirdisch.

Die Effizienzvorteile im Bereich von um die 20%, die im verlinkten Beitrag ermittelt werden, halte ich hingegen für durchaus realistisch. Auch, dass der Wechsel auf N5 das Bild dann sogar marginal drehen könnte, passt gut. Damit sind wir dann zumindest von der Fehleinschätzung weg, dass x86 einfach mal ganze Größenordnungen ineffizienter ist. So ein Unterschied liegt nicht an den Architektur-Unterschieden, sondern an ineffizienteren Arbeitspunkten.

Ein paar Anmerkungen zum verlinkten Beitrag habe ich dennoch:
DevPandi schrieb:
Der M1 hat größere L1 und L2-Caches, dafür fällt der L3-Cache weg. Zen 3 und GoldenCove besitzen jedoch mehr Cache. Das Argument ist also in der Form nicht korrekt und hält einem Faktencheck nicht stand!
Das Argument wird in der Erwiderung allerdings auch künstlich auf die Menge an Cache reduziert. Es geht nicht nur darum, wie viel Cache ein Kern hat, sondern welche durchschnittlichen Latenzen sich daraus ergeben. Der sehr große L2 des M1 ist durchaus mit ein Grund für die hohe Performance. Mehr L2 als beim Vorgänger und damit mehr schnellerer Cache ist ja auch eines der Rezepte für die höhere Performance von Golden Cove, und auch bei Zen 4 ist die L2-Verdopplung ein relevanter Bestandteil der Verbesserungen.

DevPandi schrieb:
fällt auf, dass die einzelnen Firestorm-Kerne trotzt drastisch gestiegener Bandbreite alle am Ende im Cinebench R23 quasi das gleiche leisten und die deutlich gesteigerte Bandbreite überhaupt keinen Einfluss auf den einzelnen Kern haben.
Das zeigt nicht, dass die höhere Speicherbandbreite nur einen geringen Einfluss auf die Performance hat. Es zeigt vielmehr, dass der Cinebench kein guter dafür Benchmark ist. Der bewertet nämlich fast ausschließlich die Recheneinheiten. Zieht man andere Benchmarks für den Vergleich heran, dann wird man den Vorteil auch messen können, den der M1 daraus zieht.

Den größten Vorteil der Speicherbandbreite gibt es auch gar nicht bei der CPU, sondern bei der iGPU des M1. Einen derart breiten Speicherzugriff auf GDDR-Niveau gibt es bei x86 derzeit nur mit Spiele-Konsolen. Die Anbindung von DDR-Speicher ist der Flaschenhals, der bisher wirklich schnelle iGPUs verhindert hat. Bei AMD hat man das gut bei Ryzen 2200G gegen 2400G sehen können, wo 37,5% mehr CUs nur 6% mehr Grafikleistung brachten. Die iGPU des M1 kann man hingegen als vollwertige GPU betrachten.

Es wäre bei x86 längst überfällig, die iGPUs mit Grafikspeicher direkt auf dem CPU-Package zu koppeln. Der eDRAM bei Intels Iris-Pro-Grafik ist ein erster Ansatz dafür, aber 128 MB sind einfach viel zu wenig.
 
Nixdorf schrieb:
Das Argument wird in der Erwiderung allerdings auch künstlich auf die Menge an Cache reduziert. Es geht nicht nur darum, wie viel Cache ein Kern hat, sondern welche durchschnittlichen Latenzen sich daraus ergeben. [...] Mehr L2 als beim Vorgänger und damit mehr schnellerer Cache ist ja auch eines der Rezepte für die höhere Performance von Golden Cove
Das Argument der Gegenseite ist immer, dass sie das Mehr an Cache ansprechen, also nehme ich alle Caches und auch in dem Thema wurde dann noch mal der "System-Cache" erwähnt, denn man nehmen muss.

Ansonsten ist deine Ausführung stark vereinfacht und auch wenn sie nicht direkt falsch ist, lässt sie einige wichtige Gesichtspunkte vermissen und idealisiert wieder den Cache und blendet alle weiteren wichtigen Punkte aus.

In einem anderen Thema reden wir bereits über den L2-Cache des GoldenCove und wenn man sich die direkten Vorgänger - SunnyCove und WillowCove - ansieht, zeigt sich eben, dass die Erhöhung von Cache alleine sogar einfach verpuffen kann. Der L2 wurde mit WillowCove bereits von 512 KiB auf 1280 KiB erhöht und der L3 ebenso. WillowCove kann sich aber im Schnitt nicht von SunnyCove absetzen bei der IPC. Die Steigerung der Leistung erfolgt alleine durch das Mehr an Takt. (Ich glaub ich schnapp mir mal die beiden Laptops, hab ja beide zur Verfügung auf der Arbeit.)

Erst GoldenCove bringt eben wieder 20 % IPC und hat wirklich umfassende Änderungen erfahren. Pauschal - wie hier immer gerne behauptet - mehr L1, L2 und L3 Cache bringen nicht unbedingt mehr Leistung bis auf ggf. spezielle Szenarien. Erst das Anpassen des Frontends und Backends brachten wieder wirklich Leistung.

Man ist hier also durchaus an dem Punkt, ob man hier nicht sogar eher davon sprechen muss, dass die Breite eines Designs auch größere Caches braucht, um sinnvoll zu sein.

Nixdorf schrieb:
Der bewertet nämlich fast ausschließlich die Recheneinheiten. Zieht man andere Benchmarks für den Vergleich heran, dann wird man den Vorteil auch messen können, den der M1 daraus zieht.
Ich habe mir die Benchmarks bei Andatech als auch selbst mit Spec und Co noch mal verifiziert und mir dafür auch extra ein M1 Max geliehen und die Leistungsunterschiede über viele Programme hinweg - sowohl 1T als auch nT - lassen sich fast ausschließlich auf das Mehr an FireStorm-Kerne schieben, selbst bei Schreib- und Leselastigen-Szenarien.

Einen M1 Pro hatte ich nicht zur Verifizierung - aber die Bandbreite ist eben auch nicht das Geheimnis der Schnelligkeit des M1 und M1 Pro. Es bleibt ein Red Herring.

Alles weitere habe ich - iGPU - bereits selbst merhfach ausgeführt und ist bekannt!
 
Taxxor schrieb:
Leisungsaufnahme wird nie in kWh angegeben.
Sag das meinem Fernseher
76KWh/1000h 😅
Es wäre zu einfach 76W hinzuschreiben
 
bad_sign schrieb:
Es wäre zu einfach 76W hinzuschreiben
Die 76W könnte man bei der "Leistungsaufnahme" hinschreiben, wenn sie denn konstant ist. Mit den "76 kWh/1000h" will der Hersteller hingegen eine Angabe zum Stromverbrauch des Geräts über den normierten Zeitraum von 1000 Betriebsstunden machen.

Dass dabei für den Verbrauch kWh (Kilowattstunden) verwendet werden, die man theoretisch auch wegkürzen kann, ist dem Umstand geschuldet, dass man Stromverbrauch für gewöhnlich in dieser zusammengesetzten Einheit ausformuliert. Eine Wattsekunde entspricht aber auch einem Joule. Man könnte also auch 273,6 MJ/1000h angeben, und dann gäbe es da kein "h" mehr zum wegkürzen. Das kann dann allerdings keiner mehr gedanklich zuordnen.
 
DevPandi schrieb:
In einem anderen Thema reden wir bereits über den L2-Cache des GoldenCove und wenn man sich die direkten Vorgänger - SunnyCove und WillowCove - ansieht, zeigt sich eben, dass die Erhöhung von Cache alleine sogar einfach verpuffen kann.
Die Änderungen von Sunny zu Golden Cove waren laut AnandTech "eine Tüte Buntes". Beim L2 gab es bei der Performance ein Plus, beim L3 aber in einigen Fällen ein deutliches Minus. Am Ende heißt es dazu:
IPC improvements of Willow Cove are quite mixed. In some rare workloads which can fully take advantage of the cache increases we’re seeing 9-10% improvements, but these are more of an exception rather than the rule. In other workloads we saw some quite odd performance regressions, especially in tests with high memory pressure where the design saw ~5-12% regressions. As a geometric mean across all the SPEC workloads and normalised for frequency, Tiger Lake showed 97% of the performance per clock of Ice Lake.
Wie man aber sieht, konstatieren sie in einigen Workloads, die exakt vom L2-Plus profitieren, ohne beim L3 zu leiden, bis zu 9-10% Verbesserungen. Alles in allem ist dieser Generationswechsel aber eher schlecht geeignet für eine solche Betrachtung, eben weil sich hier positive und negative Effekte bekämpfen.

Es ist unbestritten, dass Cache viel bringt, denn sonst gäbe es ihn nicht. Wie viel er bringt, und welche Mengen zu welchen Auswirkungen führen, das ist ein sehr komplexes Thema. Die Aussagen anderer, dass der M1 wegen so viel L2 besser als x86 wäre, teile ich nicht. Dafür ist das Thema zu kompliziert. Wichtig ist eigentlich nur, dass Apple selbst einen Grund für die Menge an L2 hatte. Aber der ergibt sich aus internen Überlegungen zur Weiterentwicklung der eigenen Architektur, nicht aus einem Seitenhieb in Richtung x86.

DevPandi schrieb:
AnandTech, benannt nach dem Gründer Anand Lal Shimpi.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ich verstehe auch nicht, wie da bei einem 5950X die Lüfter plötzlich hochdrehen können, die CPU liegt im CB Test bei unter 70°C mit Prime95.
Mein 5800X hingegen ist ja generell deutlich heißer unterwegs und rennt im gleichen Test ins 90°C Temperaturlimit.
Ich hab auch ne AIO installiert, bei der die Lüfter ihre festen 900rpm machen, mehr hab ich noch nie gebraucht.
Bitte nicht vergessen, dass der 5950X im Test von CB ein Golden Sample war. Sowohl bezüglich Temperaturen als auch daraus resultierend den höheren Taktraten.
 
Dome87 schrieb:
Bitte nicht vergessen, dass der 5950X im Test von CB ein Golden Sample war. Sowohl bezüglich Temperaturen als auch daraus resultierend den höheren Taktraten.
Also im Cinebench R23 Community Benchmark von CB finden sich in der Liste aber einige "5950X @ Stock", die +/- 3% um die Punktzahl von CB herum liegen, 8 Stück zähle ich inklusive dem von CB.

Dann zähle ich ebenso 8 Stück die 7-9% langsamer sind, als der von CB. Sieht mir eher nicht nach Golden Sample aus, es sei denn die Hälfte derer die mit ihrem 5950X mitgemacht haben, hatten eines.
Zumal man bei denen, die langsamer sind, auch nicht weiß, mit was die gekühlt wurden. Genauso kann es an den verwendeten Mainboards liegen.
 
Zurück
Oben