Notiz Alder Lake-S im Cinebench R20: Intel Core i9-12900K schlägt AMD Ryzen 9 5950X deutlich

Freiheraus schrieb:
Konstruktiver Tipp: Damit die Nicht-Experten hier den Beitrag auch verstehen, wäre eine Aufnahme der Codenamen in die Tabelle hilfreich gewesen. So vielleicht als Zuordnung die Modellnamen in Klammern hinter den Codenamen ergänzen.
Ergänzung ()

Freiheraus schrieb:
Wenn der 12400 bereits im Quasi-Sweetspot (4,0 GHz) so viel wie der 5600X mit 4,4+ GHz Takt zieht, ist das kein allzu gutes Omen was die Effizienz von Alder Lake betrifft.
Zumindest im Intel-Speak muss der 12400 ja auch komplett ohne "Effizienz" auskommen und liefert nur 6x "Performance". Da ist zumindest innerhalb von Alder Lake damit zu rechnen, dass die Effizienz bei Vollast nicht berauschend ist. Lustigerweise dürfte in diesem Punkt ausgerechnet der 12600K mit zusätzlich 4E diesmal die bessere Wahl sein, wenn man die Power Limits senkt. In Relation zur Vorgeneration auf 14nm scheint sich aber dennoch etwas in die richtige Richtung bewegt zu haben.
Ergänzung ()

Freiheraus schrieb:
Da die 8 kleinen Effizienzkerne vergleichsweise schwachbrüstig sind, müssen die 8 Performance-Kerne dermaßen ausgequetscht werden, sprich völlig ab des Sweetspots betrieben werden um einen Ausgleich zu schaffen.
So schwachbrüstig sind die E-Kerne gar nicht. Intels Problem ist wie üblich, dass sie auf Teufel komm raus unbedingt den Konkurrenten schlagen wollen. Wenn sich der 12900K am 5900X orientieren würde, dann wäre es eine bessere CPU. Den Verbrauch bekommt man als Käufer über die Power Limits in den Griff, den dann aber wohl zu hohen Preis in Relation zum 5900X leider nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Freiheraus
@Nixdorf
Gute Ergänzungen und Hinweise deinerseits, danke. Letztendlich will Intel nicht nur Fläch/Kosten sparen, sondern auch den maximalen Verkaufspreis pro Fläche erzielen. Leider alles auf Kosten der Leistungsaufnahme und Volllasteffizienz.
 
  • Gefällt mir
Reaktionen: Nixdorf
Freiheraus schrieb:
Leider alles auf Kosten der Leistungsaufnahme und Volllasteffizienz.
Lasst ihr eigentlich alle die Kiste 24/7 auf Volllast laufen aka Cinebench etc? Idle und low Workload/Gaming verbrauch ist doch viel wichtiger!
 
Deshalb ist in meinem System mittlerweile auch ein 5750GE gelandet. Wenn es doch mal mehr Leistung sein soll, kann ich im BIOS das 45W Commercial oder 65W Consumer-Profil laden und habe dann exakt die Leistung eines 5700G, allerdings immer noch meinen ECC-Schutz.
 
  • Gefällt mir
Reaktionen: stolperstein und iron_monkey
Hektor26 schrieb:
Lasst ihr eigentlich alle die Kiste 24/7 auf Volllast laufen aka Cinebench etc?
Eben nicht. Leider gibt es aber auch für den Normalnutzer die Situationen, wo eben doch mal für mehr als ein paar Sekunden Volllast anfällt. Und dann muss sich wegen Intels Idiotenplanung das gesamte System an diesen seltenen Situationen orientieren: Das Netzteil muss größer dimensioniert werden, die Kühlung muss stärker ausgelegt werden, und so weiter.

Ich empfehle daher jedem, stattdessen lieber die Power Limits zu senken. Das hat nämlich - wie du ja anmerkst - den überwiegenden Teil der Zeit absolut gar keine negativen Auswirkungen.

Ich verstehe ehrlich gesagt auch nicht, warum reguläre Nutzer den i9 in der K-Ausgabe kaufen.
Ergänzung ()

Freiheraus schrieb:
Deshalb ist in meinem System mittlerweile auch ein 5750GE gelandet.
Macht das denn einen großen Unterschied gegenüber 47W cTDP (35*1,35) bei einem 5700G? Oder war ECC der Hauptgrund?
 
Zuletzt bearbeitet:
Freiheraus schrieb:
... der die Zeche mit der Stromrechnung zahlt.
Wie viel höher wären deine jährliche Stromrechnung wenn deine CPU z.B. 50 Watt mehr verbrauchen würde ?

Da sich die 50 Watt nur auf Vollast bezieht man aber beim Zocken meist im GPU Limit hängt würde ich sagen
wir rechnen einfach mal großzügig 2 Stunden Vollast pro Tag also 100 Watt Mehrverbrauch und sagen wir mal
du nutzt den PC 200 Tage pro Jahr also 20.000 Watt : 1000 = 20 kwh x 0,30€ = 6€ oder wie rechnet man das ?

Wenn Leute mit High End Grafikkarte über den Stromverbrauch von Prozessoren streiten ist das irgendwie :freaky:
 
Hektor26 schrieb:
Idle und low Workload/Gaming verbrauch ist doch viel wichtiger!
Im Bezug auf Idle muss ich allerdings auch eine Prise Salz einstreuen. Der ist heutzutage oft genau so wenig hilfreich für die Praxisbetrachtung wie die Volllast, weil Rechner nur selten wirklich gar nichts tun. Da bleibt dann der Browser offen, und irgendwo läuft dann ein bisschen JavaScript. Oder der Task-Manager ist dauerhaft offen und macht aus Idle eine Schwachlast. Oder der Defender scannt wieder irgendwas. Wer den Rechner so penibel bedient, dass echter Idle anliegt, der kann auch gleich die Standby-Taste drücken.

Die "Low Workload/Gaming"-Situationen sind tatsächlich am wichtigsten. Leider sind das auch die, die man am schlechtesten verlässlich und vergleichbar messen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Heschel
Nixdorf schrieb:
Eben nicht. Leider gibt es aber auch für den Normalnutzer die Situationen, wo eben doch mal für mehr als ein paar Sekunden Volllast anfällt. Und dann muss sich wegen Intels Idiotenplanung das gesamte System an diesen seltenen Situationen orientieren: Das Netzteil muss größer dimensioniert werden, die Kühlung muss stärker ausgelegt werden, und so weiter.
Das ist echt völlig daneben von Intel, deswegen habe ich schon gar keine Lust Intel-Systeme mit picoPSUs und LowProfile-Kühlern zu bauen. Selbst wenn man im BIOS die Power Limits manuell anpasst, was ist wenn so ein Rechner eines Bekannten/Freundes aus welchem Grund auch immer auf Defaults zurückgesetzt wird? Sowas kann man doch nicht verantworten. Was die Sucht, die Gier in kurzen Benchmarks besser dazustehen für Blüten treibt. "Real world perfomance", Alltagslasten, oberpeinlich dieses Theater...

Nixdorf schrieb:
Macht das denn einen großen Unterschied gegenüber 47W cTDP (35*1,35) bei einem 5700G? Oder war ECC der Hauptgrund?
ECC war schon der Hauptgrund und sie Sorgenfreiheit, dass Default eben 35W und nicht 65W bedeuten. Damit ist ein 60 Watt Tischnetzteil immer ausreichend, auch beim ersten Booten. Ansonsten verhalten sich die APUs was ich bisher testen konnte gleich und sind nahezu identisch konfigurierbar. Bei beiden APUs hat man auch diese Auswahl (neben der PPT etc):

TDP Wahl.JPG


0ssi schrieb:
Wie viel höher wären deine jährliche Stromrechnung wenn deine CPU z.B. 50 Watt mehr verbrauchen würde ?

Da sich die 50 Watt nur auf Vollast bezieht man aber beim Zocken meist im GPU Limit hängt würde ich sagen
wir rechnen einfach mal großzügig 2 Stunden Vollast pro Tag also 100 Watt Mehrverbrauch und sagen wir mal
du nutzt den PC 200 Tage pro Jahr also 20.000 Watt : 1000 = 20 kwh x 0,30€ = 6€ oder wie rechnet man das ?

Wenn Leute mit High End Grafikkarte über den Stromverbrauch von Prozessoren streiten ist das irgendwie :freaky:

Gerade solche CPUs werden nicht nur zum Zocken benutzt, wozu kauft man eine CPU mit vielen (Effizienz)Kernen und Threads wenn nicht zum Nutzen/Auslasten? Es macht doch keinen Sinn für Gamer einen Raptor Lake mit 8+16 Kernen aufzulegen. Wobei die Beschränkung vorest auf 8 Perfomance-Kerne zugegeben für Zocker ebenfalls zweifelhaft wirkt, oder will man dass beim Spielen die Effizienzkerne mitrechnen? Außerdem denke ich wird es eher um über 100 Watt "Mehrverbrauch" gehen, wenn mit den Topmodellen gerendert, videogewandelt etc. wird.

Übrigens lief meine RX 6900 XT mit nur rund 150-200 Watt Leistungsaufnahme (TGP), der Leistungsverlust hielt sich dabei sehr in Grenzen (10-15%). Gezockt habe ich aber eh so gut wie nicht, nur Benchmarks durchgeführt und Messungen gemacht um Big Navi technologisch etwas einordnen zu können.
Am meisten hat mich die Idle-Leistungsaufnahme von nur rund 4 Watt mit aktiviertem ASPM überrascht. Sogar meine RX 5500 XT hat sich minimal mehr genehmigt (~0,5 Watt). Eine GTX 1650 Super benötigt im gleichen System 7 Watt mehr, lol.
 
Zuletzt bearbeitet:
Hm,

mir wäre die Leistungsaufnahme im Spiele PC eh egal aber ich kaufe Intel erst, wenn Sie schneller sind als AMD und mir 16 gleich schnelle Kerne geben. Keine Lust auf Fehlersuche bei Leistungsproblemen mit ner mischmasch CPU. Mir reicht bei Problemen schon das Rumgeeiere mit Turbotaktraten.
 
Tolle Leistung...nur wenn der Stromverbrauch nicht passt, ein eher nutzloses Ergebniss.
 
iron_monkey schrieb:
16 gleich schnelle Kerne
Nach aktuellem Stand der Kristallkugel plant Intel offenbar derzeit nach 8+8 in den nächsten Generationen mit 8+16 und dann 8+32 als Core-Konfiguration. Irgendwann kommen auch bei Intel Chiplets, aber es sieht derzeit nur nach einem Compute-Chiplet aus. Somit wird es jahrelang nichts mit 16 P-Kernen. Der "Mischmasch" ist explizit zum Maximieren der Multi-Core-Leistung gedacht.
 
  • Gefällt mir
Reaktionen: iron_monkey
Nixdorf schrieb:
Ich verstehe ehrlich gesagt auch nicht, warum reguläre Nutzer den i9 in der K-Ausgabe kaufen.

Na ja, aus demselben Grund warum sich reguläre Nutzer auch eine R7 -X CPU kaufen, oder gar eine CPU in der XT-Ausgabe, statt sich eine R5/R7 CPU ohne X oder XT zu kaufen.

Intel bietet aber auch weiterhin die Möglichkeit ein Non-K Modell zu erwerben, während AMD die non-X Modelle bei Zen 3 für DIY-Kunden abgeschafft hat. Einen günstigeren 5800 ohne X gibt es so gar nicht erst, außer bei OEMs.
 
Klever schrieb:
aus demselben Grund warum sich reguläre Nutzer auch eine R7 -X CPU kaufen
Na ja, eben nicht. Bei AMD ist das keine freie Wahl gewesen, sondern es gab ja im freien Handel bis zum 5700G lange nur den 5800X. Bei Intel hat man die Wahl, und vielen treffen sie trotzdem nicht.

Im Übrigen sind die maximal 142W bei AMD immer noch eine ganz andere Hausnummer als das PL2 von 250W bei einem 11900K. Die Entscheidung ist nicht so problematisch.
 
Nixdorf schrieb:
Na ja, eben nicht. Bei AMD ist das keine freie Wahl gewesen, sondern es gab ja im freien Handel bis zum 5700G lange nur den 5800X. Bei Intel hat man die Wahl, und vielen treffen sie trotzdem nicht.

Bei allen Gens vor Zen 3 hattze man die Wahl, und trotzdem haben sich die meisten gerade wenn man sich ansieht was im Forum vertreten ist eine -X CPU gekauft, so z.B. einen R7 2700X statt eines R7 2700, oder einen R7 3700X/3800X/3800XT statt eines R7 3700. :)

Nixdorf schrieb:
Im Übrigen sind die maximal 142W bei AMD immer noch eine ganz andere Hausnummer als das PL2 von 250W bei einem 11900K. Die Entscheidung ist nicht so problematisch.

Bei Zen 3 vs RKL durchaus, bei den Gens davor was dies noch nicht der Fall und Coffee Lake war noch z.B. effizienter als Zen 1+. Im Endeffekt hat man sich -K und -X CPUs gekauft auf beiden Seiten, ungeachtet was effizienter war, und tut es weiterhin, zumindest eher im DIY-Segment (OEMs ist es eher umgekehrt).
 
Klever schrieb:
Bei Zen 3 vs RKL durchaus, bei den Gen davor was dies noch nicht der Fall und Coffee Lake war noch z.B. effizienter als Zen 1+. Im Endeffekt hat man sich -K und -X CPUs gekauft auf beiden Seiten, ungeachtet was effizienter war, und tut es weiterhin zumindest eher im DIY-Segment.

Dabei haben sich die Zeiten geändert. Heute ist mir das K bei Intel keinen cent Aufpreis mehr Wert.

Früher konnte man die Dinger mal ordentlich übertakten. Meine letzte CPU (Core i7) lief noch auf einem Z77-Board und da konnte man durch OC schon die Lebenszeit strecken, bis ich dann dieses Jahr Aufgerüstet habe.

Heute lässt OC nur noch den Verbrauch explodieren, und alle Komponenten altern, bei einem Mehrwert, der nur messbar ist und lediglich zum virtuellen Schwanzvergleich taugt.

Zudem muss, wie hier im Thread schon geschrieben, das ganze System auf den hohen maximalen Verbrauch ausgelegt sein. (unnötig teuer)
 
  • Gefällt mir
Reaktionen: Schildkröte09
Klever schrieb:
z.B. einen R7 2700X
Den hab ich ja hier, aber das Teil läuft mit cTDP auf 95W. Der 2700 hatte noch das Problem eines sehr drastischen Taktknicks bei mehr als zwei aktiven Kernen. Bei Zen2 war der 3700X (bei dem das X im Namen keinen Sinn ergibt) klar die bessere Wahl als der 3800X. Bei Ryzen 5000 gibt es zumindest jeweils ab Werk direkt einen sinnvoll vorkonfigurierten Eco-Mode.

Klever schrieb:
Bei Zen 3 vs RKL durchaus
Korrekt. Bei Rocket Lake wird es überdeutlich. Aber die PL2 sind schon ab Comet Lake zu hoch. Ein 9900KS kam noch mit akzeptablem 159W. Bei der 10th Gen bekommst du schon bei einem 10700 Non-K 224W, obwohl das eigentlich ein 65W-Modell ist. Das ist schlichtweg dämlich, weil man nur für den kurzen Boost das Netzteil größer dimensionieren muss. Meine RX580 könnte ich zusammen mit einem 10700 und meinen restlichen Komponenten nicht mehr sicher mit dem BQT-E11 in der 450W-Variante betreiben, obwohl das bei sinnvoller gewählten Werten problemlos möglich sein sollte.

Klar kann man das PL2 selber zähmen. Aber @Freiheraus schrieb ja schon, dass man sich nicht darauf verlassen sollte, dass ein BIOS-Reset es nicht doch unbemerkt auf den Standardwert zurückstellt.

Und es kommt noch was anderes dazu: Es gibt bei Intel ja sogar Boards, bei denen die Herstellervorgabe in den Standardeinstellungen nicht eingehalten wird. Bei denen ist selbst ein 9900K schon ein 200W-Prozessor, wenn man sich nicht selber um PL2 kümmert.
 
Zuletzt bearbeitet:
Klasse, ein wenig mehr Leistung des I9-12900K als Ryzen und dafür über 1100,- € hinlegen (in China für 1060,- € gesichtet). Das gleicht sich damit wieder aus :freak:. Wenn dann noch das Mainboard für über 1000,- € dazukommt, rechnet sich das dann wirklich. Für ein paar Jahre, Leistung satt!
Na Ja, wers hat!
 
Zuletzt bearbeitet:
Nixdorf schrieb:
Den hab ich ja hier, aber das Teil läuft seit cTDP auf 95W. Der 2700 hatte noch das Problem eines sehr drastischen Taktknicks bei mehr als zwei aktiven Kernen.

Klar, man kann aber genauso auch eine -K CPU begrenzen. Das Problem bei einem R7 2700 ist mir zwar persönlich nicht bekannt, aber das ist Schade falls dem so ist. Dann hatten ja die Non-X Modelle bei AMD Zen1+ noch Defizite gegenüber ihren -X Pendants.

Nixdorf schrieb:
Bei Zen2 war der 3700X (bei dem das X im Namen keinen Sinn ergibt) klar die bessere Wahl als der 3800X. Bei Ryzen 5000 gibt es zumindest jeweils ab Werk direkt einen sinnvoll vorkonfigurierten Eco-Mode.

Der 3700X ist ganz klar effizienter als ein 3800X, gibt auch einen R7 Pro 3700 (leider auch nur für OEMs). 3800X und 3800XT Modelle wurden ja trotzdem gekauft, oder halt ein 3900X statt eines 3700X für Gaming. Bei der Zen 3 Gen kann man sich z.B. auch einen 5700G kaufen, statt eines 5800X, und der wäre in den meisten Fällen auch ausreichend, Leute holen sich trotzdem den im Vergleich zu dem 5700G ineffizienteren 5800X. Also mMn ist es genauso wie auch bei Intel Käufern.

Nixdorf schrieb:
Klar kann man das PL2 selber zähmen. Aber @Freiheraus schrieb ja schon, dass man sich nicht darauf verlassen sollte, dass ein BIOS-Reset es nicht doch unbemerkt auf den Standardwert zurückstellt.

Ein UEFI-Reset oder Umstellungen im UEFI passieren ja mWn nicht von alleine. Entweder man macht selber ein UEFI-Reset indem man einen CMOS Clear macht, oder man spielt ein UEFI Update drauf was den UEFI Reset von alleine macht. Dann sollte man selber halt schon wissen, dass da ein UEFI Reset stattfindet, ansonsten sollte man die Finger davon lassen. Unbemerkt geht sowas eigentlich für einen selbst nicht, soweit ich weiss, außer man bedenkt Memory OK! Funktionen des MB die die VDDR, VCCIO und VCCSA Voltage anpassen wenn das MB nicht bootet, aber es sind ja keine Powerlimits.

Nixdorf schrieb:
Und es kommt noch was anderes dazu: Es gibt bei Intel ja sogar Boards, bei denen die Herstellervorgabe in den Standardeinstellungen nicht eingehalten wird. Bei denen ist selbst ein 9900K schon ein 200W-Prozessor, wenn man sich nicht selber um PL2 kümmert.

Das gibt es leider bei den Z Mainboards, das hat z.B. schon Steve von Gamersnexus oft erwähnt, das hängt damit zusammen dass die Mainboard-Hersteller da bei Intel freiere Hand haben als bei AMD, und da will jeder Mainboardhersteller den anderen überbieten was Performance angeht. MCE an auf Default ist meiner Meinung auch nicht unbedingt eine gute Idee, manche Mainboardhersteller setzen von sich auf auf unsinnige oder zu hohe LLC Stufen per Default. Da gibts nichts zu beschönigen.

Dafür haben die -K Prozessoren auf Z-Boards meistens den Vorteil, dass diese sich besser übertakten lassen als die Ryzens, wenn man selbst Hand anlegt (ob es sinnvoll oder nicht ist, entscheidet ja jeder für sich selbst). Soweit ich weiss, ist PBO da eher suboptimal, z.B. Buildzoid hat sich schon darüber beschwert dass PBO Limits die die CPU von sich aus ansetzt wenn man die Limits freischaltet oder PBO aktiviert, nicht gut sind weil es da zu massivem Mehrverbrauch kommt für eine eher kleine Takterhöhung.

Da wird aus einer 117 Watt Ryzen AMD CPU dann eine 200 Watt Ryzen CPU. Also alles vergleichbar zu Intel, nur dass da bei Intel mehr Takt rauskommen im Vergleich. Ob das wichtig für einen ist? Wahrscheinlich eher dann wenn man gerne übertaktet, dafür hat AMD halt den Vorteil dass da Offizielle Guidelines von AMD auf Stock eher eingehalten werden.

Corpus Delicti schrieb:
Dabei haben sich die Zeiten geändert. Heute ist mir das K bei Intel keinen cent Aufpreis mehr Wert.

Früher konnte man die Dinger mal ordentlich übertakten. Meine letzte CPU (Core i7) lief noch auf einem Z77-Board und da konnte man durch OC schon die Lebenszeit strecken, bis ich dann dieses Jahr Aufgerüstet habe.

Heute lässt OC nur noch den Verbrauch explodieren, und alle Komponenten altern, bei einem Mehrwert, der nur messbar ist und lediglich zum virtuellen Schwanzvergleich taugt.

Kommt drauf an, für was ein OC gemacht wird und was man damit bezweckt. Du kannst mit OC, wenn du wünscht, durchaus noch Lebenszeit strecken, und das geht genauso auf einem Z77 Board wie auf einem Z490 Board, wenn man es möchte. Bei Spielen kann OC durchaus noch was machen, besonders wenn es ein kombiniertes OC ist von Memory+CPU Uncore OC und Takt. Man darf halt keine Wunder erwarten nur von CPU Core Clock Anhebung.

Dies trifft besonders auf Spiele zu, Anwendungen profitieren je nach Programm weniger vom OC, als Spiele. Hier ist z.B. ein Beispiel von Gamersnexus von einem übertakteten 10600K (der Vergleich von nur CPU Core u. Cache OC ist auch angegeben), welcher eine CPU zwei Preisklassen höher wie einen 10900K schlagen kann. Und ich bin mir sicher, vor einem 5600X oder einem 5800X brauchst sich ein so übertakteter 10600K in Spielen auch nicht verstecken (dass der weniger effizient in Anwendungen sein wird, ist klar, aber hier geht es wie gesagt um Spiele).

OC bei Spielen hat auch den Vorteil, dass du nie die Werte von Prime95 oder Blender sehen wirst. Die Belastung und Hitzeentwicklung ist viel niedriger.

10600K OC.png

Wie man in dem Beispiel sieht, liegt der 10600K mit Core Clock und Uncore OC schon ohne Memory OC über einem 10900K Stock in diesem Spiel. Klar, für 1440p sind die Zuwächse geringer, aber da wird auch was dabei rauspringen. Und ob man 137 FPS average hat oder 150-159 ergibt schon einen 14-15% Unterschied für 1080p, welcher sonst erst mit einem Wechsel auf eine darauffolgende Intel Gen oder einen stärkeren Prozessor derselben Gen dabei rauskommen würde.

Ist natürlich nicht in jedem Spiel so, es gibt auch genug Spiele wo die Zuwächse geringer sind, aber auch da liegt dann ein übertakteter 10600K mitsamt schnellen RAM auf dem Level eines nur auf Core Clock übertakteten 10900K/9900K (diese würden mit dem gleichen OC wie beim 10600K entsprechend schneller sein).

10600K OC 2.png

Man kann also, wenn man es möchte, mit kombiniertem OC die Lestung einer CPU durchaus bis zu 15% anheben, im Vergleich zu Stock CPU Clock und einem aktuellen DDR4 RAM. Nur dass jetzt auch Speicher OC eine wichtige Rolle spielt, es macht für viele Spiele bei Frametimes schon einen Unterschied, ob du die mit ollen 2666 JEDEC RAM und laschen Timings laufen lässt, oder auf 3200/3600 oder gar 4000 mit besseren CLs. Bei dem GN Test werden übrigens alle CPUs im Vergleich mit 3200 RAM getestet, der Unterschied beim Vergleich von Systemen ohne XMP würde da viel größer ausfallen, wie man ja auch beim CB Memory OC Test von 9900K vs 3900X sieht.

RAM OC.png

Da betragen die Unterschiede alleine durch RAM Geschwindigkeit bis zu 13%, addiert man noch bis zu 15% von Core Clock und Uncore OC dazu kamm man potentiell aus einem kombiniertem OC bis zu 29-30% mehr Performance im Vergleich zu Stock bei Intel mit kombiniertem OC je nach Spiel rausholen, bei Bedarf, und mit vertretbaren Verbrauch in Gaming Szenarien, zumindest bei CFL und CML (RKL ist da praktisch schon ab Werk übertaktet).
 
Zuletzt bearbeitet:
Zurück
Oben