News 13. und 14. Gen Core: Intel untersucht Berichte über instabile K-CPUs in Spielen

Lokran1988 schrieb:
und sämtliche Programme wie Discord, Steam sich einfach willkürlich geschlossen hatten.
Oh ja, das hatte ich auch und ich hatte keine Ahnung warum.
Gut, dass ich da nicht alleine bin
 
  • Gefällt mir
Reaktionen: Lokran1988
Lokran1988 schrieb:
Aber kann man das wirklich bei dieser Generation einfach so übernehmen? Ist es nicht eher eine Frage, was für eine Last anliegt?
Also mein 14900K hat in HWinfo64 auch Spannungen jenseits der 1.4 V angezeigt, aber dabei nicht sonderlich viel Strom verbraucht und kühl war er auch.
Hmm, aber ist es nicht so, dass, je kleiner die Strukturbreite ist, umso empfindlicher sind die Chips bezüglich hoher Spannungen? Die nötige Betriebsspannung von Chips fällt ja normalerweise auch mit fallender Strukturbreite.
Also müsste es ja schon was ausmachen irgendwie? Aber ehrlich gesagt kenne ich mich zu wenig aus in dem Bereich, um wirklich sagen zu können, ob so hohe Spannungen bei Prozessoren heutzutage noch schädlich sind oder nicht. Ich weiß nur, dass damals immer empfohlen wurde, im Dauerbetrieb nicht mehr wie 1,4V anzulegen, wenn man lange was von seiner CPU haben wollte. Auch von bekannten Overclockern wurde das so gesagt.

Ich vermute aber fast, das Problem liegt darin, dass viele Mainboardhersteller keine Limits setzen und sich nicht an Intels Spezifikationen halten. Da werden Ströme durch diese kleinen Dinger gejagt, dass dir Angst und Bange wird. Ein 13900k/14900k zieht locker 300 Watt und mehr aus der Leitung, wenn nicht gedrosselt wurde, je nach Kühlung natürlich. Es limitiert ja bei den CPUs dann eh meistens die Temperatur irgendwann, weil die Wärme aus diesen kleinen Chips kaum vernünftig abzuführen ist.

Und so hohe Ströme durch so kleine Chips laufen zu lassen, hört sich irgendwie nicht gesund an. Natürlich liegt nicht immer Dauerlast an, im Normalfall. Aber mit jeder Generation seit Alder Lake wurde der Durchschnittsverbrauch ja ebenfalls höher. Es werden immer höhere Taktraten gefahren. Die CPUs laufen gefühlt immer mehr am Limit.

Ich könnte mir schon vorstellen, dass es was mit den CPUs macht. Also das es sie schneller altern lässt und daher die Probleme kommen. Aber wir werden sehen, wo wirklich das Problem liegt und was Intel dagegen machen will. Es bleibt spannend ^^
 
  • Gefällt mir
Reaktionen: lord_mogul
@BReTT PiTT an der Fläche sollte es eigentlich nicht scheitern. Schon Alder Lake hatte da DEUTLICH mehr als ein Zen 4 core, und bei Raptor kam nochmal etwas Fläche dazu.
 

Anhänge

  • 11-1280.532ab690.png
    11-1280.532ab690.png
    199 KB · Aufrufe: 40
Zuletzt bearbeitet:
Bezüglich der Die-Größe geb ich dir natürlich Recht. Aber um mal bei dem Vergleich zu bleiben: ein Zen 4 zieht auch keine 300-350 Watt aus der Steckdose. Der ist vom Gefühl her wesentlich weniger auf Kante genäht.

Laut Computerbase Benchmarks braucht selbst ein 7950X "nur" knapp 200 Watt unter Vollast. Ein 12900K "offen" schon 285 Watt. Und mit der 13th und 14th Gen hat es Intel (oder besser gesagt die Mainboardhersteller :p) dann richtig auf die Spitze getrieben mit über 300 Watt.

Meinte es eher so, dass von Gen zu Gen seit Alder Lake immer mehr ans Limit gegangen wurde, was den Verbrauch angeht. Bedingt durch die immer höheren Taktraten. Und die Mainboardhersteller haben fleißig mitgemacht bei dem Wahnsinn, bzw es nicht unterbunden, weil sie vermutlich den dicksten Balken haben wollten bei den Tests.

Und im Vergleich zu Grafikchips, wie zb bei der RTX 4090, ist eine CPU wie ein 13900K ja wirklich "klein". Da reden wir von 257mm² vs 608,5mm². Und ~320 Watt vs ~450 Watt.

Also ich finde schon, dass hier durch einen verhältnismäßig kleinen Chip, sehr viel Strom gejagt wird. Und wer weiß, was innerhalb der Kerne eines 13900K/KS/14900K kurzzeitig für Temperaturen herrschen, wenn es da bei Vollast ohne Limit direkt auf 95-100°C hochgeht laut Sensor. Die Sensoren sitzen ja nicht direkt in den Kernen, oder doch? Also eine 4090 geht bei Vollast nicht direkt auf 95°C hoch :D

Wir wissen aktuell natürlich noch nicht, ob wirklich ein sehr schneller Alterungsprozess das Problem ist. Kann ja auch was völlig anderes sein. Will mich da nicht zu weit aus dem Fenster lehnen.
Aber man hat, finde ich, trotzdem irgendwie das Gefühl, dass Intel hier einfach völlig übertrieben hat und sich hart an der Grenze bewegt.
 
Hab es schon mal geschrieben, Intel fährt die CPUs mit ihren Spezifikationen schon an der Kotzgrenze, die Mainboard Hersteller setzen da noch einen drauf, ignorieren diese Spezifikationen und heben sämtliche Begrenzungen auf. Die einzige Grenze die es noch gibt ist die CPU Temperatur. Solange die sich noch unter 100° befindet wird weiter Strom in die CPU gepumpt. Hoher Strom, Spannung und Hitze müssen bei immer geringeren Strukturbreite eigentlich zur Elektromigration und damit schnellen Alterung führen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lord_mogul und BReTT PiTT
@BReTT PiTT

(....)Nur ein einziges Schaubild widmet Intel letztlich dem Aufbau von Redwood Cove. Es zeigt sehr viele Gemeinsamkeiten mit dem Schaubild, das vor zwei Jahren zu Alder Lakes Golden-Cove-Kernen gezeigt wurde. Man könnte sogar meinen, es sei quasi identisch. Natürlich gab es stellenweise Optimierungen, aber an sich sind es die bekannten Kerne, weshalb es auch keinen IPC-Zuwachs gibt. Dass die Kerne dennoch effizienter arbeiten und so am Ende durch höhere Taktraten mehr Leistung in bestimmten Szenarien bieten können, steht auf einem anderen Papier.

https://www.computerbase.de/2023-09/intel-meteor-lake-architektur-details/

<- es ist davon auszugehen das Golden Cove ein backport (d.h. es sollte ursprünglich mal auf einer besseren Fertigung kommen) von dem ist, was im Meteor Lake verwendet wird. Im Raptor Lake wird ein refresh davon genutzt, welcher in der 14. Gen nochmals geprügelt wird...

Das Problem ist IMHO, dass sowas weiterhin gekauft wird. xD
 

Anhänge

  • article-1280x720.d2f244fb.jpg
    article-1280x720.d2f244fb.jpg
    175,1 KB · Aufrufe: 33
Es ist die übliche Brechstangenmethode, die gefühlt seit Generationen bei Intel immer wieder angewendet wird. Da wird eine Architektur entwickelt und dann nach und nach hochgeprügelt bis ans Limit.

An sich sind die CPUs aber nicht schlecht. Gut die 900K Modelle sind meist unnötig, weil völliger Overkill. Zumindest rein zum zocken. Bei Anwendungen haben sie aber ihre Vorzüge.

Aber warum sollte man Intel CPUs nicht kaufen? Ein 13600K/14600K kann sogar recht effizient sein beim zocken und bietet ein gutes Preis-Leistungsverhältnis. Und mit ein paar Optimierungen, die kaum Leistung kosten, bekommst du sogar einen 13900K/14900K relativ "effizient". Und ich denke, damit bleibt er dir dann auch länger erhalten
 
@BReTT PiTT die Konkurrenz hat IMHO ein deutlich besseres Preis/Leistungs Verhältnis, und dort muss eben nicht die Brechstange angesetzt werden.
 
Irgendwo ist knapp auf Kante genäht...eben über die Kante .😁😴
Ein Freund hatte das bei seinem 13900k auch. Und nachdem alles nix geholfen hat...sich eine AMD CPU geholt.. und alles war okay.😊
Ich bin ja eigentlich eher Intelianer...aber da was dort von denen seit einiger Zeit so kommt..macht mir das nicht wirklich mein Portemonnaie auf.😑 Hoffe auf bessere zeitgemäße Produkte in den nächsten Jahren.
 
Mein kleiner Beitrag zum Thema als Laie: die 13900k fährt oft total an die Grenze mit 95^C und wird nur noch durch Abdrosseln gezügelt. Die 5,8 GHz werden realistisch doch nie erreicht. Für Kühlung ist mit Noctua DH 15S gesorgt.

Hätte ich um die tatsächliche Gegebenheit gewusst, hätte ich mich natürlich für AMD entschieden.
 
BReTT PiTT schrieb:
dass dir Angst und Bange wird. Ein 13900k/14900k zieht locker 300 Watt und mehr aus der Leitung.

Mein 13900 zieht nicht mal locker 300W aus der Leitung bei normalen Anwendungen und der ist komplett offen.
Also wenn man jetzt nicht unbedingt 24/7 Videos bearbeitet oder Benchmark fährt wird man da wohl kaum in die Region kommen wo alles abfackelt und man an der Stromrechnung pleite geht.

Angst und Bange wird mir nur bei vielen Kommentaren hier.
 
Logischerweise war damit ein Vollastszenario gemeint. Es soll aber eben auch Leute geben, die ihren Rechner vorwiegend zum Arbeiten nutzen und nicht nur zum Zocken. Die kommen dann wesentlich häufiger in Regionen, die gefühlt kurz vor der Kernschmelze liegen :p

Die Dinger werden einfach zu schnell zu heiß. Und verbraten im Durchschnitt wesentlich mehr Strom, wie die Konkurrenz.
Elektromigration ist hier durchaus im Bereich des Möglichen, oder zumindest aktuell nicht auszuschließen.

Man darf, finde ich, auch als Besitzer einer Intel CPU zugeben, dass die Dinger einfach sehr auf Kante genäht sind. Mit Standard Luftkühlern sind die ja kaum zu bändigen. Da muss schon eher ein Highend Luftkühler her. Wenn dich Temperaturen von 80°C+ in Spielen nicht jucken, darfst natürlich auch gerne einen 40-50€ Kühler drauf schnallen. Und beim Shader kompilieren dann ins Temp-Limit laufen.

Abfackeln tut da nix, klar. Aber gut sind diese Temperaturen bestimmt nicht auf Dauer und sie verringern die Lebensdauer so einer CPU. Das ist heute, durch immer kleinere Fertigungen wohl mindestens ein genauso großes Problem wie früher. Zumindest erhöht es mal die Leckströme und kann auf Dauer zu einem schnelleren Verschleiß führen.
 
  • Gefällt mir
Reaktionen: JarlBallin und Felix#
Lokran1988 schrieb:
1,5 V war bei Conroe vor 17 Jahren auch schon hoch.
1,45 dann beim Nachfolger Penryn als absolutes maximum der Community angesehen (und das war höher als was Intel angegeben hat)
Und für Sandy/Ivy hat Intel damals was von 1.35 V gesagt.
Bei Haswell waren dann plötzlich 1,52 V okay...

Und wer erinnert sich noch an Load Line Calibration und VDroop mods? Damit die Spannung unter Last weniger absinkt. Was ja eigentlich gemacht wird um Spannungsspitzen vorzubeugen.

1,5 V, 20 W, 5 GHz, 90°C,
sowas hätte ich von nem Pentium 4 erwartet.
Und genau wie bei NetBurst Jagt intel hier nach hohen Taktraten und der Spitze in Benchmarks.

Ich gehöre weder zu den extremen Silent-Freaks noch sehe ich >75°C als problematisch an, aber die Chips laufen einfach so am Limit. Die werden keine 20 Jahre halten, geschweige denn 10 bei der Last.

Mein alter Core 2 läuft hier auch seit 2009 übertaktet und ist noch stabil. Nicht mehr als Hauptsystem, aber als XP retro setup. Der Pentium 3 im Retro Rechner macht auch keine Probleme.

Möchte mal sehen wie viele von diesen Chips (Core i 11th gen und später) in 10, 15, 20 Jahren noch stabil bei Standardwerten sind.

Ist ja nicht so das Interesse and alter Hardware plötzlich aufhört. 2040 werden sich Leute dann nen Windows 10 Retro Rechner mit 13700K und 3090 hinstellen. Da wird es auch Spiele geben die auf den aktuellen system nicht anständig laufen.

BReTT PiTT schrieb:
Aber warum sollte man Intel CPUs nicht kaufen? Ein 13600K/14600K kann sogar recht effizient sein beim zocken und bietet ein gutes Preis-Leistungsverhältnis. Und mit ein paar Optimierungen, die kaum Leistung kosten, bekommst du sogar einen 13900K/14900K relativ "effizient". Und ich denke, damit bleibt er dir dann auch länger erhalten
Ganz genau, den Unterschied zwischen 253W, 160 W, 125W und 80 W merkt man im Alltag nicht. Klar, da wird der Takt runtergeschraubt, aber solange man nicht rendert oder super CPU-lastige Strategie und Aufbausims spielt, kommt das gleiche raus.



Hatte der8auer auch schon getestet (In den Fall mit nem 13900K)
Am krassesten war der Unterschied by AC Valhalla:
ac.png


30% weniger Verbrauch für 4% weniger Performance, und dabei immer noch nahezu 200 FPS, was dicke ausreicht für die art Spiel.

bf.png


Aber auch im Multiplayer tut sich was. Auch 30% weniger Verbrauch für knapp 5% weniger FPS.
Und selbst manuell Hand anlegen (mit P-Cores auf 5,1 GHz mit unter 1,1 V, E-Cores auf 2,2 GHz und Cache auf 3,8 GHz) bringt knapp 50% weniger Verbrauch bei ca 9% weniger Leistung.

Das 90 W Setup wäre perfekt als silent Profil. und die manuelle Optimierung ist nicht so anders zu dem was wir früher auch schon gemacht haben.

Würde mir fast wünschen wir hätten ne Art Silent/Efficient/Rocket switch. Quasi ne Erweiterung der Energieprofile, bei der man einzelnen Programmen Profile zuweisen kann.
Gibt 3rd Party Programme für sowas (nutze selber Process Lasso, wo ich Prozessen Kernzugehörigkeit, Standard Prozesspriorität und Energieprofil zuweisen kann, hab mir sogar ein 3.9 GHz Profil eingerichtet für Sachen die nicht Volldampf brauchen), aber eingebaut in Windows oder als separates Programm wäre halt nett. Ähnlich zum Intel XTU, nur halt weniger an den Enthusiasten gerichtet und mehr an den normalen Anwender.
 
  • Gefällt mir
Reaktionen: Felix#, DerBaronTV und BReTT PiTT
Werde bald einen 14700K haben (keine Angst, habe auch ein AM5 System..).

Gekühlt wird mit Noctua NH-D15.

Fürs Zocken, was würdet ihr da für ein sinnvolles Powerlimit im UEFI einstellen? Offen lasse ich den so sicher nicht..
 
Maldiel schrieb:
Fürs Zocken, was würdet ihr da für ein sinnvolles Powerlimit im UEFI einstellen? Offen lasse ich den so sicher nicht..
Würde mich da einfach an die Intel Spezifikationen halten. Also PL1 = 125W und PL2 = 253W.
Du könntest auch selbst noch ein bisschen rumprobieren und niedrigere Werte einstellen. Weil wie du anhand von @lord_mogul's Beitrag siehst, macht selbst ein Powerlimit von 90W nicht so viel Unterschied.

Wenn du dich auskennst mit undervolting, würde ich dir das zusätzlich noch empfehlen. Spart Strom und ist gleichzeitig gesünder für die CPU auf Dauer
 
  • Gefällt mir
Reaktionen: Maldiel
Die Entwickler von Outpost: Infinity Siege warnen vor "zu schnellen" Intel CPUs: https://www.pcgameshardware.de/CPU-...nce-Problem-Intel-CPU-Heruntertakten-1444192/

So empfehlen die Entwickler hier Besitzern eines Intel Core i9-13900K oder i9-14900K, den Prozessor mittels XTU (Extreme Tuning Utility) herunterzutakten.




Der Entwickler von Manor Lords hat auch so seine Problemchen mit seinen eigenen Intel-CPUs der 14000-Reihe:
https://www.pcgameshardware.de/Mano...-Mann-Entwicklung-Schreckmoment-BSOD-1444185/

Der genannte Fehlercode taucht insbesondere bei hochgetakteten Prozessoren auf - und in beiden Rechnern war ein Intel Core i9-14900KF verbaut. Erst nach dem Absetzen der CPU Core Ratio laufen die Compile-Vorgänge (zumindest seitdem) wieder reibungslos, wie der Account in einem weiteren Beitrag erklärt.



Daher merke: Setzt du den Prozessortakt herunter, läuft dein PC wieder munter.
 
  • Gefällt mir
Reaktionen: Goodtwist, Alesis und DerBaronTV
Leider habe ich aber zu dem Thema bisher nichts Neues gehört. Bin mal gespannt, wie die Intelempfehlung aussehen wird: außer Powerlimit anpassen :-)
 
arvan schrieb:
Letzte Woche einen Ryzen 7600X hier gehabt. Hat den Boost Takt nicht geschafft und ist dabei immer abgestürzt (Bluescreen).
Wenn du "mutig" bist teste mal die interne Grafikeinheit nachdem du Expo aktiviert hast. Habe die CPU jetzt schon zweimal verbaut auf zwei verschiedenen Systemen. Nichts außergewöhnliches, nichts im Bios geändert. Aber die Grafikeinheit lief ums verrecken nicht stabil auf beiden Boards - ständige Abstürze der internen Grafikeinheit sobald ein Treiber installiert wurde (beim simplen browsen oder auch direkt nach dem Windowsstart). Bin mir nicht sicher ob ein direkter Zusammenhang mit Expo besteht, weiß nur, dass nachdem es einmalig aktiviert wurde die IGPU auch nach dem Deaktivieren von Expo einfach nicht mehr stabil laufen wollte (Memtest lief jedoch problemlos durch). Gut dass ich einen sehr kultanten Händer hatte, bei dem ich schon länger Kunde bin der auch die zweite CPU nach der Problemschilderung anstandslos zurücknahm. Gut, dass ich noch ein paar Tage auf meine Grafikkarte warten musste, sonst wären mir die Probleme wohl gar nicht aufgefallen. So warte ich jetzt erst Mal mit einem CPU-Upgrade - zwei mal hintereinander solches "Pech" ist mir dann doch etwas suspekt und dem Händler will ich das auch nicht mehr zumuten.. :D
 
Zurück
Oben