News Special Edition mit 5,5 GHz: Beim Intel Core i9-12900KS kostet ein Kern 50 Dollar

ikarusx3 schrieb:
Lad dir mal die Pendulum GSync Demo von Nvidia und Vergleiche mal vsync mit GSync bei 40fps. Es ist nicht nur tearing, sondern auch dass die gpu mit der bildausgabe im schlimmsten Fall fast einen ganzen frame warten muss ohne sync, was das flüssigere Erlebnis mit sync ausmacht. Aber das muss man sehen, darüber reden bringt nichts. Heiße Empfehlung für die Demo! Hat mich damals überzeugt.
Ich bezweifle gar nicht, dass die Frametimes dadurch auch geglättet werden können.

Davon unabhängig wird mich Werbematerial niemals von irgendwas überzeugen.
 
Schinken42 schrieb:
Davon unabhängig wird mich Werbematerial niemals von irgendwas überzeugen.
Das ist kein Werbematerial, sondern eine Testumgebung, die es ermöglicht Adaptive Sync sehr einfach mit verschiedenen Bildraten zu testen. Das kann man auch selbst schreiben, wenn man möchte. Man kann natürlich auch eine Game nehmen, dass schwankende Bildraten in der Adaptive Sync Range produziert.
 
  • Gefällt mir
Reaktionen: derin
ist halt "nur" ein besseres binning. wird nicht so viel bei rumkommen. die 5,5 GHz sieht man ja wohl dann doch eher selten mit normaler kühlung von daher jetzt nicht entscheidend was man hier noch an performance gefunden hat
 
Allcore hat man 100Mhz mehr, krass, da wirds ja schwer aus der Messungenaugikeit herauszukommen. Und den TVB streichen sie erst, um ihn dann ein paar Monate später für einen verzweifelten Konter wieder aus der Schublad zu holen. Das ist unwürdig, sowas hat Intel normalerweise nicht nötig.
 
Schinken42 schrieb:
Ich bezweifle gar nicht, dass die Frametimes dadurch auch geglättet werden können.
Adaptive Sync verändert nicht die Bildberechnung, sondern die Bildausgabe. Auf die Frametimes hat es überhaupt keinen Einfluss.
 
  • Gefällt mir
Reaktionen: Gortha und Wintermute
Nolag schrieb:
Das ist kein Werbematerial, sondern eine Testumgebung, die es ermöglicht Adaptive Sync sehr einfach mit verschiedenen Bildraten zu testen. Das kann man auch selbst schreiben, wenn man möchte. Man kann natürlich auch eine Game nehmen, dass schwankende Bildraten in der Adaptive Sync Range produziert.
Das ist von dem Hersteller um die eigene Technologie zu präsentieren. Egal was der sagt, es ist Werbematerial.
Ergänzung ()

Taxxor schrieb:
Adaptive Sync verändert nicht die Bildberechnung, sondern die Bildausgabe. Auf die Frametimes hat es überhaupt keinen Einfluss.
Weisst du was, ich ignorier dich einfach mal, du bist mir zu rechthaberisch und aufdringlich. Hau rein.
 
  • Gefällt mir
Reaktionen: [F]L4SH
Wer sich zu Release einen 12900K gekauft hat bekam auch schon 5.3GHz 1 Kern Boost.
Danach ist ihnen nur aufgefallen dass es wohl noch ein bisschen nachreifen muss und wurde eine Charge später um 100MHz gesenkt.

@dante`afk seine Bilder ;-)
1636814524045.png1636814513716.png
Quelle:
Beitrag im Thema 'OC Prozessoren Intel Sockel 1700 (Alder Lake-S)' https://www.hardwareluxx.de/communi...ockel-1700-alder-lake-s.1307015/post-28818807
 
  • Gefällt mir
Reaktionen: martin28bln, Wintermute und t3chn0
Dass das Top-Modell überproportional viel kostet, ist doch wirklich nichts neues. Schon der 12900K lag in den Spiele-Tests bei CB im Schnitt nur vor 7% vor dem 12700K (in WXGA, bei höheren Auflösungen noch weniger), kostet aber locker 40% mehr. Und in den Generationen davor sah es ähnlich aus. Die letzten paar Prozentpünktchen Mehrleistung haben sich die Hersteller schon immer vergolden lassen.
 
Mein 1950X hatte mich 62,50 € gekostet. Da ist eine Mainstream CPU für 50 €/Kern schon lächerlich.
 
Die CPU wie der 12900k ist wirklich nicht so besonders ,er profitiert nur vom Takt. Sobald man da nur 125 Watt als Limit setzt dann sinken die Taktraten sehr stark und verliert sehr viel Leistung. Er ist dann bei der rohleistung zwar noch immer besser als ein 5800x aber unter einem 12 Kerner ist er dann auf einmal. Man sieht die rohleistung kommt nur durch den Takt aber sonst garnix. Ich habe den Test bei wem machen dürfen ,das war echt unglaublich. Habe auch ne Liste notiert wo die CPU dann so landen wird. Das ganze habe ich dann auch mit einem 12700k gemacht. Der verlor viel weniger an Leistung als der 12900k also von daher ist die beste CPU nicht immer die beste. Der 12600k wird wohl am wenigsten verlieren weil weniger Kerne ziehen auch weniger und dadurch kann der höhere Takt auch viel besser gehalten werden.
Wenn man nun alle Intel CPUs auch 125 Watt davon begrenzen würden also 12600k,12700k und 12900k ,dann gewinnt ganz klar der 12600k haushoch.
Ist aber nur der Fall für den Leistung pro Watt am wichtigsten sind. Oder der es gewohnt ist viel Leistung bei moderaten Stromverbrauch inne zu halten.

Und ja das ist wirklich bitter der 5800x verbraucht nur 76 Watt und der 5700g wenn man ihn nicht drosselt bei 88 Watt aber hat dafür nen höheren Takt.

Wie auch immer ,ich finde sie sollten mehr auf IPC anstatt sich auf CPU Takt zu konzentrieren. Also viel mehr Leistung bei moderaten CPU Takt. Dadurch steigt die Temperatur nicht mehr so stark an und der Stromverbrauch ist auch viel besser.
Takt treibt also beides nur unnötig nach oben.

Das ist auch der Grund warum ich Intels CPU nicht mag. Und wenn Intel dann lieber auf einen 12600k. Auch wenn ich diesen bisher nicht ausführlich testen konnte aber simuliert habe ich den so gut es ging ja sehr wohl. Am besten wird wohl der 12500k sein ohne die e cores.
 
Zurück
Oben