News Core i9-13900KS?: Intel nennt 6 GHz für Core Gen13 alias Raptor Lake

feris schrieb:
Da erwarte ich mir vom 3D-Cache aber etwas mehr, als von 200 MHz.
Es sei denn DDR5 bringt schon so viel, aber das würde dann ja den 3D-Cache obsolet machen.
Bisher muss bei 3d Cache aber auch der Takt um 300 MHz runter..
Ergänzung ()

Dome87 schrieb:
Hoher Takt hilft deutlich öfter und wer einen Allrounder sucht wird sicherlich nicht zur verhältnismäßig lahmen 3D-Cache Variante greifen.

Sorry lahm..
Das entlarvt dich aber... Wird diesmal richtig bitter für Intel wenn es stimmt und AMD auch mehr als 8Kerne mit 3d Cache bringt..
 
Ach ja die ersten Seiten durch und nur Grütze .....

Wie wäre es ja Intel News wahrnehmen , durchatmen und dann nicht Posten wenn dabei eh nur Halbwahrheiten rumkommen und Hirngespinste verbreitet werden

Habe echt das Gefühl das wird immer schlimmer

Da wird aus gemunkel was rausgelesen und gleich als gesetzt verbreitet

Warum immer so getan wird als würde nur der Verbrauch unter Volllast steigen aber dann unterschlagen das es mehr Kerne sind und die single core effizienz dennoch besser wird

Wenn jetzt so ein Kern hoch auf 6ghz bosten sollte wird es sicher das eine oder andere Programm davon profitieren

Wenn ich überlege das das gleiche Gespräche mit 5ghz noch nicht allzulange zurück liegt , da gab's genau den gleichen sch... Und nun wo AMD die 5 GHz knackt ist das alles vergessen aber was interessiert das gewäsch von gestern

So wie hier gemunkelt wird habe ich Gerüchte gehört das die 13000 im Vergleich zu den 12000 kühler laufen sollen warum wird da nicht eingegangen ?

Und die ganzen Watt Terroristen hier was sind schon 200-300 Watt nur weil Deutschland so am durchdrehen mit dem Strom ist sind wir noch lange nicht der Nabel der Welt was das angeht und Mal ehrlich solange die CPU nicht in Dauerschleife 24/7 cinebench rechnet ist so ein Rechner wohl ein kleiner Verbraucher im Haushalt
 
  • Gefällt mir
Reaktionen: Hennings und Corpus Delicti
scryed schrieb:
Warum immer so getan wird als würde nur der Verbrauch unter Volllast steigen aber dann unterschlagen das es mehr Kerne sind und die single core effizienz dennoch besser wird
Wodurch sollte denn die Singlecore Effizienz besser werden?
Wir haben schon beim normalen 13900K im Vergleich mit Alder Lake den gleichen Prozess, nahezu keine Änderungen am Core Design und dabei nochmal 300Mhz mehr Boost als der 12900KS bekommen hat.

Man kann sich ja anschauen, wie das beim 12900KS vs 12900K mit der Effizienz aussah: 21% mehr Verbrauch für 5% mehr SC Performance.

Jetzt kommt ein 13900K mit 300MHz mehr als das, selbst wenn er es schafft, diese 300MHz ohne exponenzielle Verbrauchssteigerung hinzubekommen, er wird auf jeden Fall ineffizienter sein als ein normaler 12900K.

Und darauf aufbauend will man nun, nochmal 200MHz drauflegen + vmtl das Power Limit nochmal erhöhen.

Ein 13900KS würde im SC ineffizienter sein als ein 13900K, der ineffizienter als ein 12900K sein wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
iGameKudan schrieb:
Das wird eh nur ein FX9590 reloaded. Schwer zu kühlen, nicht Allcore und sicherlich nur auf einem Kern für wenige Sekunden.

Hee, das Ding heizt mir bis heute ungelogen die Bude. 4k h265 Material in Software statt Hardware anschauen, und schon ist die Bude warm :cool_alt::daumen:
 
Novasun schrieb:
Sorry lahm..
Das entlarvt dich aber... Wird diesmal richtig bitter für Intel wenn es stimmt und AMD auch mehr als 8Kerne mit 3d Cache bringt..
Ich hatte über Monate 5800X3D und 12900KS bei mir zu Hause parallel laufen. Der 5800X3D ist abseits von Gaming lahm. Was entlarvt mich denn da? Das ist die bisher effizienteste CPU für PC-Spiele. Sonst aber auch nichts.
 
Ich denke das Wort lahm im Zusammenhang mit einem 5800x3D ist was hier triggert. Die CPU ist abseits von Gaming objektiv langsamer als die Gegenspieler ihrer Klasse ("relativ lahm"). Absolut Lahm ist sie aber eher nicht da sie die CPU der letzten Generationen trotzdem in die Tasche steckt. Und es ist ja nicht so dass Synetische Aufgabenprofile vor 1-2 Jahren von sämtlichen CPUs nur 'lahm' erledigt werden konnten. Damals war hal Ryzen 3000 und Intel Gen 11 die Speerspitze.
 
  • Gefällt mir
Reaktionen: Wintermute
catch 22 schrieb:
ja, es ist gut möglich, dass mit "besonders optimierten" (wieder einmal diese unsinnige Formulierung "optimiert"... der Mist heist "übertaktet" oder "Scheiße, kostet der Arbeitsspeicher von der Stange mit den krassen Werten viel!") RAM, in allen oder speziellen Situationen schneller ist, als der 7950x, falls der 13900KS es nicht von Haus aus sein sollte.
Allerdings, gerade solange noch keine freien Benches zu den Prozessoren verfügbar ist, wenn man solch einen These aufstellt, sollte man auch gleich die relativierende These mit aufstellen, dass der 7950x mit übertakteten oder Scheiße, kostet der Arbeitsspeicher von der Stange mit den krassen Werten viel! RAM, sich (wieder) vor den 13900KS setzen kann.

Auch haben solche Aussagen absolut keine echte nennenswerte Relevanz, wenn man RAM verbaut, der, wenn es mehr als 16GB sein darf, nochmal die Kosten der CPU aufruft. Vor allem wenn für diesen Vergleich Prozessoren herangezogen werden, die abseits der OC Rekordjagd und "Workstations für Arme" (viele Kerne mit hoher Rechenkraft auf Consumerbords, also nur wenige PCIe Lanes, relativ wenig Ram möglich), kaum Sinn ergeben.

Zu guter Letzt sagt es auch nichts über die sonstigen Prozessoren aus, macht die anderen in "unseren" (überwiegend Zocker-) Rechner verbauten Zen 4 / Alder Lakes schneller oder gar besser.
Du musst auch nicht so viel reininterpretieren. Ich habe lediglich gesagt, was maximal mit dem 13900Ks und geilem RAM rauszuholen ist ne brutale gaming platform ist, habe nie irgendwas von Vernunft geredet, wahrscheinlich werden nichtmal 1% so ein Setup fahren, dennoch find ich es interessant, natürlich genauso wie beim 7950X. Ich selber habe auch einen 5600X als reiner Gamer und bisschen Office, werde erstmal kein so ein Monster benötigen und 12400f, 13400f, 5600(X), 5700(X), 13600K(f) und Ryzen 7 5800X3D, Ryzen 7 7700X und i7 12700(f) und i7 13700(f) werden die CPUs für die Masse sein von älterer Platform bis zur neuen im Mittelpreissegment. Fürs reine gaming wird ein 13400f mit günstigen DDR5 4800 CL40 für über 80% genug sein. HW unboxed hat ja jetzt gezeigt, dass selbst so günstiger DDR5 mittlerweile schneller im gaming ist als guter DDR4 3200 Cl14, jetzt fehlen nur noch günstige DDR5 Mainboards für Raptor Lake und Alder Lake, bei AMD soll's ja bei 125$ anfangen, wir werden sehen, wie sich die Preise entwickeln, aber wir sind in einer sehr guten Zeit, was CPUs angeht.
 
@Sennemaa Wer so eine Highend CPU kauft den juckt das nicht der arbeitet und nutzt die Kiste wenn es hoch kommt in der Woche 4 Stunden am Tag am Wochenende natürlich mehr.
 
Die CPU ist in erster Linie für Gamer gemacht.
Man merkt, dass hier im Forum nur Office-User und keine Gamer unterwegs sind.
Ausserdem läuft die CPU gar nicht ständig auf Volllast.
Ergänzung ()

Don_2020 schrieb:
6 GHZ sind das nicht Mikrowellen? Sind die nicht gefährlich?
Das sind Mikrowellen. Die sind nicht gefährlich.
 
scryed schrieb:
So wie hier gemunkelt wird habe ich Gerüchte gehört das die 13000 im Vergleich zu den 12000 kühler laufen sollen warum wird da nicht eingegangen ?
Weil die TDP klar dagegen spricht und Intel halt seit Jahren die Brechstange nutzt und es eben genau so auch immer kommuniziert, bzw. nichts dagegen unternimmt.

Dome87 schrieb:
Ich hatte über Monate 5800X3D und 12900KS bei mir zu Hause parallel laufen. Der 5800X3D ist abseits von Gaming lahm. Was entlarvt mich denn da? Das ist die bisher effizienteste CPU für PC-Spiele.
Der 5800X3D wurde klar als Gaming CPU beworben.
Weitere Worte dazu als Kritik sind abseits der Tests irgendwie unsinnig.
Gerade die CPU ist ja eine Meisterleistung AMDs. Einfach weil im Consumer Bereich derartiges noch nie existierte.
Nein, auch der L4 Cache bei Intel damals war technisch etwas ganz anderes und vor allem sehr teuer und war für Intel nicht attraktiv.

Black Phoenix schrieb:
AM5 wird im Top Segment auch nicht sehr viel besser da stehen, da Takt nunmal zu Lasten von Verbrauch geht, das war so und wird auch in ferner Zukunft so bleiben. Da Takt nicht linear zu WATT skalliert!
AMD CPUs ab 12 Kerne sind TDP kastriert.
So hat sich AMD diese klein gehalten, damit man noch mehr Spielraum zwischen Consumer und Server hat.
Und war halt bisher auch gegen Intel nicht nötig. jeder Marktteilnehmer versucht sich nur so viel zu bewegen wie nötig, bzw. maximalen Profit zu erwirtschaften.

Black Phoenix schrieb:
Bei Einigen hier im Forum fragt man sich, ob sie gelesen haben, was CB hier ausführlich in Tests erörtert. Keine CPU braucht diese Watt Angaben dauerhaft! Oder spielt ihr alle Prime95, Cinebench, AIDA Stresstest, 3DMark 24/7?
Nur belegen alle seriösen Tests einen deftigen Mehrverbrauch für Intel, seit ka wie vielen Generationen.
Man wünscht das ein Max Mustermann PC Kiddy PC bei CPU nicht einfach unbegrenzt 350W TDP ziehen darf. Das ist alles. Und Intel rennt seit Jahren in die andere Richtung. Was TDP und PL2 Limit belegen. Daher wird Kritik immer lauter. jedenfalls in unserer Bubble in DE. Der Markt scheints ja anzunehmen, also wird AMD folgen. Wer soll jetzt daran schuld haben? Intel? AMD? Der Markt? Der Gesetzgeber?

AMD passt sich an und ist sehr weit von intel Maßstäben entfernt. Intel biased Leute tun oft als ob AMD genauso schlimm ist oder war, beachtet aber nicht die Gewichtung und das es einfach nicht korrekt ist, da AMD einfach dem Marktführer Intel folgt (folgen muss! wenn der Markt es annimmt)
Intel 8P+16E 350W unbegrenzt PL2 vs. AMD 7950X 16P(!) PPT 230W.
Dann ist es auf ein mal böse von AMD den guten Chiplets die eigentlich in Server gehören die TDP zu geben die sie eigentlich immer schon bräuchten.

Black Phoenix schrieb:
Einfach herrlich in nahezu jedem Intel Thread zu lesen:

a) oh da kann ich mir ja gleich das Atomkraftwerk mit dazu kaufen
b) oh der Prozessor wird bestimmt heißer als die Corona der Sonne
c) AMD ist ja so viel effizienter als Intel
d) wer braucht schon diese Leistung
Ohne Spass, dann verlasse doch den Thread oder schreibe einen Mod an.
a. übliches nonsense, ignorieren hilft.
b. siehe a.
c. ist halt einfach wahr, wobei in der Mittelklasse das schon wieder interessanter aussieht.
d. Tellerrandproblem, siehe a. alternativ Diskussion über Zielgruppe einer CPU und wieso heute kaum noch Workstations über den Tisch gehen...

Black Phoenix schrieb:
Ich persönlich kann dieses sinnlose hin und her gebashe zwischen AMD vs Intel in keinster Weise nachvollziehen.
Ist doch in jeder Branche so.
Man sollte halt nicht allzu emotional werden, wie es mir scheint du gerade bist.
Manchen macht es Spass jedes Fitzelchen Gerücht und News zu noch nicht erschienenen Produkten zu verwerten und zu orakeln. Das ist auch vermutlich in jedem Bereich so.

Das Gebashe ist teilweise zurecht, ob "poor Volta", "Bulldozer" oder "Intel Brechstange", "kleben" und Intel "28 Kerne 5 Ghz". Kenner wissen genau was gemeint ist und erinnern sich an die Fettnäpfchen beider Firmen die sonst in Vergessenheit geraten. Man sollte halt gegen Firmen bashen, nicht Forenteilnehmer.
Problematisch wird es wenn sich Forenteilnehmer mit Firmen/Firmenprodukte identifizieren.

Bsp. bin ich etwas AMD biased, das weiß ich aber und darf Kaufempfehlungen nicht beeinflussen.

Logisch gesehen wird Zen 4 Intel Alder Lake platt machen.
Ob Zen 4 Raptor Lake packen wird, ist ohne seriöse Tests Spekulation, aber ich denke ja, kann aber eng werden. Schrieb ja schon, das ich Ankündigung des KS schon vor Release als Zeichen dafür werte.
Die Zen 4 3D werden aber mit Intel Schlitten fahren, das ist für mich keine Frage.
Die Frage ist eher ob AMD genug günstige 3D Modelle hinbekommt und keine Marge abgibt.

Das gute aus Kundensicht ist, das AMD durch Intel eventuell genötigt wird 3D Varianten zu bringen.
Das ist der Wettbewerb den wir halt brauchen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wintermute und Onkel Föhn
@Draco Nobilis

Hier geht es aber um RPL, den Vergleich mit den 3D-Cache CPUs habe ursprünglich nicht ich gezogen.

Hier wurde ohne den Zusammenhang zum Gaming zu sehen behauptet, für den kommenden 7800X3D(?) wurden die 200MHz nicht reichen.

Abseits vom Gaming sieht man beim Vorgänger aber sehr wohl, dass sogar ein Pentium ADL schneller in SC ist als ein popeliger 5800X3D.
 
TomGamer schrieb:
Die CPU ist in erster Linie für Gamer gemacht.
Falls mit "Die CPU" der Core i9 13900KS gemeint sein sollte...
Bekomme ich nicht mit wie mir die Ironie in den Hintern beißt, oder meinst du das wirklich ernst, dass eine CPU mit 16 E-Cores, die beim Zocken derzeit faktisch nicht genutzt werden (womit ich nicht zum Ausdruck bringen will, dass sie "Müll" wären, 4 von den E-Cores in einer CPU, die fürs Zocken gedacht ist, zu haben, ist on Top als "Rücklage" eine feine Sache, falls man neben dem Zocken sonst noch was laufen lässt, was eben mit der Performance der E-Cores wunderbar bedient werden kann), für Zocker konzipiert wurde???
 
Na klar. Wozu sonst die hohe Single Core Leistung. Brauchen nur Zocker.
Der 13900K ist wie der 5950X für Zocker und zum Arbeiten geeignet.
 
Dome87 schrieb:
Hier wurde ohne den Zusammenhang zum Gaming zu sehen behauptet, für den kommenden 7800X3D(?) wurden die 200MHz nicht reichen.
Ja ist halt Unsinn der einfach zu widerlegen ist:
Test CB 5800X3D Gaming

Dome87 schrieb:
Abseits vom Gaming sieht man beim Vorgänger aber sehr wohl, dass sogar ein Pentium ADL schneller in SC ist als ein popeliger 5800X3D.
Was wohl nicht angezweifelt wird. ADL ist SC recht stark, mit einem Strompreisschild versehen, mit dem Hintergedanken des Vorteils des DDR5, neuesten Intel 7 sowie vs. AMD 2019 CPU Technik. Nicht umsonst ist Intels Marge inzwischen quasi inexistent und Preissteigerungen wurden angekündigt. Und dazu ist jede Intel CPU im jeweiligen Segment flächentechnisch größer als die von AMD.
Das kann so nicht ewig klappen und selbst AMD nimmt Intel inzwischen in Werbefolien damit auf die Schippe.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Grantelb4rt schrieb:
Netburst 2.0 babyyyyy!
Nein, das sind schon Hocheffizienzkerne, aber eben auch hoch getaktet.
Es war doch klar, dass 6 GHz früher oder später erreicht werden,
seit Intel den Hitzeverteiler wieder anlötet.
Das Einzige was mir Sorgen macht, ist die Stabilität und die Haltbarkeit von so einem Boliden.
 
t3chn0 schrieb:
Das wird sich nun aber massiv verschieben.
Das hat sich doch schon verschoben.
Wenn ich mir so die Marketingfolien der letzten Jahre revue passieren lasse, dann hat sich deren Inhalt von AMD zu intel mittlerweile komplett umgedreht.

Früher ging AMD noch so:
Wir haben den und den "Weltrekord", hier und hier waren wir "die ersten" und wir sind toll, weil ... weil wir die Underdogs sind, wir sind halt cool.
intel hingegen: Das und das erreicht. Das und das ausgeführt. Wir sind on track.

Und jetzt?
Jetzt finden sich diese "Aber wir sind erste, ätsch bätsch" plötzlich auf intel Folien.
(8GHz Rekord? Ja toll, mit oder ohne 1KW Wasserkühlung hinter'm Vorhang?)
Und AMD sagt einfach nur an was ist.

Pat hatte schon recht.
intel muss sich echt noch ein paar Jahre echt lang machen, bis die wieder auf einen grünen Zweig kommen. Also auf den gewohnten intel Standard.

Schon lustig wie schnell sich die Zeiten ändern können.
Ergänzung ()

Robo32 schrieb:
und lasst die Gabeln noch im Schrank
och, menno.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
HITCHER_I schrieb:
Nein, das sind schon Hocheffizienzkerne, aber eben auch hoch getaktet.
Das eben widerspricht sich etwas, für maximale Effizienz darf man über einen gewissen "Sweetspot" nicht hinaustakten.
HITCHER_I schrieb:
Es war doch klar, dass 6 GHz früher oder später erreicht werden,
seit Intel den Hitzeverteiler wieder anlötet.
Das Einzige was mir Sorgen macht, ist die Stabilität und die Haltbarkeit von so einem Boliden.
CPU sind @stock in der Regel überaus haltbar. Soweit es die Gesamtplattform betrifft, fallen zumeist die Motherboards aus, die im Schnitt weit weniger langlebig und zuverlässig sind. Nicht umsonst ist es zumeist kein Problem, eine ältere CPU (nach EOL) gebraucht aufzutreiben. Die Boardauswahl am Gebrauchtmarkt ist zum selben Zeitpunkt hingegen meist deutlich geringer.
 
Zuletzt bearbeitet:
Biedermeyer schrieb:
Warum sollte man sich diese CPU holen?
Um meine Kinder zu zitieren: "Weil man's kann!" LOL.
... wer's braucht soll glücklich werden. Vor gar nicht allzulanger Zeit wurde noch wild um 5GHz spekuliert. Schall mauer und so. Jetzt sind's 6GHz. Okay.
Mich würde interessieren, ob sie die 10GHz bis Ende des Jahrzehnts schaffen können. (okay, okay, OC.)
DAS wäre mal was.
 
Draco Nobilis schrieb:
Weil die TDP klar dagegen spricht und Intel halt seit Jahren die Brechstange nutzt und es eben genau so auch immer kommuniziert, bzw. nichts dagegen unternimmt.

@scryed wird hier rauf anspielen:

A leaked roadmap listed a new feature, a Digital Linear Voltage Regulator (D-LVR), alongside the Raptor Lake chips. According to an Intel patent, this feature helps reduce the CPU VID and power consumed by the cores, possibly reducing power consumption by up to 25% in some cases. Naturally, given that it is in a pitched battle for performance supremacy in the desktop PC space, we would expect Intel to use the headroom afforded from those power savings to deliver yet more effective power to the cores. We aren't sure of this tech's role in the Raptor Lake chips yet, or how effective it will be (if present). We aren't sure if this will be used for the desktop PC or mobile chips, or both, but it could be part of Intel's recipe to improve Raptor Lake's performance-per-watt.

Quelle: https://www.tomshardware.com/news/i...ications-pricing-benchmarks-all-we-know-specs
 
  • Gefällt mir
Reaktionen: Draco Nobilis und heroesgaming
Zurück
Oben