News Intel Core i9-13900K (ES): Raptor Lake mit 5,5 GHz und DDR5-6600 im Geekbench 5

bad_sign schrieb:
Fürs Gaming würde ich nicht über 8c gehen, verschwendetes Geld.
Ich wäre mit solchen Aussagen vorsichtig. Früher hat man auch 400-500W Netzteile empfohlen, weil mehr niemals nötig sein würde und dann kamen Turing, Ampere und RDNA2.
 
theGucky schrieb:
Jetzt noch eine Frage dazu: Ist der Basetakt der Wert den die CPU auf allen Kernen wenn das PT1 eingehalten wird? Also z.b. 5950X 105W und 12900k 125W. Oder taktet die STOCK CPU trotzdem höher?
Wenn sie höher taktet, wo kommt dann der Wert her? :p
Das ist die garantierte Baseline. Soll heißen alle Chips schaffen bei TDP als Minimum diesen Takt egal was für eine Belastung.

So eine CPU regelt ihren Takt ja je nach Belastung selbst.
Beispiel: Mein 12700 hockt auf 400 MHz im vollen Idle (~5 bis 10W). Unter maximaler Last (Machine Learning auf 20 Threads) sind es dann 4.3 und 4.4 Ghz auf den zwei präferierten Kernen und 125W abgeregelt.
Spannenderweise regeln sich die P-Kerne unter "Energiesparend" (Win 10) bei Vollast (20T) nur bis auf 1.4Ghz hoch (~55W).
Die E-Kerne geben immer vollen Dampf (3.4 Ghz) egal was für eine Energieoption.
theGucky schrieb:
Ich finde zumindest das diese Lücke zwischen Basetakt und max Boosttakt langsam gefährlich wird. Es ist faktisch Werks-OC das von denen Velocityboost oder sonst was genannt wird.
Gefährlich ist da erstmal nix. Selbst wenn du einen fixen Takt anlegst, variiert die Stromaufnahme trotzdem. Eben weil nicht dauerhaft alle Komponenten der CPU belastet werden und der Chip selbst regelt, was gerade gebraucht wird oder nicht.

Wenn Kunde keinen Overclock will, kauft er halt kein K Modell und oder schaltest die dynamischen Boosts im Bios bei AMD und Intel ab.
 
Zuletzt bearbeitet:
hahaqp schrieb:
Es nervt einfach nur noch. Beängstigend dass wir so viele arme Leute im Forum haben für die zusätzliche Stromkosten von 50€ im Jahr so bedrohlich sind.

Verdient halt nicht jeder so gut wie wir zwei.

50 Watt mehr oder weniger weg zu kühlen ist ein gewaltiger Unterschied. Vor allem, wenn die auf ner kleinen Fläche an fallen.
 
SonyFriend schrieb:
... der schaut auf Verbrauch und entscheidet sich generell für das Produkt, welches weniger verbraucht.
Wenn er das macht um Geld zu sparen dann ist aber auch der Kaufpreis mit entscheidend
denn um z.B. 100€ Stromkosten in 3 Jahren zu sparen müsste die CPU im Alltag 50 Watt
weniger brauchen und muss 4 Stunden unter Volllast laufen. Gerechnet mit 50 Cent/kwh.

Die logischste Gaming CPU wäre dann ein 12600KF weil günstig und sparsam zugleich.
Wobei ein 12500F oder gar 10400F wohl am besten wären für einen 14 Jährigen. :heilig:
 
Corpus Delicti schrieb:
Hat AMD den was aktuelleres zu bieten?

Ryzen 6000 als Vorgeschmack auf Ryzen 7000.
Ergänzung ()

Schinken42 schrieb:
Oder man sieht sich ganz nüchtern mal die Zahlen an. Privathaushalte machen weit weniger Stromverbrauch aus als die Industrie. Gleichzeitig kommt jede Studie und jeder der sich mit dem Thema beschäftigt zu dem Schluss, dass in Privathaushalten selbst im allerbesten Fall keine 10% Einsparung zu erwarten sind.

Nur, dass die Industrie halt für wen Produziert? Jo für die privaten Endverbraucher. Weniger Konsum, weniger Industrie.

Egal, mittlerweile ist die Erderwärmung eh unumkehrbar, also Happy Fraking! 😁
 
13900k stock 350W in aida habe ich grad mitbekommen...
Kühlbar mit einer 360er AIO.
Hinzu kommt:

"
From the source himself:

"Zen 4 is still not good for CPU performance sensitive games""
Getestet wurden 3 Games und FSU, aber leider in 1440p, aber in FH5 konnte Zen4 gerade mal zum 12900k aufschließen.

"Because the IPC boost is insufficient, it must rely on the clock boost performance. This is terrible
TDP TDP TDP" (Auch Zen4)

TJ max 115°C bei RPL

Und bzgl Kühler gibts neue standoffs.
 
Bitte die stromspardebatte abseits von CPUs aus dem thread hier auslagern dafür haben wir bereiche und nicht jeder CPU PU oder sonstiger thread wird damit gekapert
 
  • Gefällt mir
Reaktionen: gesperrter_User und owned139
Ben_computer_Ba schrieb:
Dabei ist Intel nun einmal leistungsstärker und bietet den neueren Standard. Darf ich nicht sagen das Intel zukunftssicherer ist aufgrund PCI 5 und DDR 5 Support?
Zen2 (Ryzen 3000) bot bereits 2019 PCIe4.0, aber da war das für die Intel Trolle hier im Board ja bezüglich Zukunftssicher "braucht kein Mensch - 3.0 reicht ja noch" (Es heisst im übrigen nicht PCI 5 sondern PCIe 5.0 oder PCI-E 5.0 ! PCI Express PCI !)
Speichersupport war auch da schon bei DDR4-3200 (höchster von der JEDEC offiziell zertifizierter Takt für DDR4) während Intel je nach CPU noch bei bis runter zu 2400 lag.
Und ich sprech jetzt explizit von "ab Werk" und nicht irgendwelchen Speicher OC.
Es soll auch Leute geben die sich nicht mit übertakten beschäftigen wollen (ja wirklich, aber nur so lächerliche ca 99% der AnwenderInnen), oder wie in meinem Fall nicht mehr wollen.
Zen3 von 2020 war durch die Bank schneller und sparsamer als Intel Gen10 von 2020 und zum Teil auch noch als Gen11 von 2021.
Ben_computer_Ba schrieb:
Das ist ein wichtiger Punkt den du durch deine rote Brille wahrscheinlich nicht wahrnehmen willst.
Ahja, rote Brille. 🤣
Das sind dann die Ausdrücke von Leuten die selber in ihrer Bias-Blase gefangen sind.
Nur mal zur Info: Mein erster "Rechner" war Mitte der 80er ein C64 und ein programmierbarer Sharp PC-1403 Taschenrechner. Nvidia wurde zB 1993 gegründet, also etwa 1 Jahr nachdem Microsoft ihr Windows 3.1 veröffentlicht hat.
Ich hab schon Hardware auf/unter meinem Schreibisch gehabt wo es einen Teil der Firmen schon gar nicht mehr gibt und viele hier im Board nicht mal die Namen kennen würden.
Schon mal was von einer VAX 11/730 gehört? Die hatten wir damals in der Schule. ;)
Wenn ich von "Pascal" spreche, dann denke ich entweder an eine Programmiersprache oder an Physik.
Die meisten hier im Board würden vermutlich an eine GPU von nVidia denken.... :lol:

Das aktuelle Logo von AMD ist übrigens schwarz, und Rot war es sowieso noch nie !
 
Zuletzt bearbeitet:
gustlegga schrieb:
Und ich sprech jetzt explizit von "ab Werk" und nicht irgendwelchen Speicher OC.
Man musste schon A-XMP aktivieren um über 2133/2400/2666Mhz zu kommen also doch eine Art OC
und während Ryzen 3000 gerade so 3200Mhz schaffte, freuten sich die Intel Freaks über 4000-4266Mhz
mit Intel Gen 8+9 und mit Gen 10 sogar bis zu 4800Mhz aber davon wusste der AMD Mainstream nichts.

Die denken bis heute Gen 9 läuft mit 2666Mhz und Gen 10 mit 2933Mhz weil so steht es ja schließlich
in den offiziellen Mainstream Benchmarks und basierend darauf war auch der 5600X DIE Gaming CPU.

 
@0ssi
0ssi schrieb:
während Ryzen 3000 gerade so 3200Mhz schaffte
Gerade so ?
Mein Ryzen 3600 auf einem B550 Tomahawk ist dann vermutlich der Lottosechser vom Speichercontroller...
3600er (2x16GB)Speicher reingesteckt, beim Zusammenbau, RAM lief default auf 3200, wie gesagt der höchste offiziell spezifizierte Takt bei DDR4. Ohne irgend ein XMP Profil aktivieren zu müssen, einfach so auf "Auto" im Uefi..
Aktuell hab ich die auf 3400.
3600 ginge auch, aber die Latenzen sind bei 3400 um einiges besser; bringt mir im Endeffekt mehr.
Ahja, cool..... 4800er RAM beim CometLake.....
Super. Was kosten da 32GB gleich nochmal die das mitmachen, und vor allem wieviele CPUs und Boards machen das ?
Ne stärkere CPU und/oder etwas mehr RAM wäre wohl die intelligentere Lösung gewesen auf Dauer gesehen.
Aber egal....
Ergänzung ()

0ssi schrieb:
Die denken bis heute Gen 9 läuft mit 2666Mhz und Gen 10 mit 2933Mhz weil so steht es ja schließlich
in den offiziellen Mainstream Benchmarks
Bei Intel ist der offiziell supportete Speichertakt von den CPU Modellen abhängig.
Bitte einfach mal bei Intel Ark nachsehen......
beispielsweise:
i3-10100F 2666MHz
i9-10900K 2993 MHz
 
Zuletzt bearbeitet:
gustlegga schrieb:
Ahja, cool..... 4800er RAM beim CometLake.....
Super. Was kosten da 32GB gleich nochmal die das mitmachen, und vor allem wieviele CPUs und Boards machen das ?
Ne stärkere CPU und/oder etwas mehr RAM wäre wohl die intelligentere Lösung gewesen auf Dauer gesehen.
Aber egal....
Also bis jetzt machen 32GB für Gaming selten Sinn. Meine 16GB DDR4-4400 kosteten ~99€
und neben XMP kann man die Timings sogar von CL19-19-19-39 auf CL17-18-18-36 stellen.
Das schaffen alle CPU's und alle Mainboards wo der RAM in der Memory QVL steht. :heilig:

gustlegga schrieb:
Bei Intel ist der offiziell supportete Speichertakt von den CPU Modellen abhängig.
XMP steht für Intel Extreme Memory Profile und zwar ganz offiziell auf der Intel Seite:
https://www.intel.de/content/www/de/de/gaming/extreme-memory-profile-xmp.html

Auch die Speicherkompatibilitätslisten der Mainboard Hersteller sind offiziell einsehbar
also würde ich sagen der offizielle Speichertakt ist der, den man offiziell kaufen kann. :evillol:
 
gustlegga schrieb:
Zen2 (Ryzen 3000) bot bereits 2019 PCIe4.0, aber da war das für die Intel Trolle hier im Board ja bezüglich Zukunftssicher "braucht kein Mensch - 3.0 reicht ja noch"
Nein, damals war pcie 4.0 auch schon deutlich zukunftssicherer als pcie 3.0 und ein Vorteil von AMD damals. Das ist doch ganz offensichtlich ein Fakt und lässt keinerlei Diskussions Spielraum. Zum aktuellen Zeitpunkt ist aber Intel zukunftssicherer, das kannst du auch nicht leugnen. Nichts desto trotz sind die aktuellen AMD CPUs dadurch natürlich nicht komplett unbrauchbar, aber das war Intels 10 Generation auch nicht.
Das ganze hat auch nichts mit Trollen zu tun und du schärst jeden der etwas positives über Intel sagt unter einem cam, so funktioniert das nicht.
gustlegga schrieb:
Und ich sprech jetzt explizit von "ab Werk" und nicht irgendwelchen Speicher OC.
Es soll auch Leute geben die sich nicht mit übertakten beschäftigen wollen (ja wirklich, aber nur so lächerliche ca 99% der AnwenderInnen), oder wie in meinem Fall nicht mehr wollen.
Die Zahlen sind absolut ausgedacht oder hast du irgendeine Quelle die deine Aussage belegt? Wo habe ich gesagt das die meisten Leute übertakten?
gustlegga schrieb:
Zen3 von 2020 war durch die Bank schneller und sparsamer als Intel Gen10 von 2020 und zum Teil auch noch als Gen11 von 2021.
Ja, und?
gustlegga schrieb:
Nur mal zur Info: Mein erster "Rechner" war Mitte der 80er ein C64 und ein programmierbarer Sharp PC-1403 Taschenrechner. Nvidia wurde zB 1993 gegründet, also etwa 1 Jahr nachdem Microsoft ihr Windows 3.1 veröffentlicht hat.
Ich hab schon Hardware auf/unter meinem Schreibisch gehabt wo es einen Teil der Firmen schon gar nicht mehr gibt und viele hier im Board nicht mal die Namen kennen würden.
Schon mal was von einer VAX 11/730 gehört? Die hatten wir damals in der Schule. ;)
Wenn ich von "Pascal" spreche, dann denke ich entweder an eine Programmiersprache oder an Physik.
Die meisten hier im Board würden vermutlich an eine GPU von nVidia denken.... :lol:
Was willst du damit jetzt sagen? Soll ich jetzt auf einmal denken, dass du super viel Ahnung von PCs hast, weil du ~1985 deinen ersten PC hattest?
Wenn man allgemein von "Pascal" redet, werden wohl immernoch die allermeisten an Physik denken, wenn hier im Hardware Foren jemand Pascal schreibt ist es doch logisch das die meisten dann an Nvidias 1000 serie denken.
gustlegga schrieb:
Das aktuelle Logo von AMD ist übrigens schwarz, und Rot war es sowieso noch nie !
Trotzdem sagt man zu Nvidia grün und AMD rot bzw. Blau zu Intel. Die Farben werden immer so verwendet und dabei spielt es absolut keine Rolle welche Farbe das Logo hat.
 
@Ben_computer_Ba
Ahja, dann muss ich mal ganz genau überlegen welche Brille ich so aufhabe..... vielleicht kannst du mir dabei helfen. Du scheinst dich da auszukennen.
Meine aktuelle CPU ist von AMD, die GPU von Nvidia, der SoC im Smartphone von Qualcomm, der SoC im neuen Tablet von Samsung, der SoC im andern Tablet von Intel, die CPU und IGP im Notebook von Intel.
Hmm, vielleicht soll ich mir noch ein Macbook oder iPhone kaufen, dass ich dann auch noch ein Apple Fanboy sein kann für die "Brillenverteiler".
:lol:
 
Ben_computer_Ba schrieb:
Wenn man allgemein von "Pascal" redet, werden wohl immernoch die allermeisten an Physik denken, wenn hier im Hardware Foren jemand Pascal schreibt ist es doch logisch das die meisten dann an Nvidias 1000 serie denken.

Ich denke da eher an die Programmiersprache zu der ich mit als erstes Kontakt hatte (nach BASIC) auf 'nem Apple II unter CPM.

So kann jeder etwas anderes mit 'Pascal' verbinden.
 
  • Gefällt mir
Reaktionen: Ben_computer_Ba und gustlegga
Corpus Delicti schrieb:
Ich denke da eher an die Programmiersprache
Eigentlich eher Physik und Chemieunterricht in der Hauptschule. Pascal bzw Hectopascal wurde ja 1984 als Einheit für Druck eingeführt. Das war damals Thema bei uns in der 8. Klasse.
Anfang der 80er war da noch nix mit EDV. Erst dann später in der HTL auf der VAX.
Später kam dann auch noch etwas Cobol dazu. Würde heutzutage keine 2 Zeilen Code mehr zusammen bringen...^^
Aber nen Pascalcompiler hatte ich am C64 auch neben Assembler.
 
gustlegga schrieb:
@Ben_computer_Ba
Ahja, dann muss ich mal ganz genau überlegen welche Brille ich so aufhabe..... vielleicht kannst du mir dabei helfen. Du scheinst dich da auszukennen.
Meine aktuelle CPU ist von AMD, die GPU von Nvidia, der SoC im Smartphone von Qualcomm, der SoC im neuen Tablet von Samsung, der SoC im andern Tablet von Intel, die CPU und IGP im Notebook von Intel.
Hmm, vielleicht soll ich mir noch ein Macbook oder iPhone kaufen, dass ich dann auch noch ein Apple Fanboy sein kann für die "Brillenverteiler".
:lol:
Warum nimmst du dann AMD so in Schutz bzw. Versuchst den Vorteil von neueren Standards und mehr Leistung unter den Tisch zu kehren?
ich habe sicherlich auch eine zu blau/grüne Brille auf und kaufe ausschließlich Intel und Nvidia, selbst wenn AMD Mal etwas mehr Leistung bietet, ich versuche aber nicht die Intel CPUs besser darzustellen als sie sind, AMD war Mal besser und? Warum sollte ich das Leugnen, nur weil ich Intel Stammkunde bin? Ich wurde vor sehr vielen Jahren Mal richtig enttäuscht von AMD und von Intel/Nvidia noch nie, also warum sollte ich wechseln. Ich halte auch Marken treue für etwas gutes, aber das ist dann wieder ein anderes Thema.
 
@Ben_computer_Ba
Seinerzeit als Bulldozer rauskam und ich AMD genauso harsch kritisiert hatte hat man mir die Intel Brille aufgesetzt. Funfact: Auf dem Board steckte bei mir damals ein PenomII X6-1090T.
Ich hab kein Interesse daran mit dir weiter zu diskutieren.
Leute die anderen Brillen aufsetzten ohne zu wissen welche Hardware diese besitzen weil eine andere Meinung nicht in ihr Weltbild passt, können sich gerne wieder melden wenn sie aus dem ComputerBild Kindergarten raus sind und nicht mehr feucht hinter den Ohren um es mal auf gut österreichisch zu sagen.
 
  • Gefällt mir
Reaktionen: Denniss und SonyFriend
pipip schrieb:
Wenn es nur TSMC wäre, müsste ja ARC so ordentlich durchstarten 😝

Ganz andere Baustelle. Ein 11900K von Tsmc wäre sicherlich auch effizienter gewesen.
Ergänzung ()

schmalband schrieb:
Wie kommst Du den darauf, dass Intel einen Fertigungsnachteil hat?
Wer sagt denn das EUV von TSMC besser ist?

Das Niveau unter diesen Diskussionen ist wirklich unterste Schublade.

Ich würde ja darauf antworten aber glaube jeder halbwegs intelligente Mensch weiß das Amd jetzt Jahre vom Vorteil gelebt hat. Aber dein Fachwissen scheint ja deutlich besser zu sein. Bin auf deine Ausführung schon gespannt 🤩
 
RichieMc85 schrieb:
Ganz andere Baustelle. Ein 11900K von Tsmc wäre sicherlich auch effizienter gewesen.
Ergänzung ()



Ich würde ja darauf antworten aber glaube jeder halbwegs intelligente Mensch weiß das Amd jetzt Jahre vom Vorteil gelebt hat. Aber dein Fachwissen scheint ja deutlich besser zu sein. Bin auf deine Ausführung schon gespannt 🤩

Ab welchem IQ gehst Du als behindert durch?

Intel hat einen bestens eingefahrenen und abgeschriebenen DUV Prozess, der wie ein Goldesel die Dollars scheißt, währenddessen AMD nichts hat und für teures Geld bei TSMC einkaufen muss. Dort gibt es angeblich einen überlegen Prozess mit dem man Jahre vorraus ist und schafft es lediglich alle paar Monate sich in Benchmarks zu duellieren.
Wenn EUV so viel besser ist, dann sollten die Miniplifanboys beten, dass Intel nicht auch dahinter kommt. Sonst wird es wieder teuer und Intel kassiert für Consumer CPUs 1000 Euro.

EUV ist anders aber in Summe nicht besser, sonst würde hier nicht Klappspaten wie Du endlos Stoff finden. Und wenn Du halbwegs irgendwas bist, dann verstehst Du das.
 
https://twitter.com/OneRaichu/status/1556288587985227777?s=20&t=1gl7Sn35sE-knFQ9pg4g1Q


Einmal 13900K ohne Limits bei 350W:
FZkIXM_agAAq2ux.jpeg



Und nochmal mit den Standard 253W TDP:
FZkMGHPaMAETdsu.jpeg
 
Zurück
Oben