News 3D V-Cache vs. Raptor Lake: Ryzen 7 7800X3D oder Core i7-13700K, wer ist euer Favorit?

13700.... warum... die Mehrleistung in Anwendungen ist mir wichtig, da ich sie brauche. Alternativ wäre nur ein 7950 bzw. 7950X3D aber sicher kein reiner 8 Kerner mehr.
Das Argument mit dem Stromverbraucht interessiert mich 0. Das Argument mit der Toten Plattform ebenso wenig. Ich rüste alle 2-3 Jahre auf, bei CPUs auch gerne mal alle 4 Jahre im Schnitt. Bis dahin ist jede aktuelle Plattform tot oder insofern veraltet, dass es neue Chipsätze mit neuen Features gibt. Der 7800X3D ist eine flotte Gaming CPU und sparsam dazu. Aber außerhalb der Gamingblase macht er keine sonderlich gute Figur.
 
  • Gefällt mir
Reaktionen: Gsonz
  • Gefällt mir
Reaktionen: UNDERESTIMATED
PrinceVinc schrieb:
Wie ich je erfuhr war das nur gefährliches halbwissen.

Alles hübsch, solang die Vergangenheit für die Zukunft lehrt machst du ja nichts verkehrt mit dem machen.
Ob es richtig war, sieht man eh erst wenn man anfängt. Vom Denken [allein] kommt man wenig weiter im Leben.

Hab eine Firma gegründet, bin nach 4,5 Jahren in Rente statt nach 40. Ups. Jetzt sitz' ich hier und hab nix zu tun, warte auf Ämter und Behörden und muss die Beine still halten, aber zu Hause und täglich meinen Briefkasten begutachten🤦‍♂️ bis 26.04. Es gibt immer 2 Seiten einer Medaille. :D

Wenn ich jetzt losrenne und gründe verfallen alle meine Ansprüche. Geiles System. :freak:
 
UNDERESTIMATED schrieb:
Angenommen auch du gehst jetzt auf 7800x3d und A620, denn es reicht ja.
Dann überlegst dir in 3 Jahren=Joar, 4k wäre geil, also 10800x3d rein, Ach Mist, der hat ja 125W TDP statt 65W, kann das Board nicht.

Schon der 7800X3D hat 120W TDP. Koennte aber natuerlich sein, dass der 10800X3D 170W TDP (230W PPT) hat. Und wenn man ein Board kauft, dass die 230W PPT nicht liefern kann, dann wird die CPU auf dem Board vielleicht ein niedrigeres Power Limit haben. Aber mir zumindest waere das eh lieber.

Ach Mist, SATA SSD ist nicht wenn ich schon 2 nvme im PC habe, schließlich war ich ja geizig und habe eins mit pcie4 und pcie3 genommen, statt mehr Lanes. Was soll's, klemm ich die SSD eben an USB3.2 20Gbit/s, oh wait....

Wer kauft in 3 Jahren eine SATA-SSD? Und wenn ich mit SATA zufrieden bin, warum sollte mich interessieren, ob ich 5Gb/s oder 20Gb/s ueber USB bekomme?

Klar kann eine unvorhergesehene Erweiterung passieren, und man hat dann ein Problem. Meine Erfahrung der letzten 15 Jahre ist aber, dass ich nur sehr wenig nachtraeglich erweitert habe. Drei Grafikkartenwechsel, aber die haben alle nur das gleiche vom Board gebraucht wie die Vorgaenger. Und einmal eine SSD dazu, das brauchte einen SATA-Platz. Dann Board-Wechsel 2015, und kurz darauf habe ich die letzte HDD durch eine SSD ersetzt, und seither keine Erweiterung mehr. Die ganzen fuer teures Geld gekauften Erweiterungsmoeglichkeiten: Verschwendung.

Kann bei anderen anders laufen, aber auf jede Eventualitaet gefasst sein zu wollen fuehrt zu unnoetigen Ausgaben. Und wenn ein unvorhergesehener Fall auftritt und das A620 nicht mehr reicht, kann man dann immer noch auf ein B850er-Board umruesten und steht dann wahrscheinlich besser da als mit einem B650E jetzt.
 
  • Gefällt mir
Reaktionen: mibbio
mae schrieb:
Aber mir zumindest waere das eh lieber.

Sofern die SKU dann überhaupt geht. Das ist ja auch so ein Thema. Ich kann mir nicht vorstellen, dass jemand der üblichen verdächtigen Hersteller [Außer Asrock, denen traue ich alles zu] eine CPU im AGESA/Microcode "frisst" die es dann Hardwareseitig runterdrosselt.

Lieber wäre mir das aber auch. :)
Ergänzung ()

mae schrieb:
Wer kauft in 3 Jahren eine SATA-SSD?

Warum sollte ich meine in 3 Jahren wegwerfen? Und ja, solange 4TB auf SATA so viel kosten wie 2TB bei nvme, zumal da der Platz ja auch beschränkter ist und die selbst bei langer Last kaum drosseln, why not?

Also meine PS4Pro hat sich gefreut, als da die Evo840 eingezogen ist, nun wird Sie zu klein, spiele doch eher mal was ohne Internet dran und wäre über. Warum nicht wieder an den PC klemmen und Linux drauf knallen?
Warum nicht über USB-Case ins Auto verfrachten und evtl. mal etwas Netflix offline drankleben?
Warum nicht in ein stabiles Case und die Fotos der Kamera mal eben sichern?

Bei mir lief es so:

Barton 3000+ FX5600
FX955BE HD4890/->HD7970
4770k HD7970/->GTX980ti
7700k 980ti/->3090
5800x3d 3090

Speichertechnisch so:

1TB HDD
1TB HDD+500GB SSD
500GB SSD/2*3TB HDD
500GB SSD/2*3TB HDD->2TB nvme+4 alte 2,5" Sataplatten zwischen 500GB und 2TB
2TB nvme, Rest im FirmenNAS
2TB nvme, Rest im Cloudstorage als gesicherte Container, gesplittet.

Vor dem 3000+ hatte ich einen SuperNintendo und einen Gameboy Color. ;)
Gerade neulich habe ich meinen abgesägten NH-U12 im Keller gefunden, mal schauen wo der passt.
Bis auf den 955BE steht alles benutzbar unten im Keller, nebst Boards, Ram und GPU's.
Eine 7970/GTS450 und GTX580 wohnen da auch noch, die waren mal Geschenke für Zusammenbau bei Bekannten.

Erinnert mich daran mal aufm Sperrmüll nach alten Gehäusen zu gucken, Danke ;)
 
Zuletzt bearbeitet:
@DiePalme AM4 bekam 5.5 Jahre Support, soviel zu, nach 2-3 Jahren ist alles veraltetet.
Ergänzung ()

Wie sieht es mit den 7800x3D von Mindfactory aus, sind schon welche unterwegs/angekommen?
 
Zuletzt bearbeitet:
@Syrato
Und was hat sich in dieser Zeit bezüglich Chipsätze getan? Das ein Sockel lange verfügbar ist, ist eine Sache, aber bei den Chipsätzen tut sich über die Jahre auch einiges.
 
Syrato schrieb:
@DiePalme AM4 bekam 5.5 Jahre Support, soviel zu, nach 2-3 Jahren ist alles veraltetet.
Ergänzung ()

Wie sieht es mit den 7800x3D von Mindfactory aus, sind schon welche unterwegs/angekommen?
Das kommt drauf an was man braucht. Als X370 Nutzer werde ich sicherlich keine 300€ mehr für einen 5800X3D ausgeben weil der Unterbau mit PCIe 3.0 einfach nicht nicht mehr passt.
 
  • Gefällt mir
Reaktionen: DiePalme
Dass es mit der Effizienz unter Vollast(!) beim 5800X3D besser aussieht als beim 13700K ist mir klar.

Ich frage mich, wie das bei 75 fps aussieht. Wie skaliert die Effizienz nach unten?

Ich komme mit meinem 9700K in Spielen selten über 50W, selbst in Anno - und im Idle/Office döst die CPU bei im Schnitt schlappen 18W rum. Ist der 5800X3D quasi dauerhaft auf 60W?
 
murchad schrieb:
Weiss nicht was du arbeitest, aber apple ist immer noch weit hinter intel und amd. Nur beim Stromverbrauch ist Apple besser.
bei mir foto / videoproduktionen. da wüsste ich nicht dass intel und amd performancetechnisch mit lautstärke (null, hust) und energieeffizienz vor apple sind, und im workflow schon ganz weit hinten.
 
  • Gefällt mir
Reaktionen: Gewuerzwiesel, Kalsarikännit und UNDERESTIMATED
murchad schrieb:
Weiss nicht was du arbeitest, aber apple ist immer noch weit hinter intel und amd. Nur beim Stromverbrauch ist Apple besser.
Ich weiß nicht wo du deine Informationen her hast, aber die M1/M2 sind ziemlich performant und in Machine Learning Umfeld in dem ich arbeite kann man bedenkenlos zu einem Mac greifen, mittlerweile sind auch die beliebtesten Bibliotheken nativ für Apple Silicon verfügbar.

Bin seit über einem Jahr auf einem MacBook Pro und bereue den Wechsel nicht.
 
  • Gefällt mir
Reaktionen: lazsniper
@murchad @Gewuerzwiesel
Ich bin ja bei weitem kein Apple Freund, eher das Gegenteil. Aber das die M1 und M2 sehr performant sind, ist doch hinlänglich bekannt. Das sie Intel und AMD im Zusammenspiel mit IOS bzw. Windows auf ähnlichen Niveau sind im Consumer High End Bereich, ist auch hinlänglich bekannt.
Apple verliert nur, wenn es an den Punkt kommt, an dem man richtig viel Performance in Form von vielen CPU Kernen oder GPU Power geht. Aber dann bist du auch bei Intel und AMD auf Serverplattformen unterwegs um Apple wirklich klar zu schlagen. Da reden wir nicht mehr über Hardware die im heimischen PC steckt.
 
UNDERESTIMATED schrieb:
Ich kann mir nicht vorstellen, dass jemand der üblichen verdächtigen Hersteller [Außer Asrock, denen traue ich alles zu] eine CPU im AGESA/Microcode "frisst" die es dann Hardwareseitig runterdrosselt.

Zumindest war davon im Zusammenhang mit Boards mit weniger fett ausgestatteten VRMs die Rede. Sollte inzwischen auch recht einfach sein, die Boards koennen ja das Power Limit aendern. Jedenfalls habe ich von keinen Faellen gelesen, wo eine 105W TDP-CPU auf einem 300er-Chipsatz-Board nicht lief, obwohl die erste Ryzen-Generation nur 95W TDP hatte (und ein entsprechendes Power Limit). Ob die Boards ein niedrigeres Power Limit gesetzt haben oder einfach die 142W zur Verfuegung stellten, weiss ich nicht.

Und ja, solange 4TB auf SATA so viel kosten wie 2TB bei nvme

Vielleicht solltest Du da zu 4TB NVME greifen. Zumindest zeigt mir Geizhals zwischen der billigsten 4GB SATA und der billigsten 4GB NVME nur 10% Preisunterschied an.

Aber ja, beim Massenspeicher und beim RAM sollte man durchaus mit Erweiterungswuenschen rechnen (auch wenn ich in den letzten 15 Jahren mit dem RAM ausgekommen bin, das ich gleich am Anfang in das Board gesteckt habe). Zur Not gibt's auch PCIe-Karten mit SATA-Ports oder NVME-Slots (beides zusammen derzeit leider nur so teuer, dass man wohl lieber gleich ein neues Board kauft, aber vielleicht aendert sich das in der Zukunft).
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
mae schrieb:
Vielleicht solltest Du da zu 4TB NVME greifen.

Joar, wenn da halt noch Platz wäre. Ich spiele halt immer mit dem Modularitätsgedanken. Wie bekomme ich die nvme denn in 5 Jahren in meine PS4 Pro, oder PS3, die beide jailbroken sind und Unix recht ausreichend können für die 2 Witze, die ich dann mache?
 
DiePalme schrieb:
Apple verliert nur, wenn es an den Punkt kommt, an dem man richtig viel Performance in Form von vielen CPU Kernen oder GPU Power geht.

Apple verliert vor allem, wenn es um mehr als ein Minimum an RAM geht (und wenn's um ECC-RAM geht, sowieso). Und bei der Erweiterbarkeit. Und wenn man den Preis vergleicht, erst recht.
 
Ich musste im Dezember schnell zuschlagen, da auf einmal Netzteil, Mainboard und Grafikkarte ausgefallen sind - die Grafikkarte hat beim Testen auf einen alten Reserve-System einen Lichtbogen erzeugt...
Da ist es dann ein der 5800X3D geworden. Aktuell hätte ich wohl den 7950X3D genommen. Vorher hatte ich einen Core i7

Für mich sprechen für die AMD-CPUs die Energieeffizienz in Relation zur Performance - und ich brauche viel Leistung nur in Spielen, der Rest an Aufgaben würde keine schnelle CPU rechtfertigen.

Da ich zudem immer zwei Monitore an der Strippe habe, ist der Idle-Verbrauch auch überzeugend.
 
Gewuerzwiesel schrieb:

Danke für den Link, leider wird bei der Effizienz nicht die Berechnungsgrundlage angegeben (Bildwiederholrate, Leistungsaufnahme). Zumal die Effizienz normalerweise in FPS/W angegeben wird und nicht umgekehrt.

So lese ich ab, dass mein 9700K in der Effizienz zwischen dem 13700K und dem 7900X liegt.

Da müssen sich vermutlich auch andere fragen, ob sich ein Upgrade wirklich (schon) lohnt, wenn man nicht mit einer 4090 am Anschlag spielt.
 
mibbio schrieb:
Deren Aussage bei der Einführung von AM4 war nur, dass sie a) den Sockel bis 2020 unterstützen, nicht mehr und nicht weniger. Das bedeutet im Prinzip nur, dass alle CPUs, die sie bis 2020 auf den Markt bringen, diesen Sockel nutzen. Es bedeutet aber nicht, a) dass jede CPU mit jedem AM4 Baord funktioniert.
Ich habe mal a) und b) im Zitat ergänzt.

Diese Erläuterung war (auch) bei der "damaligen" Diskussion immer "mein" (einziger) Trigger:

Wenn aus a) nicht zwangsläufig b) folgt, ist die Aussage a) für mich als Kunden hinsichtlich einer langen Generationsnutzung irrelevant (einzige Ausnahme: CPU-Kühler Kompatibilität). Ich habe die "offizielle" Aussage (das, was darüber in den Medien, als auch hier auf CB kommuniziert wurde) dazu nämlich genauso verstanden und wüsste auch ehrlicherweise nicht, warum ich als potentieller Käufer daraus etwas anderes ableiten sollte.

mibbio schrieb:
Auch dass Zen3 nur mit dem 500er (und glaube noch 400er) Chipsatz nutzbar ist (300er Chipsatz wurde ja am Ende auch noch freigegeben), widerspricht der Aussage auch nicht, denn der nutzt ja den Sockel AM4.
Formal natürlich nicht. In der Praxis schon, siehe oben.

Sofern AMD tatsächlich nur a) gemeint hatte (ich glaube, das war in 2017), war (vor Zen3) ausreichend Zeit, derartige Fehlinterpretationen (oder -übersetzungen) frühzeitig und eindeutig zu klären bzw. mit weiteren technischen Vorbehalten zu verknüpfen. Das unterblieb aber - eben weil die langfristige Sockelkompatibilität sich mittlerweile zu einem in den Communities geteilten, zentralen Pro-Aspekt und damit Kaufargument für die RyZens entwickelt hatte.

Und diese ausbleibende frühzeitige Korrektur/Klarstellung muss ich AMD auch heute noch zu recht ankreiden lassen. Zumindest ist dies meine subjektive Sicht als ansonsten ausgesprochen zufriedener AMD-Kunde.
 
Zuletzt bearbeitet: (Formulierung)
  • Gefällt mir
Reaktionen: Klever
YamahaFan schrieb:
Ist doch bekannt das es jahrelang keine bezahlbaren 6kerner gab.

Ab 2011/12 konnte man einen Sechskerner von Intel mit Board für um die 600€ kaufen (und da hatte man sogar Quad-Channel-RAM-Anbindung).

Wenn das für dich nicht bezahlbar ist, okay. Ich sehe das anders.

Dass das im Dorf bei dir oder wo auch immer angeblich bekannt ist, ändert nichts an den Fakten.

Den 5820k z.B. gab es wirklich lange für etwa 375€ rum. Mit Board lag man da oft nur 50-70€ über der stärksten Mainstream-CPU (4770k bzw. 4790k) mit Mittelklasse-Board. Trotzdem haben viele nicht auf ihn gesetzt, da die Plattform eben auch Nachteile hatte, der 5820k eigentlich standardmäßig übertaktet werden musste und ein etwas höher taktender Vierkerner eigentlich in Spielen immer vorne lag.
 
Zuletzt bearbeitet:
Zurück
Oben