News 7800X3D vs. 13700K: Wie groß ist der Unterschied beim Verbrauch in Watt wirklich?

NOTaNerd schrieb:
Das der 3DV im Gaming sinnvoller ist als die E-Cores.
Bestimmt, aber der 13700K hat zum Glück zusätzlich noch 8 P-Cores und kommt somit auf 16 Kerne und entsprechend 50% mehr Leistung laut CB.
Da würden mich die mickrigen 3% im Gesamtrating weniger interessieren, wenn man wie in meinem Fall (oder jedem anderen Fall bis vor wenigen Tagen) auch noch mehr dafür bezahlen hätte sollen
Ergänzung ()

FatalFury schrieb:
Niemand spricht hier vom Limit. Das erfindest du da einfach dazu.
Du widersprichst seiner Aussage, dass die allermeisten sich zu 90% der Zeit im GPU Limit befinden oder was genau ist deine Aussage?
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Hast du dazu einen Test?
Gab leider keine Website, die ich auf die schnelle finden konnte, die das überhaupt im Parkour hat.
Sind halt meistens keine großen Titel, die massiv profitieren.
Wurde viel in der Tarkov Community getestet.
Reddit YT.
Tarkov ist extrem CPU lastig und profitiert von viel Cache weil die unoptimierte Unity Engine mit großen Drawcalls arbeitet.

Es ist innerhalb der Tarkov Community bekannt das die besten CPUs zum Gaming in EFT die AMD X3Ds sind.

Ich selbst bin von einem 5800X auf einen 5800X3D gewechselt was 20 FPS mehr in den 1% Lows und 40 FPS in Avg gebracht hat.

Selbst ein 13900K erreicht schlechtere Werte wie ein 5800X3D.

EFT auf den derzeit von den meisten EFT Spielern genutzten Settings selbst in 4k noch CPU limited.

Abseits der Mainstream Games wird wenig getestet. Ausser von den Communitys selbst und deren Erfahrungen. Da Tarkov bereits seit 2016 in der Entwicklung ist gibt es hier genügend Erfahrungswerte/Berichte.

Das Video von einem deutschen EFT Content Creator der auch in der IT Branche arbeitet ist denke ich am brauchbarsten. Er vergleicht seinen "alten" 7900X gegen den 7900X3D.
Die Unterschiede kann man durchaus erkennen.
Und es ist noch nicht mal ein 7800X3D oder 7950X3D mit 8 Kernen 3DV Cache.

Ob dieser Vorteil immer so bleibt muss die Zeit der Entwicklung des Games zeigen.

 
So kommt Pizza! dann auch zu dem Schluss, dass je nach Anwendungsprofil der Core i7-13700K die sparsamere CPU ist, sofern ein größerer Anteil Teillast, wie z.B. Office und YouTube, in die Gesamtwertung mit einfließt. Je mehr sich der Fokus Richtung CPU-Last in Spielen verschiebt, um so mehr trumpft AMDs X3D auf. Schlussendlich können aber beide CPUs punkten und geben ein gutes Bild ab.

Jedem Test den ich bisher gelesen habe, kann ich entnehmen, dass die AMD-CPU im Vergleich zur herangezogenen Intel-CPU unter Teillast die sparsamere CPU ist - wenn auch nur mit kleinem Abstand. Wie ergibt sich dann ein Fazit, indem der i7 plötzlich die sparsamere CPU sein soll, wenn ein großer Anteil Teillast in die Gesamtwertung mit einfließt? Ja, der Intel ist im Idle sparsamer, davon ist im zitierten Text jedoch nicht die Rede. Hier wird von Teillast geredet. Demnach erschließt es sich mir nicht, wie Intel in der Gesamtwertung des Verbrauchs plötzlich die Nase vorn haben soll, wenn Teillast einen großen Anteil einnimmt. Ich will den i7 keineswegs schlecht machen, der Intel ist eine gute CPU. Aber das hier "getestete" ist für mich null Aussagekräftig. Nach dem Motto "viel geredet, aber nichts gesagt".

Meiner Meinung würde das oben genannte Zitat Sinn ergeben, wenn man auf gut deutsch sagt, wenn Idle mit sehr großem Anteil in die Gesamtwertung mit einfließt, ist der Intel die sparsamere CPU. :rolleyes: Aber das ist für mich bloße Schönrederei, auch wenn der Intel, wie schon erwähnt, keine schlechte CPU ist.
 
Zuletzt bearbeitet:
NOTaNerd schrieb:
Wurde viel in der Tarkov Community getestet.
Wie schon vorher für den Flight Simulator etc. - für Escape from Tarkov und seine Spielerbase schön und gut.
Für die Masse dennoch nicht wirklich relevant, die Spiele kann man +- an einer Hand abzählen und allesamt sind keine „Mainstream“ Titel wie du schon schreibst.
Landen diese in einem Testparkour haben diese diese massive Auswirkungen auf den Schnitt, auch wenn nur wenige diese Spiele spielen.
Solche extremen Ausreiser gab es vorher idR. nicht - sprich man muss schauen ob man eines dieser Spiele hauptsächlich (!) spielt, ansonsten lohnt sich der Griff zum 7800X3D nicht unbedingt - allein das Argument 8 vs 16 Kerne bei bis vor Kurzem höherem Preis reicht hierfür.
Ergänzung ()

z-R-o- schrieb:
Hier ein Auszug aus dem CB-Test.
Anhang anzeigen 1405004
Hier nochmal das von dir gepostete Bild, wurde ja entfernt :rolleyes:
IMG_1038.jpeg


Hier wird ein Kern zu 100% (!) ausgelastet - was hat das bspw. mit Homeoffice per Citrix Verbindung zu tun? Das wäre schon eher eine realistische Teillast, als Rendering auf einem Kern, welcher dazu durchgängig 100% ausgelastet wird :rolleyes:

Keine Ahnung warum CB so testet, aber realistisch ist dieses Szenario im Office Alltag natürlich nicht.

Der 7900X3D, der der Rohleistung der 13700K recht nahe kommt liegt übrigens im Verbrauch noch höher.
Einen 8-Kerner mit einem 16-Kerner zu vergleichen macht da sowieso schon nicht unbedingt Sinn - innerhalb der Ryzen 7000 Reihe sieht man ja auch, dass der Stromverbrauch mit der Kernanzahl steigt.
 
Zuletzt bearbeitet:
bei intel kann man ja einfach die e kerne ausschalten und dann uv mit nem bissl geringeren takt kombinieren, um direkt mal 50% weniger zu verbrauchen. geht das bei den x3d immernoch nicht, einfach auf zB 1v laufen zu lassen?
 
till69 schrieb:
AMD User haben anscheinend alle eine 4090 und spielen in 720p ohne FPS/Sync Limit ;)

Und:
Genauso haben amd Fanboys vor Ryzen argumentiert
😉
 
z-R-o- schrieb:
Jedem Test den ich bisher gelesen habe, kann ich entnehmen, dass die AMD-CPU im Vergleich zur herangezogenen Intel-CPU unter Teillast die sparsamere CPU ist - wenn auch nur mit kleinem Abstand. Wie ergibt sich dann ein Fazit, indem der i7 plötzlich die sparsamere CPU sein soll, wenn ein großer Anteil Teillast in die Gesamtwertung mit einfließt? Ja, der Intel ist im Idle sparsamer, davon ist im zitierten Text jedoch nicht die Rede. Hier wird von Teillast geredet. Demnach erschließt es sich mir nicht, wie Intel in der Gesamtwertung des Verbrauchs plötzlich die Nase vorn haben soll, wenn Teillast einen großen Anteil einnimmt. Ich will den i7 keineswegs schlecht machen, der Intel ist eine gute CPU. Aber das hier "getestete" ist für mich null Aussagekräftig. Nach dem Motto "viel geredet, aber nichts gesagt".

Meiner Meinung würde das oben genannte Zitat Sinn ergeben, wenn man auf gut deutsch sagt, wenn Idle mit sehr großem Anteil in die Gesamtwertung mit einfließt, ist der Intel die sparsamere CPU. :rolleyes: Aber das ist für mich bloße Schönrederei, auch wenn der Intel, wie schon erwähnt, keine schlechte CPU ist.
Jetzt hast du das Bild, das eben doch nicht zu deiner Aussage passt, extra entfernt :p

Hier nochmal:
IMG_1038.jpeg

Nochmal - 1 Kern 100% ist nicht dasselbe wie der realistische Homeoffice Alltag mit nahezu Idle (meistens Remoteverbindung).

Und schaut man nach dem 7900X3D, der schon eher der Leistung eines 13700K entspricht, liegt dieser in dem von dir geposteten CB Test im Verbrauch sogar oberhalb des 13700K und 13900K!

Aber nochmal - solange man nicht 24/7 zockt fallen diese 0,008€/Stunde Differenz einfach nicht auf. Die 0,006€/Stunde im Idle genauso wenig.
 
Hier werden ja idle Verbrauch der CPUs abgegeben, Ich halte nichts von "die CPU allein verbraucht 5 Watt im idle "
mir ist der idle Verbrauch des Systems wichtiger.

Intel idle nur CPU 5 Watt, Gesamtsystem 25 Watt,

AMD idle nur CPU 12 Watt,
Gesamtsystem 27 Watt..
nur als Beispiel.
 
  • Gefällt mir
Reaktionen: FatalFury
MalWiederIch schrieb:
Jetzt hast du das Bild, das eben doch nicht zu deiner Aussage passt, extra entfernt :p
Ja, weil du mich darauf hingewiesen hast, dass ich mich da zu sehr auf den nicht ganz passenden CB Test gelehnt habe.
Danke dafür. Ich kann mir auch eingestehen, dass ich falsch liege ;-)
Habe ich dir aber auch schon als PN geschickt. Brauchst jetzt also nicht den Überraschten spielen.

dergraf1 schrieb:
Hier werden ja idle Verbrauch der CPUs abgegeben, Ich halte nichts von "die CPU allein verbraucht 5 Watt im idle "
mir ist der idle Verbrauch des Systems wichtiger.

Intel idle nur CPU 5 Watt, Gesamtsystem 25 Watt,

AMD idle nur CPU 12 Watt,
Gesamtsystem 27 Watt..
nur als Beispiel.
Jedem das Seine. Für mich ist der Idle-Verbauch nicht sonderlich wichtig. Wenn ich nicht am PC bin, bzw. nicht daran arbeite oder spiele ist dieser aus oder unter Energiesparen.
 
z-R-o- schrieb:
Ja, weil du mich darauf hingewiesen hast, dass ich mich da zu sehr auf den nicht ganz passenden CB Test gelehnt habe.
Danke dafür. Ich kann mir auch eingestehen, dass ich falsch liege ;-)
Habe ich dir aber auch schon als PN geschickt. Brauchst jetzt also nicht den Überraschten spielen.
Jetzt steht deine Aussage nur ganz haltlos da und das Bild davor hat eher widerlegt was du immer noch da stehen hast.
Aber gerne kannst du uns nochmal belegen, wo Intel 0,006€/Stunde mehr verbraucht :rolleyes:

Für mich zeigt der Test eher auf, um welche sinnlosen Unterschiede im Stromverbrauch sich hier manche den Kopf zerbrechen, 0,00x Euro die Stunde…

50% Mehrleistung bzw. 8 vs 16 Kerne wird dann auf der anderen Seite kleingeredet :p

z-R-o- schrieb:
Jedem das Seine. Für mich ist der Idle-Verbauch nicht sonderlich wichtig. Wenn ich nicht am PC bin, bzw. nicht daran arbeite oder spiele ist dieser aus oder unter Energiesparen.
Eben, und bei „Teillast“/arbeiten ist der 13700K ja wohl effizienter als der 7900X3D mit ähnlicher Leistung:

Alles darunter liegt beim Verbrauch nah am Idle.
Wenn einem schon etwas an dem Bruchteil von einem Cent Differenz liegt …

Auf Diskussionen per PN habe ich grundsätzlich keine Lust, wurde auch nicht gelesen wie du sehen kannst.
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Du widersprichst seiner Aussage, dass die allermeisten sich zu 90% der Zeit im GPU Limit befinden oder was genau ist deine Aussage?
Was? Ich spreche seine Aussage gar nicht an.
Biste jetzt der Intel Rambo, der es mit allen aufnimmt?

Ich beziehe mich darauf:
Je mehr sich der Fokus Richtung CPU-Last in Spielen verschiebt, um so mehr trumpft AMDs X3D auf.
 
FatalFury schrieb:
Was? Ich spreche seine Aussage gar nicht an.
Biste jetzt der Intel Rambo, der es mit allen aufnimmt?
Wie jung(-geblieben) muss man denn sein um so etwas zu verfassen :p
Ich habe hier beide Marken, halte mich jedoch nicht an einer lächerlichen Differenz von 0,008€ je Stunde auf - denn jeder der seine Stromrechnung selbst bezahlt weiß genau, dass das nicht ansatzweise relevant ist.

Und inwiefern ist ein GPU Limit „hinzugedichtet“ wie du behauptet hast? Das liegt wie der andere schon zu dir meinte zu 90% der Zeit, wenn nicht mehr an.

„Intel Rambo“ nur weil man sich nicht für die winzige Differenz im Stromverbrauch interessiert, die es nicht einmal in den Centbereich schafft :rolleyes:
 
Zuletzt bearbeitet:
@MalWiederIch

Kann ich bestätigen. Habe zwar amd aber nun ägere ich mich nicht mehr. Nach dem ich nun weiß was ich im idle noch gespart hätte wenn ich Intel Gewählt hätte. Da braucht Intel dann bei 24 Stunden idle mit den Anzügen bei last so 16 € im gesamten Jahr wo ich gespart hätte wenn der PC über durchgehend gelaufen wäre. Bei last ist der AMD dann 24 € sparsamer. Macht dann 8 € gesamt sparsamer als bei Intel. Und warum weil Intel unter last sehr viel mehr frisst als AMD. Könnten wenn man es genau nimmst sogar 10 € Im Jahr sein. Das holt Intel also nicht mehr ein, auch nicht durch idle Stromverbauch. Alles geht halt dann doch nicht. Ist immer ne Sache des gesamten zu sehen. Alles andere wäre wohl zu einseitig. Wie ich so finde.
 
latiose88 schrieb:
@MalWiederIch

Kann ich bestätigen. Habe zwar amd aber nun ägere ich mich nicht mehr. Nach dem ich nun weiß was ich im idle noch gespart hätte wenn ich Intel Gewählt hätte. Da braucht Intel dann bei 24 Stunden idle mit den Anzügen bei last so 16 € im gesamten Jahr wo ich gespart hätte wenn der PC über durchgehend gelaufen wäre. Bei last ist der AMD dann 24 € sparsamer.
Auf was beziehst du diese Mehrkosten? Bei 24/7 Gaming? Wer macht das? :p

Im Idle sind es bei in DE aktuellen 0,28€/kWh 0,008€ in Spielen je Stunde Mehrkosten für Intel und 0,006€ je Stunde Mehrkosten bei im Idle Mehrkosten bei AMD.

Beides recht irrelevant.
Aber um auf deine Beträge zu kommen muss man 3.000 Stunden im Jahr zocken oder knapp 60 Stunden die Woche … das macht nahezu niemand.
 
Danke für die Mühen. Hab nen 9700K und spiele mit 75fps, dann muss ich davon ausgehen, dass ich bei einem CPU-Upgrade für die gleiche Leistung in Spielen als auch im Desktopbetrieb mehr Energie benötige? Irgendwie absurd.
 
Wer sein PC nur für Gaming und Office nutzt und die beste Gaming CPU haben will greift zum 7800x3D.
Ich stehe auch kurz vor der Entscheidung.
Mag sein das ein 13700k nah ran kommt aber wer wirklich nur zockt braucht die Multicore Mehrleistung einfach nicht.

Finde den Test bei Techpowerup auch ziemlich gut:

https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/

relative-performance-games-1920-1080.png
power-games.png
 
  • Gefällt mir
Reaktionen: MiroPoch
@MalWiederIch ich kam auf den Betrag dank 22 Stunden idle bzw 24 Stunden idle jeden Tag bis es das ganze Jahr ist. Also ein Jahr idle stromverbrauch. Das ist nur therroetisch. Habe ursprünglich zuerst 24 Stunden gerechnet. Da ist Intel um 16 € im Jahr sparsamer. Kaum rechnet man aber 2 Stunden täglich mit vollast bei der CPU Seite bis das Jahr herum ist dann ist AMD um rund 24 € sparsamer weil Intel da 48 € mehr Strom verbraucht. Mit dem Abzug der 16 € durch idle ergibt das ein um die 10 € mehr Strom auf Intel Seite.
Ja ich weiß sowas macht kaum einer aber ich passe doch gut in genau diese Rechnung ein. Habe 2 Stunden täglich 100 % vollast laufen also Intel säuft da mal 350 Watt wenn ich diese system hätte und AMD ist dann auf 142 Watt gedrosselt mit den 5 % Verlusten. Intel würde wenn ich es drosseln würde einfach mal um einiges länger brauchen. Darum wird das auch nicht in die Rechnung landen wenn die Hälfte sparsamer gleich 40 % oder 50 % länger braucht dann spart man auf Intel Seite nix. Dann würde halt die idle Zeit weniger sein und dann sähe es noch schlechter auf Intels Seite aus.

Und ja ich mache das wirklich 22 Stunden idle und 2 Stunden vollast. So einer bin ich wirklich. Es gibt Tage da habe ich den PC ne ganze Woche durchgehend an. Kam sogar mal vor das der PC 2 Wochen am Stück durch gelaufen war. Und last gab es wie gesagt diese 2 Stunden am Stück. Ich gebe dem schon so viel das die CPU richtig was zum ackern hat. Keine Gnade für die CPU.

Könnte auch mehr vorbereiten aber 5 Stunden vollast auf 100 % ist halt doch hart. Der Raum wärmt sich dann etwas auf wenn ich das mache. Wenn man schläft ist es halt uncool wenn der dann der Lüfter so rauscht bei last. Das merke ich sehr gut. Darum mache ich keine 5 Stunden am Stück vollast.

Dann würde Intel erst recht kein Land mehr sehen. Denn 5x350 Watt oder wenn gedrosselt dann halt 8 oder 9x 140 Watt kann man sich ja aussuchen was sparsamer wäre. Für Intel bringt das dennoch nix. Und nein so lange will ich auf keinen Fall Videos umwandeln. Das ist doch arg hart. Und ja ich weiß die CPU von Intel verliert in diesem workload einfach unverhältnismäßig mäßig viel Leistung. Bei AMD ist das aber nicht der Fall.

Hier scheint auf Intel Ebene irgendwas nicht zu stimmen.
 
Philste schrieb:
Wieso? Du spielst permanent im CPU Limit? Bei mindestens 90% der Spieler sollte eigentlich eher die GPU limitieren.
Spiel mal spiele wie Anno. Da langweilt sich die GPU selbst in 4K.
 
Vergleiche unter Volllast sind bei den aktuellen Generationen einfach wenig sinnvoll, weil Intel bei ihren Top-CPUs nunmal den Ansatz gewählt hat, die CPU immer koste es was wolle bis zum eingestellten Power Limit aufdrehen zu lassen. Und die Boardpartner da in die gleiche Richtung gehen.

Mein 12900k verbraucht erfahrungsgemäß unter Volllast einfach immer das, was als Power Limit eingestellt wird, egal ob's jetzt 70W, 95W, 125W oder 241W sind. Bei erlaubten 300W geht er auch auf 300W, um dann sofort zu drosseln weil's damit zu heiß wird. Die CPUs kennen beim Boosten eben im Wesentlichen nur noch zwei Parameter, thermal target und power target. Und es wird knallhart aufgedreht bis eins davon erreicht ist.

Das bedeutet aber dann, dass es sowas wie "Die Effizienz des 12900k/13700k" einfach nicht gibt. Der Leistungsverbrauch und die Effizienz der CPU hängt nur davon ab, was im BIOS des Nutzers eingestellt ist. Oder um mal wieder einen Autovergleich zu bemühen: über den Spritverbrauch entscheidet in erster Linie das Gewicht des Fußes auf dem Gaspedal.

Ich würde sagen, der wesentliche Unterschied ist, dass AMD das in ihrer Firmware halt anders machen. Die CPU hört irgendwann auf, und dreht nicht beliebig hoch, wenn der Nutzer das Power Limit in astronomische Höhen schraubt. Intel tut das halt.
Dann reden wir aber von einer anderen Art Vergleich. Dann geht es nicht mehr um die Effizienz und den Leistungsverbrauch der jeweiligen Architektur, denn die richtet sich nach Belieben danach, wie der Nutzer sie betreibt. Sondern es geht nur darum, was die Hersteller als Default-Settings für die "out of the box"-Experience gewählt haben.

Und bei Letzterem kann man dann natürlich sagen, dass in dem hier diskutierten Vergleich die Intel-CPU das Nachsehen hat. Praktisch jeder Boardhersteller stellt bei den k-CPUs die Power Limits auf irre Werte. Nutzer, die da nicht rangehen und das auf Default lassen, betreiben die CPUs einfach mit einer miserablen Effizienz. Das kann man Intel+Partnern ankreiden.
 
Zurück
Oben