Was für einen Rechner? AMD oder Intel ?

Ja aber Cyber hat schon auch nicht unrecht.

Als du den Verbrauch inkl. Videos erstmals thematisiert hast, war da nur der 7900X3D mit drin.
Nachdem er dich darauf aufmerksam macht, postest du den reinen idle-Verbrauch, einer ganz anderen Seite, auch für den 7800X3D.

Du bist weder mit dir selber konsistent, indem zu idle- und Video-Verbrauch verschiedener CPUs mischt, noch bist du in der Quelle konsequent, weil beide Tests von anderen Seiten stammen. Also sind auch die Konfigs unterschiedlich.

Solange man sich wenigstens nur immer auf die selbe Quelle beruft, ist das ok. Sobald das Durchmischen anfängt, verliert das alles seine Relevanz.
Weil dann kann man auch gleich noch CB mit in den Ring werfen, wo der Idle-Verbrauch nochmals anders gemessen wird:
https://www.computerbase.de/2023-04...#abschnitt_leistungsaufnahme_im_leerlauf_idle

Da ist dann auch plötzlich Intel viel höher und der Unterschied liegt bei 10w und weniger. Und nun?
In der Teillast steht dann der 78X3D sogar besser da als Intel. Und was lernen wir daraus?
Vor allem dass jede Quelle anders testet und man daher zwar gerne alle möglichen in Betracht ziehen soll, aber letztendlich nicht Cherrypicking betreiben darf.

Also hätten wir dem TE auch gleich von Beginn weg auf den CB Bench verweisen können mit dem Hinweis "da, guck, AMD effizienter" - aber vllt. wärst du dann dennoch mit einer anderen Quelle um die Ecke gekommen, wo die Graphen ganz anders aussehen.
Kann man machen. Muss man aber nicht. Aber ein Trend ist da definitiv zu erkennen, sag selbst ich.
 
kawanet schrieb:
Sprich, die Kosten, sei es die Anschaffung oder den Verbrauch betreffend, dürften dem TE am A*** vorbeigehen.
Aber da es nur ein Beiwerk ist das die CPU beim zocken so effizient ist aber das wirklich Argument dann auch die Gaming Leistung ist kann das auch erwähnt werden. Ein zusätzlicher Bonus zu dem ohnehin super Benchmark Zahlen


Captain Mumpitz schrieb:
Also hätten wir dem TE auch gleich von Begin n weg auf den CB Bench verweisen können mit dem Hinweis "da, guck, AMD effizienter" - aber vllt. wärst du dann dennoch mit einer anderen Quelle um die Ecke gekommen, wo die Graphen ganz anders aussehen.
Kann man machen. Muss man aber nicht. Aber ein Trend ist da definitiv zu erkennen, sag selbst ich.
Nun wenn Du dem guten Till69 mit Tes tvon CB kommst heißt es doch nur wieder das die nicht richtig messen. So wie es bei allen anderen Test auch immer heisst von Ihm die man aufzeigt. Und natürlich das Argument auf persönlicher Schiene das man sowieo Ahnungslos ist. Nur er, der Mann mit dem Messgerät, weiß die wirklichen Fakten.

@ Till69:

Da Du ja so gerne andere zitiert um mich zb schlecht aussehen zu lassen möchte Ich da auch gerne was beitragen um zu zeigen das Du immer nur die gleiche Leier bringst und der totale Fan Boy bist und alles was man auch aufführt an Argumenten immer wegwischt!

H1ldegunst schrieb:
Erzähl doch nicht so was falsches.
Das versteht (fast) jeder, nur reitet außer dir niemand derat penetrant auf ein paar W Unterschied herum und macht da in jedem Thread derart ein Fass auf.

Ich hoffe, du kriegst wenigstens irgendwas von Intel für deine Mission. Das hat ja mittlerweile etwas zwanghaftes...
#######################################################
Deathangel008 schrieb:
saug dir doch bitte keine argumente für Intel/gegen AMD aus den fingern.
#######################################################
Deathangel008 schrieb:
@till69:
dieser "vorteil" ist bei dem anwendungsszenario auch nur theoretisch. aber lieber nen größeren theoretischen vorteil als nen kleineren theoretischen vorteil, was?

bei dir erwarte ich außer "Intel ist besser" nichts mehr.
bei dir erwarte ich außer "Intel ist besser" nichts mehr.
#######################################################

rg88 schrieb:
...... Schlecht ist nur diese Masche die du hier abziehst und Werte hernimmst, die nicht der Realität entsprechen bzw. nicht annähernd den Werksspezifaktionen.
#######################################################
rg88 schrieb:
Du nimmst ein Diagramm von einem 7900X3D her, wenn es um einen 7800X3D geht, welcher ganz andere Verbrauchsdaten hat. Holst dir von einer anderen Seite EIN Testergebnis, welches sich nicht mit den Tests anderer Seiten deckt, weil es dir gerade so in den Kram passt und deine weiteren Links widersprechen dir auch total, wie hier zB:
https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/23.html
#######################################################
rg88 schrieb:
du kommst jetzt mit absoluten Zahlen daher, wo es um einen schwankenden Verbrauch geht durch schwankende Last? Deine Werte gerade sagen absolut nichts aus in einem Spieleszenario.
Und zudem genau lesen:

Also Zitate nicht aus dem Zusammenhang reißen. Ich bin keine Benchmarkseite, bei der man sich nur das rauspickt, was man gerade haben will und alles andere ausblendet
Ergänzung ()


Dachte du misst an der Steckdose? Jetzt misst du plötzlich mit Software?
#######################################################
rg88 schrieb:
Du glaubst diesem Typen (oder wie du wohl meinst "Experten") wirklich, was er da von sich gibt? Trotz 4 Seiten, wo verschiedene Leuten seine teilweise haarsträubenden Storys zerlegt haben?
Du merkst nichtmal, dass du ihm zig Fragen gestellt hast und er davon nur einen Bruchteil beantwortet hat und den Rest einfach ignoriert hat. Er hat sich wieder mal nur den Teil rausgesucht, der ihm gerade genehm ist und den Rest ignoriert. Und das zieht sich durch alle seine "Beratungen"

Wenn du das echt nicht wahrhaben willst... ne, dann fällt mir nichts mehr ein. Das ist einfach sowas von offensichtlich, aber irgendwie fallen immer wieder leute drauf rein
Ergänzung ()


Klar, wenn du gern erfundene und nicht belegte Zahlen von till69 mehr glauben schenkst, als den Testberichten von seriösen Magazinen/Medien
Till69 ist natürlich hier viel vertrauenswerter, weil er ja selbst testet. Wie auch immer er das macht. Was auch immer er da macht. Und was er überhaupt macht. Anyway. Wieso seriösen Test trauen, wenn man auch einfach blind Till69 vertrauen kann

rg88 schrieb:
Ich muss aber halt dann auch was sagen und kann es nicht ignorieren, wenn einer meint mit langer penetranter Wiederholung von falschen Daten die Diskussion zu "gewinnen".
Weil das ist eben auch nicht der Gedanke und Sinn eines Forums, dass der der am lautestens und meisten bellt, dadurch Recht hat, nur weil andere keinen Bock mehr drauf haben, sich mit immer wieder den selben Diskussionen und Lächerlichkeiten zu befassen.

Du weißt doch selber, dass bei solchen Threads das Interesse spätestens nach einem Tag gegen 0 geht und dann nur noch die schreiben, die von Anfang an dabei waren und meisten davon auch nur noch die, die eine Agenda verfolgen wie @till69 .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rg88
Captain Mumpitz schrieb:
Da ist dann auch plötzlich Intel viel höher und der Unterschied liegt bei 10w und weniger. Und nun?
Dann realisieren wir, dass der CB Test Intel Zahlen von 2022 verwendet (56W Idle mit einer 3090 ti, die alleine 30W zieht)
Die 7800X3D Zahlen (62W) wurden mit einer 4090 (22W) gemessen. Fehler Nr.1 = 8W
CB hat mit 5200MHz gemessen, EXPO mit 6000MHz bedeutet lt. HWLuxx ~4W Unterschied der PackagePower und an der Steckdose gleich mal ~13W (Fehler Nr.2):

pho schrieb:
Während mit EXPO die Package Power im Idle bei 23-24W lag, bzw an der Dose um die 55W, habe ich ohne EXPO nur 14-15W Package Power und das Messgerät zeigt um die 42W an der Steckdose
So werden aus 6W mal eben 6+8+13=27W Unterschied.
Völlig unbekannt sind die im CB Test verwendenten Netzteile. Wenn beim 7800X3D zufällig ein im Niedriglastbereich (20-100W) viel effizienteres ATX3.0 benutzt wurde, kommt durchaus noch das ein oder andere W dazu.

Die CB Idle Zahlen kann man daher getrost in die Tonne treten.

Die Leute denken sich diese Zahlen nicht aus:
https://www.computerbase.de/forum/t...uch-7800x3d-4090.2159365/page-2#post-28581462

Captain Mumpitz schrieb:
In der Teillast steht dann der 78X3D sogar besser da als Intel
Du weist schon, was "CB Teillast" bedeutet?
CB testet ausschliesslich Volllast: SingleCore, Multicore, und Games im 720p CPU Limit.
 
Zuletzt bearbeitet:
Wie auch immer du das siehst. Ich denke jeder weiß darüber Bescheid. Alles Test zeigen das der 7800X3D weniger Verbraucht bei verschd. Anwendungen wie auch immer du das nennst. Idle oder Video oder sonstwas. Zudem weist diese CPU die höchste FPS pro Watt auf. Da kann der TE jetzt sicher gut entschieden was er möchte.

wobei man ja rausliest das er Intel weiter benutzen will.
 
  • Gefällt mir
Reaktionen: Aduasen und rg88
1. Einen 7800X3D für ~400 EUR muss man mit einem 13900K für ~650 EUR vergleichen, weil das die gleiche Leistungsklasse ist. Ein 7800X3D hat eine deutlich höhere Spiele-Performance als ein 13700K.

2. Es ist ein deutlicher Unterschied ob eine 6 Stunden-Zock-Session 2 (AMD) oder 4 (Intel) kW/h benötigt.

das führt zu 3. die TCO für ein Intel System sind zu hoch im Vergleich zu einen AMD-System. Niedrigerer Idle-Verbrauch hin oder her, was nutzt es, wenn Intel im Idle 20 Watt sparsamer ist aber dafür 200 Watt mehr Energie beim Spielen benötigt? Bei einen System, welches man sich zum Spielen und nicht zum bestaunen eines Hintergrundbildes anschafft. Locker gerechnet braucht ein 500 Watt Intel System zu 350 Watt AMD System bei gleicher Performance 60 EUR pro Jahr mehr wenn man von 200 Tagen a 5 Stunden zocken und 40 Cent pro kW/h pro Jahr ausgeht. Da kannst du dir nach 5 Jahren eine neue CPU von kaufen, was das Intel-System nur in Wärme anstatt in FPS umsetzt.

Soll ja kein Intel-Rant sein aber was Performance pro Watt bei PC-Spielen angeht hat Intel einfach den Anschluss verloren.
 
  • Gefällt mir
Reaktionen: rg88
ayngush schrieb:
Einen 7800X3D für ~400 EUR muss man mit einem 13900K für ~650 EUR vergleichen, weil das die gleiche Leistungsklasse ist
Schon der Satz disqualifiziert Dich leider. Ein 13900K nur zum zocken ist sinnfrei, da der 13700K nur 3% (also 228 anstatt 235 FPS) langsamer ist.

ayngush schrieb:
Es ist ein deutlicher Unterschied ob eine 6 Stunden-Zock-Session 2 (AMD) oder 4 (Intel) kW/h benötigt
Ja, beim 13900K in 720p mit einer 4090 ohne Gsync/Vsync ist das so.
Mit einem 13700K in WQHD und einer 4090 auf einem 144Hz Monitor bzw. in 4K am 120Hz TV (also der Realität) reden wir noch von ca. 10 bis 30W Mehrverbrauch.

ayngush schrieb:
Da kannst du dir nach 5 Jahren eine neue CPU von kaufen
Dann glaubst Du wohl auch an den Weihnachtsmann.
 
till69 schrieb:
Schon der Satz disqualifiziert Dich leider. Ein 13900K nur zum zocken ist sinnfrei, da der 13700K nur 3% (also 228 anstatt 235 FPS) langsamer ist.
Sagt der, der sich bei jeder Gelegenheit die für die Argumentation gerade passende CPU raussucht, um zwei Beiträge später eine andere als Optimal hinzustellen. Und natürlich auch dann immer eine CPU auf AMD Seite als Vergleich raussucht, die gerade in einer Disziplin vermeintlich schlechter ist.

Disqualifiziert sich hier nicht eher Intel dann mit der CPU? Und wenn ja, warum jubelst du sie an anderen Stellen wieder in den Himmel und stellst sie als Effizienzwunder hin?


till69 schrieb:
Ja, beim 13900K in 720p mit einer 4090 ohne Gsync/Vsync ist das so.
Mit einem 13700K in WQHD und einer 4090 auf einem 144Hz Monitor bzw. in 4K am 120Hz TV (also der Realität) reden wir noch von ca. 10 bis 30W Mehrverbrauch.
Ach, es ist einfach ein Traum, wenn man sich die Welt so hinbiegen kann, wie man es gerne hat, gell? Einfach alle Szenarien die einem nicht ins Weltbild passen ausblenden und dann ins lächerliche ziehen um sich nur einen Optimalfall zu konstruieren und darauf dann die ultimative Wahrheit und unanfechtbare Argumentation aufzubauen...
Es ist und bleibt einfach nur noch absurd, was du hier versuchst durchzuziehen. Mehr Fanboy geht im Grunde nicht.
 
  • Gefällt mir
Reaktionen: cyberpirate
till69 schrieb:
Hätte mich auch gewundert, wenn Du (oder der lustige Pirat) auch nur ansatzweise auf #43 eingegangen wäret.
wir und viele andere sind auf zig deiner Sachen eingegangen und das schon sehr oft. Du versuchst jetzt gerade wieder die Richtung zu bestimmen und von anderen Sachen abzulenken, wie üblich.
Wenn dir da keiner mehr drauf reinfällt, dann tut mir das nicht sonderlich leid
 
  • Gefällt mir
Reaktionen: cyberpirate
Naja.. watt hin oder her aber ich hab beim 7800x3d im idle 14 Watt und mit Expo on sind’s 22 Watt.
pc ist 10% idle und 90% im Game.
Im Game verbraucht die CPU zwischen 28 Watt (!) und 45 Watt (20%–40% Auslastung)
meistens liege ich im 30 Watt Bereich wenn ich zocke

im cinebench/Time spy hab ich Expo off 70 Watt und Expo on 83 Watt.
… vielleicht hilft es ja einem das zu wissen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cyberpirate und rg88
@rg88
Steht eigentlich da ... aus 6W Idle Unterschied (56W 13700K vs. 62W 7800X3D) werden real ca. 27W. (durch andere GPU + EXPO). Das deckt sich dann auch in etwa mit HWLuxx.
Und bei Videoplayback werden aus den 27W dann schnell 35-45W Unterschied, so wie hier.
Für reine Zocker egal. Für alle die nicht nur zocken, durchaus relevant.

SportMönch schrieb:
im cinebench/Time spy hab ich Expo off 70 Watt und Expo on 83 Watt
Nicht alles glauben, was die Software ausliest. Bei Cinebench zieht die Kiste ca. 170W aus der Dose.
Wenn Du wirklich messen willst, hier ein sehr genauer WiFi Plug mit Strommessfunktion. Oder einen Stromzähler für Steckdose.
 
Zuletzt bearbeitet:
So ein Gerät hat aber nicht jeder zuhause, da denke ich das die Werte aus hwinfo für die breite Masse leichter zu vergleichen sind
 
Bei dem Enthusiasmus um das Thema sollten viel mehr Leute die paar Kröten in so ein Gerät investieren. Peanuts im Vergleich zur Hardware. Sicher würde das für einige verdutzte Gesichter sorgen 😂 und einigen Themen den Wind aus den Segeln nehmen.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
Hallo zusammen 😊
ich würde mich gerne mal mit meinem Anliegen in diesem Post hier anschließen
möchte gerne mit dem Pc gelegentlich mal spielen wo auch Spiele dabei wären die sehr auf Arbeitsspeicher legen
folgendes hatte ich mir rausgesucht
wäre nett wenn ihr mal sagen könntet ob das Sinn macht und so klappen könnte
möchte gerne 6000 MHz Takt beim Arbeitsspeicher haben Und hab nicht vor zu übertakten

AMD Ryzen 5 7600
Mainboard: Gigabyte B650 Gaming X AX So.AM5 DRR5
Speicher: G.Skill Flare Expo X5 DRR5 6000 CL32-38-38-96

für Ideen und Ratschläge bin ich sehr dankbar

LG
Eike
 
Hatte ich mir auch angeschaut
aber wird nur aufgeführt das Max DDR5-5200 unterstützt wird
möchte ja gerne ohne zu übertakten 6000 mhz Arbeitsspeicher haben

oder warum würdest du gerade das empfehlen?
 
bin nachdem gegangen was bei Mindfactory steht bei dem Board MSI Tomahawk Wifi AMD B650 So AM5 Dual Channel DDR5
auf der Homepage von MSI steht nun sogar bis 7600 aber ab 5000 nur mit Vermerk OC
 
Zurück
Oben