News Aus der Community: Erfahrungen zum Umstieg von i5-3450 auf R7 7800X3D

Demnächst dann die Diskussion über idle Verbrauch von Spielekonsolen. Und natürlich Spritverbrauch von Autos im Leerlauf.
 
  • Gefällt mir
Reaktionen: Syrato und andi_sco
eRacoon schrieb:
Daher muss sich AMD hier mit Intel messen und darf sich da auch Kritik einfangen.
Hilfreicher wäre da sicherlich mal ein Vergleich, der über eine Woche lang die Verbräuche aufzeichnet
 
Ah wieder die geile Idle Stromverbrauchsdiskussion oder wieviel sparsamer doch die AMD CPU beim Gamen ist.

War schon mal schlimmer ,meine der 5900x hat doch deutlich mehr in HWI angezeigt als der 7800x3d. Der bewegt sich um 28W. Der 12900k ist da eher um 6 bis 8 W. So riesig ist auch der Unterschied in den meisten Games auch net. Hier ist der 7800x3d schon sparsamer, meistens um 20 bis 30W. CP77 scheint ein ordentlicher Ausreisser zu sein, da sind es deutlich mehr beim 12900k.

Insgesamt Nix worüber es sich zu diskutieren lohnt bei den Kosten für die Hardware. Wer so aufs Geld schauen muss , sollte sich wohl eher nicht eine CPU um 500Euro und einen Oled anschaffen,ganz zu schweigen von einer High End GPU.Ich finde Effizienz ja auch gut aber mit der Differenz der Systeme wird jedenfalls die Welt nicht zu retten sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
Besonders interessant ist die Leistungsaufnahme!!! Und die aktuellen Intelkerne sind ja noch durstiger. Danke für den Vergleich...
 
Isso, mein Rechner "Ei Delt" eigtl auch die meiste Zeit vor sich hin mit Youtube oder Foobar als Musikzuspieler für die Anlage. Oder zum surfen oder mal nen Film kucken, und wird nur aus dem "Ei del" beim zocken rausgeholt.
 
  • Gefällt mir
Reaktionen: FloMann80
Ich habe noch ein paar Vorschläge aus dem Thema hier und einige BIOS-Optionen getestet. Wenn ihr Fehler entdeckt, gerne Feedback geben.
Ergänzung ()

@p.b.s. In CoreTemp zeigt er für meinen 7800X3D nach einigen Minuten zwischen 17.5 und 18.8 Watt an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: p.b.s.
@Daniel D.
Habe gerade nochmal meinen 13700K (+4090) gemessen (Steckdose):
Idle: 49W
Youtube Fullscreen(4K@60Hz): 57W (dieses Video)

Hast Du Lust auf einen Vergleich ohne GPU, also nur mit iGPU?
 
Daniel D. schrieb:
Nur so nebenbei: Für ein 620er hätte ich kein Geld ausgegeben, da fehlt mir zu viel. (Ich weiß, dass es ein Beispiel von Dir war) Im BIOS schaue ich mich noch einmal um und vergleiche verschiedene Einstellungen.
Da ich nirgendwo PCIe 5 benötige, zudem kein WLAN, BT o.ä. späße und sogar ein m.2 Slot reicht, fehlt mir und den Arbeitsplätzen nichts. Aber jeder wie er es braucht.

Die Einstellungen findest du z.T. versteckt unter AMD CBS o.ä.
Die iGPU sollte sich übrigens abschalten, wenn eine GPU steckt und die Ausgänge nicht verwendet werden. Der Unterschied wundert mich also nicht.
Es gibt aber noch PCIe L1 & L2 Stromsparirgendwas (s.o. CBS...?)

Telechinese schrieb:
Na ned der "Sockel", sondern die "Plattform" 😉👍
Hat er so nicht geschrieben. ;-)

Wobei das ja nicht eine Plattform ist, sondern diverse.
Bei AM4 gab es diverse Plattformen von der 300er bis zur 500er Serie - da wird bei AM5 mutmaßlich auch noch was kommen. Den AM5 gleich zu verrufen halte ich für kompetenzschwierig.
Ergänzung ()

CDLABSRadonP... schrieb:
Da wäre ich mir nicht so sicher. Die JEDEC-Standards sind immerhin ziemlicher Mist und es ist schade, dass die JEDEC nicht mal langsam die Kurve kriegt und auch Varianten mit ordentlichen Timings bei Standard-Spannung spezifiziert. Das hätte schon zu DDR3-Zeiten, spätestens zu DDR4-Zeiten geschehen sollen, aber es ist immer noch keine Spur davon zu sehen!
JEDEC wird seinen Grund haben warum das so ist. Anders aufgerollt:
Wie viele "OC" Module kennst du, die mit 1,1 V arbeiten?
Es ist ja nicht so, als ob es verboten sei z.B. XMP Profile mit stärferen Timings bei gleicher Spannung anzubieten.
Aus Neugier habe ich gerade mal geschaut: Es existieren ein paar wenige SO-DIMM, die tatsächlich mit niedrigeren Latenzen arbeiten:
https://www.heise.de/preisvergleich/?cat=ramddr3&xf=2396_1.1V~2506_1.1~255_38~5015_5200~5828_DDR5~5830_DIMM
...die einzigen Module:
https://www.gskill.com/specificatio...A16GX1-RS-F5-5200S3838A16GA1-RS-Specification

Wenn die JEDEC grundlos zu hohe Latenzen wählen würde, wäre da sicher viel mehr zu finden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Daniel D.
Habe nur eine 9 Jahre alte CPu die i7 5820k.
Bis jetzt, bin ich noch nicht überzeugt einen Neukauf zu tätigen.

Ausser bei Warzine2, stehen meine Game alle auf GPU Power.

Vielleicht nächstes Jahr
 
  • Gefällt mir
Reaktionen: Klever
StefanArbe schrieb:
33 Watt höherer Idle stromverbrauch, deswegen lassen ich AM5 definitiv aus.
Das kann aber nicht hinkommen mit dem idle Verbrauch. Ist das belegt und AM5 berüchtigt dafür? Kann ich mir schwer vorstellen. Hätte als erstes gedacht, dass ein Energieprofil falsch eingestellt ist, gibt ja Einstellungen im OS als auch im Bios. Oder die GPU taktet nicht ganz runter und zieht die ganze Zeit über 30 Watt...kommt auch öfter mal bei Leuten vor. Dem würde ich mal auf den Grund gehen.
 
@Pleasedontkill mit 12 Threads ja nochmal eine ganz andere Hausnummer, als der 3000er i5 hier
 
  • Gefällt mir
Reaktionen: Pleasedontkill
Silencium schrieb:
Wenn ich sehe wo Apple im Idle liegt und was an Effizienz allgemein möglich wäre, dann ist auch mir das zu hoch.
Silencium schrieb:
weg von dem Uraltzeug x86.
Die X86-Architektur ist nicht an sich ineffizient.

Effizienz ist auch immer eine Frage des optimalen Arbeitspunkts (Sweet Spot) der CPU. Ein M2 Max holt im Cinebench R23 14810 Punkten aus 35W, was 423 Punkte pro Watt sind. Der Z1 Extreme im ROG Ally als konsequent auf niedrigen Verbrauch optimierter Prozessor holt 9020 Punkte aus 15W, was mit 601 Punkten pro Watt satte 42% effizienter als die ach so überlegene ARM-Architektur ist. Bei 35W sind es dann 14173 Punkte, was mit 405 Punkten pro Watt etwas hinter Apple liegt, aber auch nur etwa 4%. Da liegt der Ryzen aber auch schon deutlich oberhalb seines Sweet Spots.

Man kann also auch X86 durchaus genau so effizient wie die derzeit beste ARM-Architektur bauen. Und in Notebooks, SFF-PCs und Geräten wie der oben genannten Handheld-Konsole sieht man das auch durchaus. Die Macs mit M-Prozessoren sind von der Bauart solchen Geräten näher als klassischen Desktops.

Vergleichsweise ineffizient wird es nämlich genau bei diesen. Dort steigt zum einen der Basisverbrauch im Idle stark an, was an der Menge an zusätzlichen Komponenten liegt, die oft verbaut sind. Zum anderen quetscht ja gerade Intel dann noch die letzten Prozent Performance aus dem Silizium, indem z.B. ein 13900K dann über 300W verbrauchen darf. Da ignoriert man bewusst Effizienz zugunsten maximaler Leistung.
 
  • Gefällt mir
Reaktionen: whats4 und andi_sco
Nixdorf schrieb:
Die X86-Architektur ist nicht an sich ineffizient.
Was auch die Effizienz Kerne von intel zeigen.
Ich weiß, die sind hier ein ungeliebtes Kind, haben aber ihre Daseinsberechtigung.
AVX und große Caches sind nicht überall von Vorteil.
 
Nixdorf schrieb:
Die X86-Architektur ist nicht an sich ineffizient.

Effizienz ist auch immer eine Frage des optimalen Arbeitspunkts (Sweet Spot) der CPU. Ein M2 Max holt im Cinebench R23 14810 Punkten aus 35W, was 423 Punkte pro Watt sind. Der Z1 Extreme im ROG Ally als konsequent auf niedrigen Verbrauch optimierter Prozessor holt 9020 Punkte aus 15W, was mit 601 Punkten pro Watt satte 42% effizienter als die ach so überlegene ARM-Architektur ist. Bei 35W sind es dann 14173 Punkte, was mit 405 Punkten pro Watt etwas hinter Apple liegt, aber auch nur etwa 4%. Da liegt der Ryzen aber auch schon deutlich oberhalb seines Sweet Spots.

Man kann also auch X86 durchaus genau so effizient wie die derzeit beste ARM-Architektur bauen. Und in Notebooks, SFF-PCs und Geräten wie der oben genannten Handheld-Konsole sieht man das auch durchaus. Die Macs mit M-Prozessoren sind von der Bauart solchen Geräten näher als klassischen Desktops.

Vergleichsweise ineffizient wird es nämlich genau bei diesen. Dort steigt zum einen der Basisverbrauch im Idle stark an, was an der Menge an zusätzlichen Komponenten liegt, die oft verbaut sind. Zum anderen quetscht ja gerade Intel dann noch die letzten Prozent Performance aus dem Silizium, indem z.B. ein 13900K dann über 300W verbrauchen darf. Da ignoriert man bewusst Effizienz zugunsten maximaler Leistung.
das ist aber eine derbe milchmädchenrechnung. du hast das TDP genommen und setzt das mit den cinebench punkten gleich..
 
Das habe nicht ich so gewählt, das wählen zahlreiche Publikationen so. Der Cinebench ist eine der meistgenutzten Metriken zur Ermittlung der Effizienz von CPUs, also Performance pro Watt. Die Top-500-Liste nimmt den Linpack, aber da geht es nicht um einzelne Prozessoren, sondern um komplette Superrechner. Auch die SPEC-Suite wird gerne genutzt, aber die ist eher IPC-lastig und achtet weniger auf Effizienz. Natürlich kann man sich auch irgendwas anderes suchen, das die Einheiten eines Prozessors möglichst vollumfänglich nutzt, aber auf irgendetwas muss man sich halt einigen.

StefanArbe schrieb:
du hast das TDP genommen
Und nein, es wurde nicht die TDP genommen, sondern das jeweilige Power Limit, welches in den genannten Fällen auch ausgeschöpft wird.
 
Pleasedontkill schrieb:
Habe nur eine 9 Jahre alte CPu die i7 5820k.
Bis jetzt, bin ich noch nicht überzeugt einen Neukauf zu tätigen.

Ausser bei Warzine2, stehen meine Game alle auf GPU Power.

Vielleicht nächstes Jahr
Hab nach 8 Jahren i7 4790K aufgerüstet. Das System hat eine Menge gesehen und erlebt. Erst 8GB RAM, dann aufgerüstet auf 16GB und zu guter lest 32GB RAM 2400Mhz DDR3 Quad Kit.
Hat paar Grafikkarten gesehen das System. GTX 750 Ti / GTX 970 / GTX 1080 / und kurze Zeit RTX 3090 Ti.
Hab damals auch die CPU geköpft, extra vom Bauer diesen Köpfer gekauft. 30€ einmal benutzt das Ding. :D
4 Kerne 8 Threads waren in Games am Ende. Hab es besonders bei Cyberpunk 2077 gemerkt. Aber erstaunlich, was dieses System noch geleistet hatte.
Hab jetzt ein 13900K mit DDR5 64GB und nach wie vor eine RTX 3090 Ti. Hab den Leistungsboost schon auf dem Desktop gemerkt. Bei den Games erst recht.
Wenn nichts kaputtgeht, wird das System denke ich um die 10 Jahre hier bleiben. RAM vielleicht eines Tages noch auf 128GB aufrüsten und Grafikkarte natürlich.
Mein altes System hab ich meinen Eltern geschenkt.
 
  • Gefällt mir
Reaktionen: Pleasedontkill und Roesi
Nixdorf schrieb:
Das habe nicht ich so gewählt, das wählen zahlreiche Publikationen so. Der Cinebench ist eine der meistgenutzten Metriken zur Ermittlung der Effizienz von CPUs, also Performance pro Watt. Die Top-500-Liste nimmt den Linpack, aber da geht es nicht um einzelne Prozessoren, sondern um komplette Superrechner. Auch die SPEC-Suite wird gerne genutzt, aber die ist eher IPC-lastig und achtet weniger auf Effizienz. Natürlich kann man sich auch irgendwas anderes suchen, das die Einheiten eines Prozessors möglichst vollumfänglich nutzt, aber auf irgendetwas muss man sich halt einigen.
du musst halt den wahren stromverbauch nehmen, nicht TDP.
wenn AMD tatsächlich mal eine effiziente CPU für den desktop bringen würde, das wäre ja super.
 
bringt dich trotzdem nicht weiter. es bringt dich nur der wahre, tatsächliche stromverbrauch weiter.
 
  • Gefällt mir
Reaktionen: Ja_Ge
Zurück
Oben