Mir juckt es in den Fingern - 7 Jahre alten Rechner austauschen

crank89 schrieb:
ie gesagt ist schon lange her, aber da ging es wirklich um 2-3 Minuten Intel vs. ~20 Minuten AMD und das waren zu der Zeit gleichgehandelte CPU's
Und jetzt lässt du deswegen 7 Jahre später mit absicht deswegen Leistung liegen? Das macht ja mal sowas von gar kein Sinn.
 
  • Gefällt mir
Reaktionen: Gortha
Der 7800X3D wird ziemlich sicher ein schlechteres P/L haben als ein 13600/13700er von Intel.

@TE - Musst dich für deine Entscheidung nicht rechtfertigen. Auch heute ist es so, dass es bei Intel tendenziell weniger Probleme gibt.
 
  • Gefällt mir
Reaktionen: SuperTuesday
crank89 schrieb:
ich war so überrascht als damals ein simples Script eine AMD CPU zu schwitzen gebracht und Intel sich gelangweilt hat.. Wie gesagt ist schon lange her, aber da ging es wirklich um 2-3 Minuten Intel vs. ~20 Minuten AMD und das waren zu der Zeit gleichgehandelte CPU's
Dürfte dann vermutlich zu Bulldozer Zeiten gewesen sein, da stimme ich vollkommen zu, die Architektur war ein Fail, da gibt es wenig dran zu rütteln.
Mit Zen hat AMD aber seit 2017 durchaus wieder gute CPUs auf dem Markt, sowohl bei Spielen als auch bei Anwendungen kommt es aber auch immer auf den konkreten Einzelfall an da gibt es durchaus schwankungen.

Mit Alder bzw. Raptor Lake hat Intel aber ebenfalls gute CPUs auch mit dem gewählten 13700 machst du mMn. alles andere als einen Fehlkauf, der 7800X3D wäre für reines Gaming vermutlich in den meisten Fällen die bessere CPU, in Multicore wird sie hinten sein, große Preisfrage besteht auch noch in der Verfügbarkeit zu Release sowie zu welchem Preis.
Zumindest beim 7950X3D sieht es ja nach wie vor eher düster aus.
 
  • Gefällt mir
Reaktionen: floTTes
Schaut eben gerade so aus, als wenn AMD derzeit alle seine Kapazitäten auf einen gelungenen Marktstart des 7800X3D vorhalten würde. Ich kann da auch völlig entspannt zusehen.
 
  • Gefällt mir
Reaktionen: Gortha
Galarius schrieb:
Und jetzt lässt du deswegen 7 Jahre später mit absicht deswegen Leistung liegen? Das macht ja mal sowas von gar kein Sinn.
Gerade da AM 5 als Plattform noch Zukunft hat, un Ryzen 8000 ggf sogar 9000 drauf passt.
Dazu sit ein 7800X3D Stromsparender und wesentlich schneller als ein 13700....
Ergänzung ()

Papalatte schrieb:
Musst dich für deine Entscheidung nicht rechtfertigen. Auch heute ist es so, dass es bei Intel tendenziell weniger Probleme gibt.
Mumpitz³
 
  • Gefällt mir
Reaktionen: floTTes und MehlstaubtheCat
Gortha schrieb:
Dazu sit ein 7800X3D Stromsparender und wesentlich schneller als ein 13700....
Schneller nur wenn der Cache genutzt werden kann, in Games wo das nicht skaliert maximal gleich schnell, wenn nicht sogar langsamer.
Im Multicore schlägt der Intel dann dank der 8 mehr E Cores eh den reinen 8 Kerner von AMD.

Weniger Stromverbrauch nur wenn damit gezockt oder maximal Multicore, im Idle und Teillast sind die Zen4 und gerade die 3D Versionen echte Stromschlucker, da kommt nichts an die 6W idle von Intel ran.

Wenn der Intel + Plattform dann sogar noch günstiger ist (eventuell deutlich), macht man damit nichts falsch.
Beides gute CPUs, kann man beides machen.
Ich würde aber lieber 13700 + 4090 machen als eventuell mehr in CPU zu stecken und dafür nur 4080.

In 4-5 Jahren wird es eh am meisten an der GPU scheitern als am Rest.
Aufrüstung scheint doch eh kein Thema zu sein (wie so oft) wenn er aktuell mit einer Intel Gen6 rum eiert.
Wenn er solange wartet ist egal ob AM4, AM5 oder Intel 1700.
 
  • Gefällt mir
Reaktionen: Odessit
eRacoon schrieb:
Im Multicore schlägt der Intel dann dank der 8 mehr E Cores eh den reinen 8 Kerner von AMD.
Juckt nicht, schau sein Usecase an. Photoshop und Gaming. Also hör bitte auf mit besserem Multithreading.
 
  • Gefällt mir
Reaktionen: Gortha
Streich den Satz und die Aussage bleibt quasi gleich.
Hört aber auch bitte auf mit AM5 hat längeren Support, schau dir sein Kaufverhalten an, juckt nicht.

Übrigens lustig dass man bei Intel die Multicore Power nicht mehr erwähnen darf, das war in den letzten Jahren immer das Verkaufsargument für AMD in den ganzen Themen wo es teils ausschließlich um Gaming PCs ging. :hammer_alt: :D
 
Zuletzt bearbeitet:
Danke euch allen für die Rückmeldungen. Ja ich sehe ein das man AMD nicht abschreiben darf. Ich werde mich mal schlau machen und den Marktstart des 7800X3D abwarten. Verfügbarkeit und Preise ansehen. Letztendlich wird es dann eher eine Rechenfrage, wenn der dann doch über 500 kostet wird es eher der Intel. Weil man muss ja sein Budget nicht ausreizen. Vielleicht ist dann auch noch bisschen neue Peripherie drin.

Ich gebe auf jeden Fall Bescheid was es wird :)
 
  • Gefällt mir
Reaktionen: floTTes, Gortha, buxtehude und 2 andere
eRacoon schrieb:
Schneller nur wenn der Cache genutzt werden kann, in Games wo das nicht skaliert maximal gleich schnell, wenn nicht sogar langsamer.
Wirst du ja heute sehen^^ :p
eRacoon schrieb:
Im Multicore schlägt der Intel dann dank der 8 mehr E Cores eh den reinen 8 Kerner von AMD.
Nur nutzt er keine Anwendung die das ausnutzen würde, das bischen Photoshop ist auf beiden mehr als machbar.
eRacoon schrieb:
Weniger Stromverbrauch nur wenn damit gezockt
Ich dachte er zockt....
eRacoon schrieb:
im Idle und Teillast sind die Zen4 und gerade die 3D Versionen echte Stromschlucker, da kommt nichts an die 6W idle von Intel ran.
Diesen "Idle Modus" von dem du sprichst, gibt es reell sogut wie nie, Browser oder andere Sachen laufen meistens im Hintergrund. Außerdem, wer ein sparsamen Idle-Rechner will, sollte sich eine ganz andere CPU kaufen...
Nebenbei konsumiert der 7700 non-X und auch der 7800X3D nochmal wesentlich weniger als die normalen X-Prozessoren, da diese nicht so hoch mit dem Takt getrieben werden.

Bei allen Ryzens kann man aber mit PBOTuner oder Curve Optimizer nochmal Strom sparen und/oder Leistung rausholen.

Aber nochmal, wer den Recher viel im Leerlauf hat, ist selber Schuld, auschalten oder Energiesparmodus ist nicht so schwer... Und ob ein Rechner im Idle jetzt 50 oder 70 Watt braucht, macht den Kohl sowieso nicht fett.
 
Zuletzt bearbeitet:
Gortha schrieb:
Diesen "Idle Modus" von dem du sprichst, gibt es reell sogut wie nie, Browser oder andere Sachen laufen meistens im Hintergrund.
Das kommt meist von Leuten die keine Intel CPU ab Alder Lake mehr selbst hatten.
Mein Rechner läuft seit 4h und ich arbeite daran... diverse Excel Dokumente, Emails, Spotify im Hintergrund und in der Mittagspause 30min YT Video + hier bisschen rum schreiben.

Durchschnittsverbrauch der 4h = 8W

Wenn ich ein YT Video laufen lasse, selbst in 4K dann bleibt die CPU bei <8W im Full idle.
Twitch genau das gleiche.
Die E cores schaffen alles an Hintergrundworkload weg und brauchen dabei quasi nichts.
Und das inkl. max RAM OC bei der größten CPU der 12th Gen.

Klar kann man auch den Rechner nur starten, dann 2h zocken und dann wieder aus machen.
Aber mal ernsthaft, wer nutzt einen PC so?
Die meisten nutzen Twitch, YT, Netflix und co. länger am PC als dass sie real selbst zocken.

Daher bin ich immer fasziniert dass die 3D CPUs als die Wunder Stromspar Waffen genannt werden die dann im Full CPU Limit Gaming (was deutlich unrealistischer ist als normales idle) dann 50W weniger haben. Aber bei allem anderen fressen die konstant mal eben 20-30W unnötig mehr aus der Dose als alle Intels ab Alder Lake.

Dieses Märchen mit der PC ist nie im idle sollte endlich mal beendet werden.
90% der Applikationen die von vielen genutzt werden im täglichen Verlauf sind bei Intel 100% Idle Workload.
 

Anhänge

  • 12.png
    12.png
    66,9 KB · Aufrufe: 92
  • Gefällt mir
Reaktionen: Gortha
Ich finds so geil wie hier jemand ne Watt Rechnung für Idle macht während er ne 4090 im System hat um darauf hinzudeuten wie wichtig doch der idle mode von ner Intel CPU ist. Genug Computerbase für mich heute.
 
  • Gefällt mir
Reaktionen: Gortha
Es kommt auf den Usecase an.
Aber diese 20 Watt mehr im IDLE an der Steckdose halte ich erstens für zu vernachlässigen, zweitens in erster Linie abhängig vom Chipsatz, drittens sind die CPU-Leistungsaufnahmen bei AMD - abseits von Messungen direkt am Board(Pins und Kontakten) oder an der Steckdose - stark verfälscht und zu ungunsten von AMD, da die Sensorprogramme unnötig auf den Kernen herumpollen.

Mit einem sparsamen B550, A520, B650 Chipsatz sind die Leistungsaufnahmen eines AMD Systems nicht anders als bei Intel. Man muss es sich immer im Detail und Differenziert ansehen.
Ergänzung ()

Galarius schrieb:
Ich finds so geil wie hier jemand ne Watt Rechnung für Idle macht während er ne 4090 im System hat um darauf hinzudeuten wie wichtig doch der idle mode von ner Intel CPU ist. Genug Computerbase für mich heute.
hihihi, ja etwas perplex. Aber die Diskussion kann man ja schon führen und eventuell ist Intel auch wenige Watt im Idle Sparsamer. Das wird aber unter Last schnell aufgefressen, besonders gegenüber den X3D Prozessoren, die um LÄNGEN sparsamer sind als K und nonK Initels unter Last.

PS: A620 ist ja auch jetzt sogut wie verfügbar.
 
Zuletzt bearbeitet:
Galarius schrieb:
Ich finds so geil wie hier jemand ne Watt Rechnung für Idle macht während er ne 4090 im System hat um darauf hinzudeuten wie wichtig doch der idle mode von ner Intel CPU ist.
Wo ist der Widerspruch, die ist im idle trotz 120Hz 4k Screen auch ziemlich sparsam. ;)
Ich kann problemlos 8h an dem PC im Homeoffice arbeiten mit der Intel + Nvidia Kombination ohne das ich viel mehr brauche als ein normaler Office Rechner mit dedizierter GPU. Das könnte man nur via iGPU deutlich sparsamer bekommen.
Ergänzung ()

Gortha schrieb:
Man muss es sich immer im Detail und Differenziert ansehen.
Problem ist da gibt es sehr wenige reale Tests zu, CB behandelt das Thema quasi gar nicht, da bekommt man immer nur die schönen Graphen unter max Load die komplett unrealistisch sind.
Daran wird aber dann das Fazit gezogen dass das ein Kaufargument ist.

Mir fällt da gerade der ein, wo genau das bei raus kommt.
Aber klar kann man immer Tests bauen die zu dem einen oder anderen mehr tendieren.
 

Anhänge

  • 1234.png
    1234.png
    56,5 KB · Aufrufe: 83
  • Gefällt mir
Reaktionen: Gortha
eRacoon schrieb:
Mir fällt da gerade der ein, wo genau das bei raus kommt.
Aber klar kann man immer Tests bauen die zu dem einen oder anderen mehr tendieren.
Kenne ich, aber auch hier sind zwei der von mir angesprochenen Punkte nicht berücksichtigt.
Er hat allerdings unter einem Anwendungsszenario die beiden Flagschiffe 13900K und 7950X an der Steckdose gemessen. Das ist ein Anfang aber unzureichend. Dazu X670E Board mit unbekannter Effizienz - eventuell Stromfresser. Den 7950X sollte man mit Curve Optimizer (-20 bis -30 per Core) ggf sogar auf Intel StromVerbrauchsNiveau bringen. Gerade ein X3D performt nochmal ganz anders bei viel weniger Leistungsaufnahme.

Aber du hast vollkommen Recht, es wäre toll, wennauch mal andere Beispielszenarien wie bei ihm von CB oder anderen Testern verglichen werden und nicht nur der Idle eines fast sterilen Systems und nur das Zocken.
Oder deine 4 Stunden Arbeitsablauf auf verschiendene Systemen an der Steckdose gemessen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eRacoon
Hallo, so ich habe jetzt mal noch eine Liste mit dem 7800X3D gebaut und hätte somit jetzt die beiden Listen, wäre gut zu wissen ob das für einen Ryzen so passt oder ob ich da was noch beachten muss (zusätzliche Lüfter, Gehäuse kompatible etc.):

X3D: https://geizhals.de/wishlists/3116402

13700: https://geizhals.de/wishlists/3104934

Den Hersteller der Graka suche ich mir noch genau aus, wobei diese Palit jetzt keine völlige Katastrophe in Bezug auf Geräusche ist :)
 
Passt, ggf noch einen weiteren 14 cm Lüfter holen, falls es innen zu warm würde.
Aber einfach erstmal gucken. Das 500 DX ist schon mit 3 14 cm Lüftern gut ausgestattet. Den Vorderen Lüfter allerdings nach ganz unten hängen.
 
Zurück
Oben