So, alle Kommentare durchgelesen - nochmals vielen Dank für den Zuspruch und selbstverständlich auch für jedwede konstruktive Kritik
doublex schrieb:
mir schwebt ein ähnliches projekt vor, da ich meine rtx 3080 durch eine 5080 ersetze.
Du kannst ja ebenfalls - und wenn's auch ohne großen Leserartikel und nur für deine eigene Erfahrung ist - erst einmal "nur" die 5080 upgraden und testest den Performancezuwachs mit der aktuell vorhandenen Hardware. Nach dem Upgrade des restlichen Systems vergleichst du dann erneut die Performance. So und nicht anders habe ich es letztlich ja auch im Artikel getan
doublex schrieb:
cpu, mb, ram werden wassergekühlt und übertaktet.
Custom WaKü? Das ist ein äußerst zeit- und auch geldfressendes Unterfangen, bei dem zusätzlich immer die Gefahr einer (irreversiblen) Hardware-Beschädigung besteht. Davon abgesehen darf man sich keine allzu großen Performancegewinne oder Lärmpegel-Reduzierungen erhoffen.
Und dennoch hatte auch ich viele Jahre lang verschiedene Custom WaKüs und hatte äußerst viel Spaß (aber auch viel Ärger und steten Aufwand) damit.
Wenn du dir das also gut überlegt hast: viel Spaß damit

Noch mehr "Basteln" kann man am eigenen PC dann nur noch mit einem aufwendigen Casemod oder gar vollständigem Casecon, wie z.B.
bei diesem hier.
Enigma schrieb:
Wegen den 9 EUR Stromkosten. Hast du EXPO aktiviert? Ich hatte das Problem, dass die CPU fast 20W mehr verbraucht hat, wenn EXPO aktiviert war. Wenn es aus ist, bin ich fast auf Intel-Verbrauchswerten im Idle.
Selbstverständlich war und ist EXPO aktiviert. Ohne es nun direkt getestet zu haben, sollte allseits bekannt sein, dass der Performanceverlust im CPU-Limit signifikant ist, wenn der RAM ohne EXPO-Profil bzw. mit JEDEC-Standardtimings und Takt läuft.
Seit mein PC heute läuft, also seit ca. 1,5 Stunden, benötigte die CPU laut HWiNFO64 im Durchschnitt etwa 26,7 Watt - wir runden auf 27 Watt auf. Mit meinem 12600K waren das zuvor erfahrungsgemäß ca, 10 Watt im Schnitt. Wir können hier gerne erneut mit den erwähnten 20 Watt Unterschied im Schnitt rechnen. Das ist auch exakt der Wert, der hier zu den 9 Euro Stromkostensteigerung pro Jahr führt:
20 Watt * 4h * 365 Tage = 29,2 KWh * 30 Ct per KWh = ca. 9 Euro
Auf den ersten Blick wirken die etwa 15-20 Watt Mehrverbrauch im Idle eines AMD X3D-Prozessors also erst einmal sehr viel und mathemtatisch betrachtet ist es auch viel. Finanziell jedoch wirkt es sich glücklicherweise nicht so dramatisch aus, als dass dies einen alles entscheidenden (Nicht)Kaufgrund darstellen sollte.
Zudem ist auch fraglich, wie realistisch das vorgestellte Szenario von 365 Tagen á 4h Niedrig(st)last am PC tatsächlich ist.
Fujiyama schrieb:
Naja die allerwenigsten da draußen können sich ne Boad und CPU Kombi für nen 4-stelligen Betrag leisten und ne Grafikkarte für das gleiche Geld.
Das müssen sie zum Glück ja auch nicht. Wenn es einfach nur um's Casual Gaming geht, ist ein Full HD-Setup immer noch die (am PC) wirtschaftlichste Variante und auch die Limitierung auf 60 FPS sind keinesfalls ein Grund, sich in den Schlaf weinen zu müssen

Der Spielspaß kommt in aller Regel und primär vom gespielten Spiel und nicht davon, Pixel Peeping im Standbild mit einer Lupe zu betreiben. Das vergessen leider ebenfalls viele.
In einem Blindtest (blöde Wortwahl für den folgenden Sachverhalt

) würden die meisten vermutlich überhaupt keinen Unterschied zwischen Medium, High und Ultra-Settings in einem Spiel bemerken, das tatsächlich ein Bewegt- und eben kein Standbild darstellt. Laufe ich bei Kingdom Come: Deliverance 2, Withcer 3 oder Oblivion Remaster durch die Landschaft oder stehe ich permanent still und suche unsaubere Schatten vom nicht perfekt texturierten Laubwerk in der rechten oberen Bildecke? Das kann jeder für sich selbst entscheiden.
VR 4K etc. schrieb:
Oder besonders auch im VR Bereich
Das war zuerst noch ein zusätzlich geplantes Testszenario, allerdings fehlt(e) mir dafür einfach die Zeit. Eine Quest (Sorry: mittlerweile Meta) 2 liegt hier zwar und wird auch gelegentlich (und noch seltener am PC) genutzt, aber in den Artikel wollte ich das Szenario dann nicht mehr zusätzlich einbauen, auch wenn hier aufgrund der Notwendigkeit, dass sowohl Auflösung, als auch Bildwiederholrate höchstmöglich ausfallen sollten, eigentlich kein Weg an einer schnellstmöglichen CPU+GPU-Kombination vorbeiführt.
Anders, als bei klassischem Monitorbetrieb würde ich spätestens bei VR mit fester Überzeugung behaupten, dass der klassische 60 FPS / Hz-Betrieb keinesfalls ausreichend ist, womit spätestens in diesem Szenario, selbst bei geringerer Auflösung, eine flotte CPU für deutlich dreistellige FPS notwendig wird, wenn mit 120 oder gar 144 FPS (jeweils die Hälfte pro Auge) gespielt werden soll.
Morku schrieb:
Ich bin da ganz ehrlich, dass ich einfach zu bequem war mich mit der AMD Produktpalette und Treibern zu beschäftigen.
So dramatisch ist das gar nicht - um nicht zu sagen: da gibt es nichts, womit man sich beschäftigen müsste

1x BIOS/UFEI-Update, 1x aktuellster Mainboard/AMD CPU-Treiber und das war's. Das sieht bei Intel tatsächlich nicht anders aus.
JoeDoe2018 schrieb:
Der Test spiegelt nicht die wirklich Performance wieder
Also nutze ich seither die "unwirkliche" Performance meines Systems?
Riogrimm schrieb:
Fazit 2: Unreal Engine 5 immer noch nicht wirklich gut.
Um bei "Unwirklich", also Unreal zu bleiben: ja, da bin ich voll und ganz bei dir. Die vielen Ecken und Kanten der Unreal Engine 5 werden aktuell wieder mit dem Oblivion Remaster deutlich. Auch, wenn die Engine so viele Performance-Optimierungen bietet, so ist die jüngste Umsetzung Bethesdas doch eher wieder mit einem - wenn auch nur leichten - Nasenrümpfen hinzunehmen.
Ein hervorragender Vortrag hierzu stammt vom Kanal Threat Interactive auf Youtube:
Viper816 schrieb:
Schön ist, dass seit dem 9800X3D leistungsmässig an den X-Varianten ist, AMD auch beim Videokonvertieren und weiteren Anwendungen nicht mehr gänzlich einschläft. Allerdings ist AMD hier noch auf dem Level eines Intels Performance-6-Kerner. Hier wirken sich eben die zusätzlichen Efficiency-Kerne Intels aus.
Hast du in meinem Artikel den extremen Anstieg in z.B. Handbrake mit h.265 gesehen? Auf dem 12600K habe ich über dessen iGPU ca. 27 FPS mit einem Full HD-Testclip (ein selbst aufgenommenes Video aus Forza Horizon 4) geschafft. Der 9800X3D hat hier über 42 FPS aus dem Ärmel gezaubert.
Viper816 schrieb:
Dann kann ich allerdings immernoch nicht den XMP-RAM gesichert auf EXPO mitnehmen. Das ist ein Problem.
Es gibt sehr brauchbare RAM-Kits, die sowohl AMD EXPO, als auch Intel XMP bieten. Auf Geizhals lassen sich die Kits nach Belieben filtern. Scher wird es höchstens bei Sonderwünschen, z.B. bei Kombinationen aus Whitebuilds und RGB-Beleuchtung.
Tornavida schrieb:
Allerdings, ich sags mal so, auch ein 12600k wird wohl mind. 60FPS fast immer liefern können und dann schaltet man, wenn man schon eine moderne Karte hat, FG an und dann hat man auch seine dreistelligen FPS.
Grundsätzlich ja. Wie im Artikel selbst steht, war ich mit dem 12600K auch selbst zum Tauschzeitpunkt noch äußerst zufrieden, ebenso wie ich dies jahrelang mit 1080p60 war. Dennoch ist der Unterschied in "meinen" Spielen, hauptsächlich Open World gemischt aus Ego- und Third Person-Perspektive hinauf zu 100 FPS / Hz doch stark wahrnehmbar. Da ich mit der neuen Grafikkarte (und auch dem Bildschirm, respektive TV) diese hohen FPS nutzen und genießen kann, möchte ich sie selbstverständlich auch nicht mehr vermissen. Selbst in niedrigeren Auflösungen unterhalb 4K UHD, beispielsweise in Horizon: Zero Dawn (Remastered) oder auch Starfield war der 12600K nicht in der Lage, eine dreistellige FPS dauerhaft abzuliefern.
ToaStarr schrieb:
Liege ich falsch, oder ist der 12600K mit Release 11/21 hier nicht wirklich das (damalige) Pendant zum 9800X3D mit Release 7/24?
Das Pendant zum 12600K wäre doch seinerzeit z.B. eher der Ryzen 5 7600X mit Release 9/22 gewesen. Das Pendant zum 9800X3D wäre dagegen doch heute wohl eher der 14900K mit Release 10/23, oder?
Ich kann immer nur das testen, was mir zur Verfügung steht

Aber wie schon gesagt wurde: man rüstet ja auch nur selten innerhalb ein und derselben Generation auf/um.
Epistolarius schrieb:
verstehe, dass Leser sich den eigentlichen Forwnthread anschauen sollen - aber die Zuammenfassung ist merkwürdig formuliert, mitsamt der Cinebench-Tabelle, wenn das eigentlich eine Gaming-CPU sein soll.
Die Cinebench-Tabelle sowie auch ein paar andere Produktivtests gibt es deshalb, weil ich eben nicht "nur" ausschließlich mit dem System spiele, sondern hier und da auch mal DVDs oder Blu-rays umwandle und ich daher auch die Leistungsunterschiede (glücklicherweise durchweg "Zuwächse") abseits vom Gaming beleuchten wollte.
HisN schrieb:
Oder es wird endlich mal Zeit für einen höher aufgelösten Monitor und angezogene Graka-Settings.
Mehr als 4K UHD möchte ich nicht, das sollte nun erst einmal reichen
ToaStarr schrieb:
Schon klar, aber im Subtext schwingt hier schon ein wenig "Intel-Bashing" mit und das ist in diesem Zusammenhang ganz sicher nicht angezeigt.
Aus der Formulierung von
@andi_sco konnte ich das jetzt nicht explizit herauslesen und sollte ich in meinem Artikel diesen Eindruck erweckt haben, so bitte ich das zu entschuldigen, denn gewollt war das zu keiner Zeit. Ich habe stets möglichst sachlich versucht, den direkten Vergleich zur neuen AMD-CPU, sowie aber auch den aktuellen Stand Intels zu beleuchten. Mit einem Core Ultra wäre ich sicherlich auch glücklich geworden (gewiss jedoch nicht mit einer CPU der 14. Core-Generation) und dennoch wollte ich insbesondere nach 22 Jahren Dauer-Kundschaft bei Intel etwas grundlegend anderes ausprobieren.
polloze schrieb:
@DJMadMax und / oder Community, bedarf es hier irgendwas spezielles noch oben drauf außer dem HDMI Anschluss Onboard?
polloze schrieb:
Kann ich damit dann einfach auf den Eingang am Onkyo gehen!?
Tatsächlich nicht, das funktioniert genau so: HDMI-Kabel dazwischen und ab dafür

Im Windows musst du selbstverständlich daran denken, das Audio-Ausgabegerät entsprechend zu konfigurieren bzw. als Standardgerät einzurichten, falls das gewollt ist.
Bedenke jedoch:
Ein angeschlossener AVR wird, auch wenn dort kein TV angeschlossen sein sollte, als Bildschirm erkannt. Leider gibt es im Windows keine Möglichkeit, diesen "Bildschirm" zu deaktivieren und gleichzeitig dennoch Ton über das HDMI-Kabel zu übertragen. Entweder alles oder gar nichts.
Das hat zwei Szenarien zur Folge:
1. du "klonst" den Desktop
2. du "erweiterst" den Desktop
Der Vorteil bei 1.:
Du kannst den Mauszeiger nicht versehentlich aus dem Bildschirm auf den AVR schieben.
Der Nachteil bei 1.:
Wenn der AVR es nicht unterstützt, kannst du in diesem Betriebsmodus kein HDR unter Windows / in den Spielen aktivieren. Hierfür musst du zuerst das Klonen deaktivieren und auf Duplizieren umstellen.
Der Vorteil bei 2.:
Du kannst on the Fly HDR aktivieren, auch wenn der angeschlossene AVR dies nicht unterstützt
Ein Trick bei Variante 2 ist noch, den als Bildschirm erkannten AVR in eine angrenzende Ecke des eigenen Bildschirms zu schieben, ungefähr so:
Das funktioniert (zumindest bei mir) aber auch eher schlecht als recht, denn sobald man die Maus auf Bildschirm 1 (dem einzigen Bildschirm in meinem Fall) irgendwo an den oberen Bildschirmrand schiebt, verschwindet sie trotzdem sofort und wird beim Herunterziehen immer in der rechten oberen Ecke wieder auf Bildschirm 1 gesetzt.
Von daher halte ich es so:
Ich habe das Setup dauerhaft auf "Klonen" gestellt. Lustigerweise funktioniert dabei dennoch 4K UHD bei 144 Hz und VRR/FreeSync Premium auf dem Hisense TV, obwohl der Denon AVR-X4000 das bei Weitem nicht kann. Windows bzw. der Nvidia-Grafiktreiber lässt es hier zu, beide Bildschirme mit unterschiedlichen Auflösungen und Wiederholraten zu betreiben, der Bildschirminhalt wird aber weiterhin geklont.
Anzeige Bildschirm 1 (Hisense TV)
Hier nicht irritieren lassen: im Screenshot steht, dass VRR nicht unterstützt wird. Das liegt lediglich daran, dass ich es im TV zuvor aktivieren muss, was ich aber standardmäßig deaktiviert habe.
Anzeige Bildschirm 2 (AVR)
Einzig HDR funktioniert beim Bildschirmklonen nicht. Will ich das also nutzen, dann stelle ich zuvor manuell auf den Erweitert-Betrieb um und aktiviere HDR auf der Hauptanzeige. Da beim Filmschauen oder Spielen die Maus sowieso nicht über den Bildschirmrand hinwegverschwinden kann, stört das also auch nicht und es sind lediglich drei, vier Mausklicks extra notwendig.
Holzinternet schrieb:
Wenn man für 1700 Euro netto im Monat arbeiten geht, Familie hat dann sind 1000 Euro für etwas Spielzeug sehr sehr viel.
I beg to differ. Ich komme aus einem extrem schlecht bezahlten Job in der Privatwirtschaft (den ich zum Glück vor etwas über 3 Jahren abgelegt habe) und kann mit Fug und Recht behaupten: wenn man normal arbeiten geht - auch unterbezahlt - dann kann man sich dennoch einen tollen Gaming-PC als Hobby leisten. Auch mit Familie kann man sich 50-100 Euro im Monat bei Seite legen und muss gegebenenfalls auf andere Dinge verzichten.
Der Klassiker wären Zigaretten und Alkohol. In meinem Fall war es wiederum so, dass ich 10 Jahre lang nicht im Urlaub war - also nicht weggefahren / geflogen, nichtmal ein Wochenend-Trip in irgend ein Hotel. Ich habe daher vielleicht nicht Koh Samui oder Madagaskar gesehen, dafür aber unzählige Stunden spaßiges Gaming sowie viele Filme und Retro-Spiele mit meiner Frau genossen.
Letztlich sucht man sich also selbst aus, wo man die Schwerpunkte anlegt. Mit mehr Geld ist vieles einfacher, aber wer nicht haushalten kann, der tut sich auch mit einem besserbezahlten Job schwer. Auch beim nächsten Autokauf kann man sich 1.000 oder 2.000 Euro sparen, indem man einfach die Ansprüche minimal zurückschraubt. Muss es der große Motor sein? Brauche ich zwingend eine Standheizung? Tut es auch ein Gebrauchter mit etwas mehr Laufleistung?
Es gibt immer Möglichkeiten, Geld einzusparen. Trink mal ein Jahr lang ausschließlich Leitungswasser oder meinetwegen (kalt aufgebrühten) Tee anstelle von Limos, Energy, dem allseits beliebten Bölkstoff, Kaffee...
"Neeee, auf meinen Kaffee will ich keinesfalls verzichten und ab und an ein Bierchen oder Cocktail, das gönne ich mir schon!"
Kann man tun - aber dann darf man sich eben nicht beschweren, wenn das Geld an anderer Stelle knapp wird. Ich gehe überdies davon aus, dass Videospiele spielen einen deutlich geringeren, negativen Einfluss auf die Gesundheit hat, als Kaffee, Zucker, Alkohol und Nikotin zu konsumieren.
Wie wäre es mit dem berühmten 1000 Euro-Handy mitsamt teurem Monatsvertrag? Tut es evtl. auch ein ~200 Euro-Handy und ein 10 Euro-Monatsvertrag?
Sorry, ich schweife ab - der Moralapostel in mir
Holzinternet schrieb:
Vielen fehlt Demut und auch Respekt anderen gegenüber.
Hier bin ich aber zu 100% bei dir. Mein Jahresgehalt hat sich glücklicherweise seit dem Stellenwechsel nahezu verdoppelt innerhalb der letzten 5 Jahre, was mir selbstverständlich vieles (so auch einen Gaming-PC und trotzdem den jährlichen Urlaub mit der Familie) deutlich einfacher fallen lässt.
Dennoch knausere ich an vielen Dingen und überlege mir dreimal, ob das nun wirklich sein muss oder nicht und ob ich bzw. meine Liebsten davon einen echten Mehrwert erfahre. Ich habe zum Glück nicht vergessen, wie verhältnismäßig "arm" ich früher war und wie viel leichter mir nun das ganz normale Leben in finanzieller Hinsicht fällt und ich hoffe inständig, dass das a) auf ewig so bleibt und b) ich diese Demut und Wertschätzung auch auf meine Tochter übertragen kann, den Respekt anderen gegenüber selbstverständlich auch.
Ohne nun in Grundsatzdiskussionen zu verfallen: den eigenen Job kann jeder in Deutschland ablegen und sich etwas anderes suchen. Ich habe mir 13 Jahre lang etwas vormachen lassen und mich schlichtweg nicht getraut, nach Alternativen zu suchen, bis es fast zu spät war. Covid 19, die damit verbundene Pandemie und über 9 Monate Kurzarbeit ohne Lohnausgleich haben mich letztlich zum Umdenken bewegt (obwohl ich schon verheiratet und Vater einer kleinen Tochter war) und siehe da: es hat sich gelohnt. Letztlich muss man einfach den Schritt wagen und sich aus der vermeintlichen Komfortzone heraustrauen.
Christi schrieb:
habe noch einen alten r9 5950x, der mit der 5070ti noch relativ gut mithält. gaming um die 100fps in jedem spiel (qhd) geht damit noch.
Schmeiß mal Horizon: Zero Dawn Remastered oder Starfield an, dann träumst du von 100 FPS. Ich verstehe zwar auch nicht, was an diesen beiden (und leider auch zunehmend mehr werdenden) Titeln so CPU-lastig sein soll, aber Fakt ist, dass selbst in simplen Solo-3D-Spielen teils unnachvollziehbar hohe Anforderungen an den Prozessor gestellt werden.