Spiele-PC zur Kindheitstraum-Erfüllung

@DJMadMax

Ich glaube in dem einen oder anderen Punkt haben wir wohl eine andere Meinung.
Fangen wir mal mit der GPU an
Wünschst du dir aber in möglichst vielen Titeln 150+ FPS, so wirst du auch mit einer RTX 4090 irgendwann an deine Grenzen stoßen bzw. an den Grafikreglern schrauben müssen.
Dem Stimme ich dir zu

Die Kunst hierbei ist also, jetzt die passende Grafikkarte zu wählen, die in Abhängigkeit deiner gewünschten Zieleinstellungen und Ziel-FPS möglichst viele Jahre durchhält und dennoch kostentechnisch vertretbar ist, sodass ein etwaiger Austausch in z.B. 5 Jahren nicht ganz so sehr wehtut.
Und genau hier fängt das Problem mit deiner Argumentation an siehe das fett schwarz gedruckte. Erklärung unten.
Eine 1500 Euro-Grafikkarte nach 5 Jahren zu tauschen würde auf's Jahr umgerechnet jeweils 300 Euro bedeuten - das ist nicht wenig. Eine RX 6900 XT hingegen kostet mit derzeit ca. 730 Euro nicht einmal die Hälfte - die jährlichen GPU-Kosten liegen also bei ca. 145 Euro.
Sehe ich nicht so Begründung folgt:

Du schreibst selber siehe oben das selbst eine RTX 4090 irgendwann an die Grenzen stoßen wird und man mit den Grafikregelern spielen muss . Dies ist absolut richtig, genauso auch eine passende Grafikkarte in Abhängigkeit der Zieleinstellung (FPS).

Der Haken an der Geschichte ist aber folgender:
Die RX 6900 hat 2 Jahre auf dem Buckel, RT im Verhältnis gesehen sehr schlecht und sie schafft heute noch nicht einmal überall die 144FPS. Sprich er muss je nach Titel heute schon den Grafikregler bedienen bzw. auf Dinge verzichten. Warum ca. 730€+ ausgeben und jetzt schon unter gewissen Umständen den Grafikregler bedienen zu müssen erschließt sich mir nicht. Da brauch ich auch keine Rechnung mit 5 Jahren machen weil ich davor schon solch ein Frust habe das die Karte gar nicht so lange in meinem Rechner bleiben würde. Das Resultat ist er wird sich viel früher eine andere GPU kaufen. (hängt natürlich von seinen Spielen ab) Darüber hinaus steht das auch stark im Widerspruch zu.
Bin lange auf Sparflamme unterwegs gewesen und freu mich auf den Wow-Effekt
Kurz und knapp warum sollte ich mir eine "Bremse" kaufen, mit den Einstellungen heute schon spielen... das bei einem Kindheitstraum? Ganz ehrlich nein und ich persönlich wäre super enttäuscht vor allem bei einem neuen Rechner.

Von daher - ich überzeuge mich beim Schreiben selbst immer mehr davon - JA! Nimm lieber die RX 6900 XT und sollte diese in 5 Jahren wirklich nicht mehr ausreichen, dann werden die Karten neu gemischt und der Wertverlust war nicht ganz so schwerwiegend, wie bei einer 1500 Euro-Karte.

Ich stell dir mal eine Fangfrage. Was wäre dir wichtiger? Der Wertverlust oder (sagen wir mal er spielt 3h täglich) 5 Jahre = 1825 Tage = 5475 Stunden = 228 Tage weniger Freude eventuell sogar Frust haben?

Mir persönlich wäre das Geld in dem Fall ziemlich egal weil mein Wohlbefinden und mein Spaß / Freude über Geld steht.

Wenn er noch warten kann, soll er bis Dezember warten bis die 7900XT rauskommt, das wird wahrscheinlich das beste sein was er machen kann.

Zum Thema USB.
Hier gibt's vier USB-C-Kabel für 11 Euro - so gut kann kein USB-C-Port am Gehäuse sein, als dass man das damit ersetzen könnte.
Verstehe deine Argumentation in dem Falle nicht wirklich bzw. worauf du hinaus willst.
Nur mal ein Beispiel:

USB-A vs. USB-C... What's The Difference? Für den technischen Hintergrund: Designing In USB Type-C and Using Power Delivery for Rapid Charging

Das Problem ist nicht das Gehäuse sondern eher das Mainboard. Mal zwei extreme Beispiele:
GIGABYTE Z790 Aero G Schnellladefunktionen 60W hinten am USB-C 3.1
ASUS ROG Maximus Z690 Hero Schnellladefunktionen vorne am Gehäuse USB-C 3.2 Key-A Header (20Gb/s, PD, max. 60W, QC4+)

Du kannst Daten schneller übertragen und sogar dein Handy schneller aufladen.
Ergänzung ()

@FireDancer10

Schau dir doch mal das Fractal Design Focus 2 schwarz an, eventuell gefällt dir das.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FireDancer10, DJMadMax und wrglsgrft
FireDancer10 schrieb:
Vielen Dank, auch insbesondere für die Erklärungen, sodass ich mir trotz fehlender Fachkenntnis selbst ein Bild machen kann.
Falls da irgendwo noch Bahnhöfe und böhmische Dörfer dabei sind - immer her damit, wir können auch ELI5 -> "Explain like I'm five" :D

FireDancer10 schrieb:
Beim Gehäuse und beim Lüfter bin ich noch bei meinen aktuellen geblieben. Ein größeres Gehäuse hilft mir Neuling im Zusammenbau bestimmt, alle Komponenten vernünftig reinzukriegen und da ich ja nicht weiß, welche Grafikkarten, Prozessoren und Co ich in Zukunft obendrauf setze, bin ich Fan von eher übertriebener Lüftung als der genau richtigen.
FireDancer10 schrieb:
Wobei ich bei beiden, Gehäuse und Lüfter - insbesondere Lüfter- schon überlege, ob ich nicht einfach euren Vorschlag nehme - kann jedoch recht schwer abschätzen, wie groß der Unterschied letztlich wäre...
Du musst bei der Gehäusegröße generell darauf achten, dass große CPU-Towerkühler genügend Platz haben, Ein Noctua NH-D15 (S/chromax.black) benötigt 165mm in der Höhe bis zur Seitenwand. Ein be quiet! Dark Rock Pro 4 baut ebenfalls mit üppigen 163 mm auf. Das Gehäuse sollte daher mindestens 165mm - eher sogar in Richtung 170mm aufweisen. Das kannst du im Geizhals-Filter bei den Gehäusen ganz praktisch einstellen. Bei der Grafikkartenlänge gilt das gleiche: heutige Grafikkarten haben schnell mal 340mm Länge, das sollte auch problemlos ins Gehäuse passen.

Das Fractal Design Pop Air bietet entsprechenden Platz und das Pop XL Air bietet nochmals mehr Platz. Gerade deine Argumentation bezüglich Erstlingswerk macht durchaus Sinn. Ein sehr enges, kleines Gehäuse erfordert auch ein wenig Geschick und Erfahrung beim Kabelmanagement, damit das ganze nicht nur weiterhin gut durchlüftet wird (wobei das Kabelmanagement hierbei eher vernachlässigbar ist), als dass es auch nicht ganz so katastrophal aussieht, wenn man mal einen Blick durch's Seitenfenster wirft :)

Diese Dinge solltest du einfach generell beachten. Ansonsten ist eine Mesh-Front absolute Pflicht bei leistungshungriger Hardware. Die entstehende Hitze muss einfach schnell wieder aus dem Gehäuse raus und das funktioniert erfahrungsgemäß am Besten mit einer Mesh-Front mit mindestens zwei 120er Lüftern in der Front sowie mindestens einem 120er im Heck. Das be quiet! Pure Base 500DX, welches ebenfalls zurecht sehr gerne empfohlen wird, ist hier eine Ausnahme: ab Werk kommt es mit nur einem Lüfter in der Front daher, dafür einem im Heck und einen oben im Gehäusedeckel ganz hinten. Das funktioniert soweit auch sehr gut, aber es schadet dennoch nicht, hier z.B. den oberen Lüfter einfach mit in die Front zu packen.

Wenn du bei deiner Gehäusewahl auf solche Dinge achtest, ist eigentlich alles möglich und die Auswahl riesig. Dann stellt sich lediglich noch die Frage, ob die ab Werk installierten Lüfter auch leise genug sind und ob sie den eigenen Wünschen wie z.B. (A)RGB genügen. Andernfalls muss man hier nachkaufen, was auch schnell in's Geld gehen kann - zumindest, wenn es gute ARGB-Lüfter sein sollen.

FireDancer10 schrieb:
ich kann gefahrlos die KF Variante ohne interne Grafik nehmen, oder? Ich habe nicht vor, den Prozessor je ohne Grafikkarte laufen zu lassen
Das kannst du bedenkenlos tun. Die Nicht-F-Varianten sind halt sinnvoll, wenn du einfach nur Ausfallsicherheit haben willst und im Grafikkarten-Defektfall nicht wochenlang komplett ohne PC darstehen willst. Da musst du einfach abwägen, ob es hier Sinn macht, auf die 15-20 Euro zu verzichten.

FireDancer10 schrieb:
Aber ins Grübeln bringt mich die erhöhte Anforderung an die Kühlung und generell auch die extrem hohe Mehraufnahme von Energie. Falls ich es wirklich niemals brauche für das Gaming ist das schon ein hoher Preis, den man hierfür zahlt
Der 13700K "KANN" deutlich mehr Strom aufnehmen - das tritt aber eher weniger im Spiele- als mehr im Anwendungsbereich unter Volllast auf. Schau dir dazu einfach hier die Tabelle von ComputerBase an. Es ist nicht ganz so dramatsich, aber ja: der 13700K gönnt sich im Spielebetrieb im Schnitt dennoch ca. 20 Watt mehr als der 13600K. Das macht sich in der Stromrechnung jetzt nicht allzu sehr bemerkbar, dafür eventuell wieder in Sachen Kühlung und Silent-Betrieb. Einen 13600K würde ich bedenkenlos mit einem Scythe Fuma 2 Rev. B betreiben wollen, einen 13700K würde ich sicherheitshalber in die Luftkühler-Meisterklasse stecken mit einem Noctua NH-D15, der Optik wegen die chromax.black-Version.

Paradox.13te schrieb:
Ich glaube in dem einen oder anderen Punkt haben wir wohl eine andere Meinung.
Na, wäre auch komisch, wenn's anders wäre :)

Paradox.13te schrieb:
Die RX 6900 hat 2 Jahre auf dem Buckel, RT im Verhältnis gesehen sehr schlecht und sie schafft heute noch nicht einmal überall die 144FPS.
Und wie du selbst schon sagtest, ist das auch mit einer RTX 4090 nicht der Fall. Es wird immer irgend ein Spiel und irgend ein Szenario geben, das selbst aktuellste High End-Hardware spielend in die Knie zwingt, wenn man sämtliche Regler auf Anschlag dreht. Fun Fact, das war selbst 1994 bei Duke Nukem in popeligen 640x480 schon so - da gab es keinen Prozessor und keine Grafikkarte am Markt, die in der Lage gewesen wäre, das im Software-Rendering flüssig (im heutigen Maßstab: bei 60 FPS) darzustellen. Damals galten übrigens 30 FPS bereits als ein flüssiges, immersives Spiele-Erlebnis.

Paradox.13te schrieb:
Ich stell dir mal eine Fangfrage. Was wäre dir wichtiger? Der Wertverlust oder (sagen wir mal er spielt 3h täglich) 5 Jahre = 1825 Tage = 5475 Stunden = 228 Tage weniger Freude eventuell sogar Frust haben?
Ich denke, du übertreibst hier ein wenig. Wieso sollte man Frust mit dem PC haben, nur weil man nicht in jedem Spiel 144+ FPS erreicht? In schnellen Shootern oder Rennsimulatione sind FPS im dreistelligen Bereich wünschenswert, keine Frage. Wie schaut's denn mit Aufbaustrategie, Rollenspiel, Adventure, jedweder Indie-Krempel, pipapo? Cyberpunk 2077 ist kein Shooter, nur zur Info.

Achja, Raytracing: da fragen wir doch einfach mal @FireDancer10 ob das überhaupt ein nennenswertes, wichtiges Feature ist. Am Besten hierzu mal die aktuelle Sonntags-Umfrage durchlesen. Auch das Ergebnis in den Abstimmungen ist sehr interessant. Dass Raytracing weiterhin nur eine Augenwischerei und Spielerei ist, sollte jedem klar sein. Das wird irgendwann in jedem noch so popeligen Titel zum Standard, keine Frage. Aktuell befinden wir uns aber an exakt der selben Stelle, an der wir uns auch schon in der Vergangenheit so oft befanden. Ich kann mich noch sehr gut an den Umstieg von 16 Bit Farbtiefe auf 32 Bit Farbtiefe erinnern. Zu Riva TNT2-Zeiten war das DAS Totschlag-Argument der nVidia-Fraktion gegenüber den Voodoo-Jüngern, die ihrerseits nur mit "trüben" 16 Bit unterwegs waren. Dass aber praktisch kein Spiel in 32 Bit Farbtiefe spielbar war, weil's zur gigantischen Ruckelorgie zwecks mangelnder Grafikleistung auf nVidia's Seite kam, das wurde gern mal unter den Tisch gewischt bei den hitzigen Diskussionen :) Gleiches kam später beim Thema AntiAliasing aus. Toll, wie das im Standbild aussieht: aber spielbar war das Ganze zur ersten und zweiten GeForce-Generation noch lange nicht. Heute ist es selbstverständlich, 4x AA in jedem Titel zu aktivieren und dabei nur eine geringe Prozentzahl an Performance einzubußen.

Und genau so wird es auch mit Raytracing kommen - die Frage ist einfach nur: wann? Jetzt ist es ganz gewiss noch nicht so weit und nur, weil es eine Hand voll Spiele gibt, die mittels Raytracing im Standbildvergleich (!) in ein paar Szenen eine hübschere Reflektion in die Pfütze zaubern, als wie es mit einem klassischen Shader der Fall ist - na, ich weiß ja nicht.

Aber hier siehst du, wie die Meinungen auseinandergehen. Ich halte solche Dinge für Augenwischerei und Werbegestammel, denn einen echten Mehrwert bietet es einfach noch nicht, ausser eben, dem Kunden das Geld aus der Tasche zu ziehen. Die Argumentation dafür führst du ja selbst auf.

Paradox.13te schrieb:
Wenn er noch warten kann, soll er bis Dezember warten bis die 7900XT rauskommt, das wird wahrscheinlich das beste sein was er machen kann.
Das sehe ich allerdings genauso. Deswegen weise ich auch immer darauf hin: brennt's unter den Fingernägeln wie Hölle oder kann noch bis zum anstehenden Release XYZ abgewartet werden. Der Release muss ja nichts an der ursprünglichen Entscheidung ändern, aber dann hat man definitiv die Sicherheit, das richtige zu kaufen.

Paradox.13te schrieb:
Paradox.13te schrieb:
Du kannst Daten schneller übertragen und sogar dein Handy schneller aufladen.
Nenne mir bitte auch nur ein Szenario, in dem es wichtig ist, dass der PC dank USB C-Schnittstelle (die die Mainboards sowieso auf der Rückseite haben, das Gehäuse braucht es weiterhin nicht) schneller laden kann. Mein PC ist doch kein Ladegerät, von denen ich obendrein zu Hauf welche rumliegen habe - mit vier Ports, mit Quickcharge, und und und.

Zur Datenübertragung: was überträgst du denn permanent über USB C, dass du hier unbedingt einen Header am Gehäuse deines PCs benötigst? Vielleicht verwenden wir Gaming-Computer einfach grundsätzlich unterschiedlich. Ich jedenfalls habe selbst mit der Oculus Quest 2 über den USB 3.x A-Anschluss meines Gehäuses überhaupt keine Probleme und hier benötigt die Quest 2 eine sichere, dauerhafte Verbindung von mindestens 5 GBit/s und 3A, um zuverlässig zu funktionieren. Kein USB-C notwendig dafür.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wrglsgrft, FireDancer10 und Paradox.13te
DJMadMax schrieb:
Ich denke, du übertreibst hier ein wenig. Wieso sollte man Frust mit dem PC haben, nur weil man nicht in jedem Spiel 144+ FPS erreicht? In schnellen Shootern oder Rennsimulatione sind FPS im dreistelligen Bereich wünschenswert, keine Frage. Wie schaut's denn mit Aufbaustrategie, Rollenspiel, Adventure, jedweder Indie-Krempel, pipapo? Cyberpunk 2077 ist kein Shooter, nur zur Info.

Natürlich war das ein wenig übertrieben. Worauf ich hinaus wollte hast ja verstanden. Das waren seine Angaben dazu,
Shooter mit hohen FPS

DJMadMax schrieb:
Und genau so wird es auch mit Raytracing kommen - die Frage ist einfach nur: wann? Jetzt ist es ganz gewiss noch nicht so weit und nur, weil es eine Hand voll Spiele gibt, die mittels Raytracing im Standbildvergleich (!)

Du übertreibst es hier auch ein wenig :D
Eine Hand voll Spiele schaut nicht so aus: Here are all the confirmed ray tracing and DLSS games so far
Wenn ich zynisch bin würde ich sagen als die RTX 3080 raus gekommen ist wurde hier im Forum noch darüber gelacht, selbst heute noch runtergespielt. Auf einmal wird es bei der 7900 gefeiert. AMD hat das verstanden hat, Intel hat das verstanden und ja selbst Qualcomm hat es verstanden. Der nächste Snapdragon unterstützt RT in Echtzeit

Und wie groß das Geheule hier auf CB war zu dem Thema konnte man hier wunderbar sehen Warhammer 40K Darktide: Für Raytracing wird bereits eine RTX 4080 empfohlen

DJMadMax schrieb:
Nenne mir bitte auch nur ein Szenario, in dem es wichtig ist, dass der PC dank USB C-Schnittstelle (die die Mainboards sowieso auf der Rückseite haben, das Gehäuse braucht es weiterhin nicht) schneller laden kann. Mein PC ist doch kein Ladegerät, von denen ich obendrein zu Hauf welche rumliegen habe - mit vier Ports, mit Quickcharge, und und und.
Das muss man ziemlich individuell betrachten wo das Ladegerät ist, Steckdose etc etc. Steht dein Tower unter dem Tisch und keine Steckdose ist in Reichweite wirst wohl kaum jedes mal unter den Tisch krabbeln. Wenn mein Handy neben mir laden tut brauch ich nicht aufstehen, ich brauch keine x Ladegeräte etc da langt ein Kabel. :D Sorry ich bin einfach Faul
DJMadMax schrieb:
Vielleicht verwenden wir Gaming-Computer einfach grundsätzlich unterschiedlich.
Das wird es wohl sein
 
  • Gefällt mir
Reaktionen: DJMadMax und wrglsgrft
Paradox.13te schrieb:
Das muss man ziemlich individuell betrachten wo das Ladegerät ist, Steckdose etc etc. Steht dein Tower unter dem Tisch und keine Steckdose ist in Reichweite wirst wohl kaum jedes mal unter den Tisch krabbeln. Wenn mein Handy neben mir laden tut brauch ich nicht aufstehen, ich brauch keine x Ladegeräte etc da langt ein Kabel. :D Sorry ich bin einfach Faul
Du hast also wirklich USB-C auf USB-C Kabel? Ich verstehe den Sinn und Zweck dahinter weiterhin nicht. USB-C ist nur eine physikalische Form eines Steckers und kein Übertragungsprotokoll. Du kannst deinen USB-A Stecker am Gehäuse doch problemlos mit einem USB 3.2-Header auf dem Mainboard verbinden. Es erschließt sich mir einfach nicht, wozu man eine USB-C-Schnittstelle am PC braucht, ausser eben, um einen der exotischen USB-C-Sticks daran anschließen zu können.
 
Diskussion hilft, mehrere Meinungen auch - gut, da etwas mitzulesen. Das heißt aus deiner Sicht @Paradox.13te , wäre die 6900 nicht der gehoffte Wow-Effekt, sondern eigentlich schon jetzt ein etwas veraltetes Modell. Schon ein fairer Punkt. Prinzipiell kann ich ja auch in der Blackweek sämtliche anderen Komponenten anschaffen und warte dann nur mit der Grafikkarte noch die zusätzlichen 6 Wochen.

Um auf dein USB-C Argument einzugehen müsste ich aber auch von dem B660er Mainboard weg, richtig?

Dein vorgeschlagenes Gehäuse habe ich mir angesehen - finde ich auch wirklich nicht schlecht! Da fehlt mir aktuell wirklich das Kriterium, gut von schlecht zu unterscheiden. Grundsätzlich passen die alle für mich, ehrlich gesagt :D
 
PCTüftler schrieb:
Die 770er hat ja leider nur SLC Cache.
...was im Gaming-PC inwiefern störend ist? Es ist immer leicht, das Geld anderer auszugeben. Die WD SN770 kostet 140 Euro, die von dir vorgeschlagene kostet 180 Euro und eine gängig empfohlene KC3000 kostet über 200 Euro. Erneut: für Dinge, die auf dem Papier stehen. Welches Szenario gibt es denn, in dem man seinen Datenspeicher mehrere Minuten lang mit maximaler Datenrate befüllt? Alleine hierfür müsste man schon ZWEI SSDs besitzen, um überhaupt solche Datenraten zustande zu bekommen.
 
DJMadMax schrieb:
Du hast also wirklich USB-C auf USB-C Kabel?
Ja. Google war damals schon so freundlich mit dem Pixel 3, Selbst Apple ist schon so freundlich und gibt dir USB-C auf Lightning zumindest bei meinem 11er.
FireDancer10 schrieb:
Diskussion hilft, mehrere Meinungen auch - gut, da etwas mitzulesen. Das heißt aus deiner Sicht @Paradox.13te , wäre die 6900 nicht der gehoffte Wow-Effekt, sondern eigentlich schon jetzt ein etwas veraltetes Modell. Schon ein fairer Punkt.

Richtig ist das es jetzt schon ein etwas veraltetes Modell ist. Falls du Spiele spielen willst mit RT und sehr hoher Qualität dann ist sie die falsche Karte. Sie kann RT aber hinkt von der Leistung deutlich bis sehr deutlich hinterher. Das Problem hast heute schon, was nächstes Jahr kommt steht in den Sternen, aber besser wird es nicht.
AMD hat das selber schon erkannt deswegen wird die 7900XT da auch ein Schritt machen.

FireDancer10 schrieb:
Prinzipiell kann ich ja auch in der Blackweek sämtliche anderen Komponenten anschaffen und warte dann nur mit der Grafikkarte noch die zusätzlichen 6 Wochen.

Wenn du warten kannst tue das. Ist in deinem eigenen Interesse in doppelter Hinsicht.
1. Du hast mehr Auswahl
2. könnte der Preis der RTX 4080 nach dem Release billiger werden.

FireDancer10 schrieb:
Um auf dein USB-C Argument einzugehen müsste ich aber auch von dem B660er Mainboard weg, richtig?
Nein, ein B660 Mainboard unterstützt USB-C
FireDancer10 schrieb:
Dein vorgeschlagenes Gehäuse habe ich mir angesehen - finde ich auch wirklich nicht schlecht! Da fehlt mir aktuell wirklich das Kriterium, gut von schlecht zu unterscheiden. Grundsätzlich passen die alle für mich, ehrlich gesagt :D
Freut mich wenn es dir gefallen tut. Ist halt wirklich schlicht
 
  • Gefällt mir
Reaktionen: FireDancer10 und DJMadMax
In puncto Grafikkarte gehe ich mit Commander Paradox und warte auf die neuen AMD - entweder, um direkt eine von denen zu holen oder die 4080 ggf. günstiger zu ergattern.

Während ich nach euren Hinweisen fleißig die Angebote zu den Komponenten beobachte und versuche, mich schon einmal weiter reinzufuchsen für den Zusammenbau, sind mir noch zwei Dinge aufgefallen:

Falls ich aus Nostalgiegründen unnötigerweise den 13700er nehme und zusätzlich auf eine Grafikkarte der neueren Generation gehe - reicht dann noch ein 750W Netzteil aus, oder muss ich auf 850 gehen? Ich will nicht überdimensionieren, aber mir ja ggf. auch noch Aufrüstungen offen halten.

Zweite Frage: Ich habe gesehen, dass das B660 nur Display-Port 1.2 kann - im Internet gibt es strittige Aussagen, bis wie viel Hz DP 1.2 unterstützt. Ich habe jetzt gehört, dass für full hd bis 240 hz möglich ist (was mir ausreichen würde) - bin aber nicht ganz sicher. Gibt es dazu hier Expertenwissen, was die etwas widersprüchlichen Google-Antworten verifizieren kann?


Danke euch nochmal! Spätestens zu Blackfriday wird Vollzug gemeldet. Himmel, bin ich schon aufgeregt!

---

EDIT:

Habe etwas herumgeguckt:

Das B660 von Gigabyte habe ich aktuell
https://geizhals.de/gigabyte-b660-gaming-x-ddr4-a2662761.html?hloc=at&hloc=de

Alternativ gäbe es das von MSI beispielsweise:
https://geizhals.de/msi-pro-b660-a-ddr4-7d59-001r-a2661026.html?hloc=at&hloc=de

Ich bin aber etwas verloren, ob es nun alle anderen Dinge hat, die ich später für meine Komponenten benötige.. z.B. hat es nicht den USB BIOS Flashback/Q-Flash Plus (intern)-Button, von dem ich mal gelesen habe, das sei nötig, um ein B660 noch mit einem 13700er zu betreiben, weil das Mainboard erst einmal an den Strom angeschlossen und sich updaten muss, um die neue Prozessorgeneration tragen zu können.

Hm, je mehr man liest, desto komplizierter wird es :D

EDIT 2: Und PCI 5.0 bräuchte ich eigentlich auch, wenn ich auf die neueste Grafikkartengeneration gehen möchte, oder? Um keine Engpässe am Mainboard zu erzeugen... Oder ist das dasselbe Thema, was wir zu DDR5 schon hatten -> Hat einen Impact, aber keinen nennenswerten oder für den durchschnittlichen Gamer fühlbaren?

EDIT 3: Ich glaube, das mit dem Display Port hab ich jetzt verstanden^^ Der Display Port geht ja einfach über die Grafikkarte, also müsste es gleich sein, wenn am B660 nur ein DP 1.2 ist. Richtig? Ich frage mich dann nur, warum es dort überhaupt einen gibt... Dann bliebe aber nur noch das PCI 5.0 Thema

Sorry für all die Fragen und wirren Gedanken. Aber für mich ein gutes Zeichen: Das heißt, ich komme langsam rein in die Materie :D
 
Zuletzt bearbeitet:
FireDancer10 schrieb:
EDIT 3: Ich glaube, das mit dem Display Port hab ich jetzt verstanden^^ Der Display Port geht ja einfach über die Grafikkarte, also müsste es gleich sein, wenn am B660 nur ein DP 1.2 ist
Du willst doch ein eine GPU einbauen, dann ist der DP Anschluß des Mainboards irrelevant.
 
FireDancer10 schrieb:
Falls ich aus Nostalgiegründen unnötigerweise den 13700er nehme und zusätzlich auf eine Grafikkarte der neueren Generation gehe - reicht dann noch ein 750W Netzteil aus, oder muss ich auf 850 gehen? Ich will nicht überdimensionieren, aber mir ja ggf. auch noch Aufrüstungen offen halten.
750 Watt sollten in Verbindung mit einer RTX 4080 mehr als genug sein, auch wenn ein 13700K zum Einsatz kommt. Mit 800 Watt und mehr hast du natürlich noch mehr Overhead, rutschst aber im allgemeinen Desktop-Betrieb bzw. bei mittlerer Last immer weiter in den weniger effizienten Bereich des Schaltnetzteils.

Unter'm Strich ist es also irgendwann eine Gewissensfrage. Wenn du dich mit 850 Watt sicherer fühlst, dann nimm eins aus dieser Leistungsklasse der gängigen Hersteller. Corsair RMx (2021), FSP Hydro, Fractal Ion Gold, Seasonic Focus oder Prime und noch einige andere kann man weiterhin bedenkenlos nehmen.

FireDancer10 schrieb:
Ich bin aber etwas verloren, ob es nun alle anderen Dinge hat, die ich später für meine Komponenten benötige.. z.B. hat es nicht den USB BIOS Flashback/Q-Flash Plus (intern)-Button, von dem ich mal gelesen habe, das sei nötig, um ein B660 noch mit einem 13700er zu betreiben, weil das Mainboard erst einmal an den Strom angeschlossen und sich updaten muss, um die neue Prozessorgeneration tragen zu können.
Behalte dein Gigabyte-Board. Ich sehe auch keinen Grund, wieso du das wechseln solltest.

FireDancer10 schrieb:
EDIT 2: Und PCI 5.0 bräuchte ich eigentlich auch, wenn ich auf die neueste Grafikkartengeneration gehen möchte, oder? Um keine Engpässe am Mainboard zu erzeugen... Oder ist das dasselbe Thema, was wir zu DDR5 schon hatten -> Hat einen Impact, aber keinen nennenswerten oder für den durchschnittlichen Gamer fühlbaren?
Falls du deshalb über ein anderes Board nachdenkst: PCIe 5.0 hat tatsächlich nicht einmal einen messbaren Impact auf derzeitige Grafikkarten. Selbst PCIe 3.0 wäre noch schnell genug für eine RTX 4090.

Von daher würde ich mir an dieser Stelle erst einmal keine Sorgen machen.
 
Zurück
Oben