PC Komponenten/Hardware Beratung - Budget spielt k(eine) Rolle

BUGEE

Cadet 3rd Year
Registriert
Jan. 2014
Beiträge
52
1. Möchtest du mit dem PC spielen?

Ja
  • CoD, BF, CS, VR-Spiele
  • Auflösung am liebsten, wenn möglich 4K Ultra HD (3840x2160)
  • Ultra hohe Grafikeinstellungen
  • Je mehr FPS, desto besser - eben was möglich ist

2. Möchtest du den PC für Bild-/Musik-/Videobearbeitung oder CAD nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?

Nein

3. Hast du besondere Anforderungen oder Wünsche (Overclocking, ein besonders leiser PC, RGB-Beleuchtung, …)?

RGB-Beleuchtung; zu laut sollte es nun auch nicht sein.

4. Wieviele und welche Monitore möchtest du nutzen? Anzahl, Modell, Auflösung, Bildwiederholfrequenz (Hertz)? Wird FreeSync (AMD) oder G-Sync (Nvidia) unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)

2 Monitore, welche später angeschafft werden. - Ich denke da an 144hz+ und Gsync - außer ihr ratet mir zu etwas anderem. Aktuell nutze ich 2 "stinknormale" 27" HP-Monitore.

5. Hast du noch einen alten PC, dessen Komponenten teilweise weitergenutzt werden könnten? (Bitte mit Links zu den Spezifikationen beim Hersteller oder Preisvergleich!)

Nein

6. Wie viel Geld bist du bereit auszugeben?

Kommt natürlich auf die HW und den Nutzen drauf an. Wenn ich weiß, das reicht mir die nächsten 50 Jahre, dann kann es natürlich auch mehr kosten =)

7. Wann möchtest du den PC kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?

Kann sofort sein, muss aber nicht. Ich kann mich auch noch etwas Gedulden - Sollte ich evtl. auf PCIe 4.0 warten?

8. Möchtest du den PC selbst zusammenbauen oder zusammenbauen lassen (vom Shop oder von freiwilligen Helfern)?

Selber bzw. Helfer (aus der Liste)


Ich schreibe noch dazu, was ich liebäugele:

Gehäuse: Lian Li O11 Dynamic XL
GPU: RTX3080
Mainboard: eins mit Sockel 1200 oder 2066
CPU: i9-10900K, wenn Sockel 1200
Netzteil: Habe ich bereits ein Corsair AX850 80 Plus Titanium
Kühlung: offen
RAM: offen

Ist meine Auswahl OK oder was könnt ihr mir empfehlen?
Welcher Sockel?
Welche CPU?
Welches Board?
Mein Netzteil mit 850W sollte definitiv ausreichen, so wie es mir mitgeteilt wurde.
Oder doch lieber AMD etc?
Macht Gsync überhaupt Sinn bzw. macht das einen so krassen Unterschied, dass es sich lohnt oder was hat es für Vorteile?


Würde mich freuen, wenn ich hier ein paar hilfreiche Antworten erhalte.
 
Der PC dient doch nur zum reinen Gamen. Nur Gamen? Kein Twitch Streamen, Nichts?

Wenn es so ist, was soll dann der i9-10900K? Weiter verzögert sich ein Kauf, da RTX3080 nicht verfügbar sind oder schnell verkauft sind, wenn der ein o. andere Händler welche bekommt. Da muss du wahrscheinlich noch bis Februar warten.
 
Ich würde es beispielsweise so machen:

AMD Ryzen 9 5900X https://geizhals.de/amd-ryzen-9-5900x-100-100000061wof-a2392526.html (Sobald er denn mal zu einem vernünftigen Preis lieferbar ist.)
MSI MPG B550 Gaming Carbon WIFI https://geizhals.de/msi-mpg-b550-gaming-pro-carbon-wifi-a2295003.html 185€
(oder MSI MAG X570 Tomahawk WIFI https://geizhals.de/msi-mag-x570-tomahawk-wifi-a2283303.html 200€)
Crucial BL2K16G36C16U4BL
https://geizhals.de/crucial-ballistix-rgb-schwarz-dimm-kit-32gb-bl2k16g36c16u4bl-a2222854.html 180€
Noctua NH-D15S chromax.black https://geizhals.de/noctua-nh-d15s-chromax-black-a2412232.html 89€
AMD Radeon RX 6800XT (Sobald sie denn mal zu einem vernünftigen Preis lieferbar ist.)
(z.B. Sapphire RX 6800XT Nitro+ https://geizhals.de/sapphire-nitro-radeon-rx-6800-xt-11304-02-20g-a2420905.html
oder PowerColor RX 6800XT Red Devil https://geizhals.de/powercolor-radeon-rx-6800-xt-red-devil-axrx-6800xt-16gbd6-3dhe-oc-a2433666.html)
Samsung SSD 970 EVO Plus 2TB
https://geizhals.de/samsung-ssd-970-evo-plus-2tb-mz-v7s2t0bw-a1972736.html 249€
be quiet! Straight Power 11 Platinum 750W https://geizhals.de/be-quiet-straight-power-11-platinum-750w-atx-2-51-bn307-a2204672.html 144€
(oder Seasonic Prime PX-750 750W https://geizhals.de/seasonic-prime-px-750-750w-atx-2-4-prime-px-750-a2123846.html 165€)
Fractal Design Define 7
https://geizhals.de/fractal-design-define-7-light-tempered-glass-black-fd-c-def7a-02-a2239831.html 145€
(oder Fractal Design Meshify S2 https://geizhals.de/fractal-design-meshify-s2-black-tg-light-tint-fd-ca-mesh-s2-bko-tg-a1968614.html 133€)
---
Gigabyte M27Q
https://geizhals.de/gigabyte-m27q-a2382972.html 350€

----------------

Soweit mein Vorschlag.

Die Alternative wäre halt ein
Intel Core i9-10900K https://geizhals.de/intel-core-i9-10900k-bx8070110900k-a2291009.html 569€
(oder Intel Core i9-10850K https://geizhals.de/intel-core-i9-10850k-bx8070110850k-a2341363.html 425€
)
auf einem Z490 Mainboard und eine RTX 3080 (die genauso wenig lieferbar ist wie eine RX 6800XT).

----------------

G-Sync/FreeSync?

Die Bildwiederholrate gibt an wie oft pro Sekunde das Bild auf dem Monitor wechselt.
Angegeben in Hz (Hertz) beim Monitor oder in FPS (Bilder pro Sekunde) bei der Grafikkarte.

Ein normaler Monitor hat in der Regel 60Hz, kann also 60 Bilder pro Sekunde darstellen.
Nun ist dein Rechner (CPU/Grafikkarte usw.) leistungsstark genug, das ein Spiel mit z.B. 134 Hz läuft.
Die Grafikkarte wäre also in der Lage 134 Bilder pro Sekunde auszugeben und macht das auch.

Der Monitor kann aber nur 60Hz, also 60 Bilder pro Sekunde, darstellen.
Das bedeutet das Bilder gerendert werden, z.B. eine Bewegung, du aber nicht jedes Bild davon sehen kannst. Das Bild sieht "unregelmäßig abgehackt" aus. Das nennt man auch Tearing.

Dieses Phänomen ist immer da, wenn die Menge an gerenderten Bildern pro Sekunde nicht mit der Menge an dargestellten Bildern pro Sekunde übereinstimmt.
(Das war jetzt vereinfacht ausgedrückt. Korrekt wäre das in dem Fall zwei oder mehr zeitlich unterschiedliche Bilder gleichzeitig dargestellt werden, Stichwort z.B. FrameTime oder FramePacing.)

An dieser Stelle könnte man noch Framebuffer, Front- und Backbuffer sowie PageFlip erklären. Das spare ich mir mal...

Jetzt gibt es VSync. Vertikale Synchronisation. Warum vertikal?
Das stammt ursprünglich aus der Zeit der Röhrenmonitore, die noch mit Halbbildern bzw. Zeilensprungverfahren arbeiteten.
Die Grafikkarte liefert erst dann ein neues Bild sobald das aktuelle Bild vollständig dargestellt ist.
(Bei Röhrenmonitoren also erst dann wenn der Elektronenstrahl Zeile für Zeile durchgegangen ist und vertikal wieder zurückspringt, um mit dem nächsten Bild weiterzumachen.)

VSync bedeutet das die Grafikkarte künstlich "gedrosselt" wird und maximal nur so viele Bilder berechnet und ausgibt wie der Monitor tatsächlich darstellen kann.
Also z.B. 60 Bilder pro Sekunde. Das sieht dann weniger "abgehackt" aus. Das führt aber dazu das Bewegungen gleichmäßig "ruckeln" und die Latenz kann ansteigen.

Seltsamerweise ist man es bei Kinofilmen gewohnt das diese mit sogar nur 24 bzw. 25 Bildern pro Sekunde laufen. Bei Computerspielen wird das aber als störend empfunden...
Achtung. Das kann natürlich trotzdem heißen das ein Spiel mit weniger FPS gerendert wird als der Monitor darstellt.

Nun gibt es ein verbessertes System: Adaptive Sync. Das ist Teil des VESA-Standards (Video Electronics Standards Association) seit 2009.
Aber natürlich bieten die beiden großen Hersteller entsprechende, eigene Lösungen an:
nVidia nennt es G-Sync, AMD nennt es FreeSync. Beide Systeme sind nicht kompatibel untereinander. Beide machen aber das gleiche.
Und sowohl der Monitor als auch die Grafikkarte müssen es beherrschen.

Beide nutzen das sogenannte Blanking-Intervall (VBLANC) des Monitors, zu Deutsch "Austast-Intervall", um die Bildwiederholrate dynamisch bzw. variabel zu gestalten.
Grob gesprochen ist das der Moment zwischen dem Ende der Darstellung eines Frames und dem Beginn der Darstellung eines neuen Frames. (Stammt ebenfalls noch aus der Zeit der Röhrenmonitore.)
nVidia nutzt dazu einen zusätzlichen Hardware-Scaler, der im Monitor verbaut sein muss. AMD kommt ohne aus und orientiert sich näher am VESA Standard Adaptive Sync.

Monitore mit G-Sync sind aufgrund von Lizenzkosten und der notwendigen Zusatzplatine meist etwas teurer als Monitore mit FreeSync.
Seit einiger Zeit unterstützt auch nVidia offiziell FreeSync. Allerdings ist nicht jeder FreeSync-Monitor kompatibel. Es gibt bei nVidia aber eine Liste und hier im Forum gibt es auch eine.
Bei Geizhals kann man mittlerweile auch die Kategorie "NVIDIA G-Sync Compatible" auswählen.

Es gibt nämlich ein weiteres Problem. Die FPS, die gerendert werden, sind nie konstant, sondern schwanken mitunter sehr stark.
Sind nicht viele Objekte usw. im Bild, können mehr Bilder berechnet werden als wenn sehr viel los ist auf dem Bildschirm und du dich auch noch schnell durch diese virtuelle Welt bewegst.

Dieses System sorgt nun dafür das der Monitor genau die Bilder pro Sekunde darstellt, die die Grafikkarte aktuell liefert.
Es gibt also keine feste Bildwiederholrate mehr, sondern sie passt sich kontinuierlich an die FPS, die die Grafikkarte liefert, an.
Natürlich bis zum für den Monitor maximal technisch darstellbaren.

Monitore mit G-Sync oder FreeSync können nämlich oft mehr als 60 Bilder pro Sekunde darstellen. Diese haben meist 144Hz oder mehr.
(Monitore, die mit mehr als 144Hz angegeben werden (z.B. 165Hz), haben oft auch nur ein 144Hz Panel, dass aber quasi "übertaktet" wird.
Eine Technik, die man seit Jahren von Fernsehern kennt, bei denen das Panel auch gerne übersteuert wird.)

Warum eigentlich die krumme Zahl 144Hz? Das nennt man auch "Triple Flash", entspricht 3x48Hz und stammt ursprünglich aus der Kino-Technik.
Normale Kinofilme (auf den jahrzehntelang üblichen Filmrollen) laufen mit 24 Bildern pro Sekunde, wobei aber jedes Bild zweimal dargestellt wird durch einen Shutter.
Auf der Leinwand kommen also 48 Bilder pro Sekunde an. Bei einer modernen Digitalprojektion funktioniert das etwas anders.

Wird das Spiel konstant mit mehr als 144Hz gerendert, hast du wieder das gleiche Problem wie ohne G-Sync/FreeSync.
Da diese Monitore aber fast immer eine entsprechend hohe Auflösung haben und der Spieler die Einstellungen der Spiele entsprechend höher dreht (weil die Darstellung flüssiger aussieht),
spielt das aber kaum eine Rolle.

Input Lag ist wieder was anderes und hat nichts mit dem oben genannten zu tun.
Input Lag bedeutet nichts anderes als die Zeit, die vergeht, bis das gerenderte Bild, von der Grafikkarte kommend, im Monitor verarbeitet, dargestellt und in deinen Augen angekommen ist.
Oder anders formuliert, die Latenz zwischen der Mausbewegung und der wahrgenommenen Bewegung auf dem Bildschirm.

Das hat nichts mit dem verbauten Panel-Typ zu tun, also TN, IPS, VA usw.
Diese unterscheiden sich in der Art wie sie letztlich ein sichtbares Bild erzeugen, haben unterschiedliche Kontrastwerte, sind unterschiedlich schnell und unterschiedlich farbecht.
IPS Panels haben - grob gesprochen - die besseren Farben, VA Panels den besseren Kontrast.

Zusammenfassung:

- Kein G-Sync/FreeSync, kein VSync: Feste Bildwiederholrate, variable FPS.
Schnelle Darstellung, aber immer Tearing. Je nach Rechner, Bildschirm, Spiel und Einstellung unterschiedlich stark, aber immer da.

- Kein G-Sync/FreeSync, VSync: Feste Bildwiederholrate, feste FPS.
Kein Tearing, aber eine scheinbar langsame und gleichmäßig ruckelnde Darstellung. Vor allem bei Monitoren mit nur 60Hz.
Weniger störend als Tearing, aber vor allem bei schnellen Bewegungen wie Shootern usw. durchaus störend, weil Bewegungen langsamer erscheinen.

- G-Sync/FreeSync: Variable Bildwiederholrate, variable FPS.
Beide immer gleich laufend, bis zum maximal möglichen des Monitors.
Kein Tearing, kein Ruckeln, eine schnelle und flüssige Darstellung.

PS:
Es gibt auch noch Fast Sync. Das lasse ich an dieser Stelle aber mal außen vor.
Fast Sync ist im Grunde ein leicht verbessertes Adaptive Sync, kommt aber nicht an die Qualität von G-Sync oder FreeSync heran.

Bei manchen Spielen ist es auch hilfreich ein Frame-Limit einzustellen.
Manche Spiele haben bereits ab Werk einen fest eingebauten/eingestellten FrameLimiter laufen, sieht man oft z.B. bei Konsolen-Portierungen.

Und G-Sync/FreeSync arbeitet nur in einem bestimmten FPS-Bereich. Liegen die FPS darunter oder darüber, greift das System nicht mehr.
Diese Range ist bei FreeSync oft kleiner als bei G-Sync.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RaptorTP und BUGEE
BUGEE schrieb:
  • Auflösung am liebsten, wenn möglich 4K Ultra HD (3840x2160)
  • Ultra hohe Grafikeinstellungen
  • Je mehr FPS, desto besser - eben was möglich ist
"was möglich ist" ... warum nimmst du dann eine 3080 statt einer RTX 3090?
Mal abgesehen davon kannst du dich vom Traum 4 K Ultra 60Fps+ je nach Spiel eh schon mal verabschieden
BUGEE schrieb:
Sollte ich evtl. auf PCIe 4.0 warten?
wobei? Es gibt diese Technologie schon
 
Wenn nur gespielt wird, kein Steaming und keine (aufwändigere) Bild-/Video-/Audio-Bearbeitung, dann reicht auch ein
AMD Ryzen 7 5800X https://geizhals.de/amd-ryzen-7-5800x-100-100000063wof-a2392525.html oder
Intel Core i7-10700K https://geizhals.de/intel-core-i7-10700k-bx8070110700k-a2290993.html 359€

Wenn 4K angedacht ist, sollte es eine nVidia GeForce RTX 3090 oder die kommende AMD Radeon RX 6900XT werden.
4K mit 144Hz kannst du aber knicken!

Ein guter 4K-Monitor wäre z.B. der
LG 27GN950-B https://geizhals.de/lg-ultragear-27gn950-b-a2314824.html
 
Zuletzt bearbeitet:
BieneMafia schrieb:
Wenn es so ist, was soll dann der i9-10900K?

Ich weiß nicht, ich denke mir, je größer/je teurer, desto besser - Das war schon immer mein Problem.

BieneMafia schrieb:
Da muss du wahrscheinlich noch bis Februar warten.

Wenn es das Wert ist, habe ich kein Problem damit.

@KnolleJupp
Vielen Dank für die ausführlichen Informationen.
Ein Netzteil habe ich bereits eins (welches ich im ersten Beitrag erwähnt habe).
Wie schaut es aus mit einer Wasserkühlung? Sollte ich da keine nehmen?
Und wenn ich jetzt mal das Gehäuse, welches ich erwähnt hatte, zu den Gehäusen welche du vorgeschlagen hast, vergleiche, abgesehen der Geschmackssache, mache ich mit dem Lian Li auch nichts falsch, oder?
Bezüglich Gsync/FreeSync: So wie ich das rauslese bzw. verstehe, machen beide das gleiche in ähnlicher Qualität - Somit wäre es nicht nötig, auf Gsync aufzubauen - Könnte also genauso gut auf FreeSync aufbauen?


abcddcba schrieb:
warum nimmst du dann eine 3080 statt einer RTX 3090?

Weil ich gelesen habe, dass es "kaum" Unterschied von der 3080 zur 3090 gibt. Zumindest den riesen Preisunterschied soll es nicht Wert sein.

abcddcba schrieb:
wobei? Es gibt diese Technologie schon

Evtl. habe ich mich falsch ausgedrückt - Ich meine natürlich Intel PCIe 4.0
 
BUGEE schrieb:
Weil ich gelesen habe, dass es "kaum" Unterschied von der 3080 zur 3090 gibt. Zumindest den riesen Preisunterschied soll es nicht Wert sein.

Der Unterschied in der Geschwindigkeit des Chips rechtfertigt den Aufpreis (bezüglich UVP) nicht. Für 4K profitiert man aber vom zusätzlichen VRAM der Karte, der bei der 3080 eher mager dimensioniert ist. Außerdem ist die 3090 im Gegensatz zur 3080 auch tatsächlich zur UVP zu bekommen.

Wenn man schon eine Menge Geld investiert, dann doch eher für Leistung, die sich auch beim Einsatzzweck (Games) bemerkbar macht - mehr Geld für einen 12-Kerner auszugeben, erscheint mir nicht zielführend.
 
(nVidias) G-Sync und (AMDs) FreeSync machen - wie beschrieben - letztlich genau das gleiche, jeweils auf eine etwas andere Art, aber mit gleicher Wirkung.

Eine Wasserkühlung ist unnötig, außer du legst besonderen Wert auf Optik.
Zudem hast du bei einer Wasserkühlung eine Geräuschquelle und ein Teil das ausfallen kann mehr im Rechner (die Pumpe).
 
Wenn das so ist, würde ich natürlich die 3090 bevorzugen.

Ich kenne mich leider nicht aus und deshalb der Thread hier - Bin also dankbar für jede Beratung.

Bezüglich der CPU dachte ich mir halt auch, je größer/teurer - desto besser. Wenn man es hat, schadet es ja nicht.
Wenn es natürlich kaum was an Leistung in meinem Vorhaben bringt, verzichte ich auch gerne drauf. Will halt nicht in einem Jahr schon sagen "schade, dass ich es damals nicht geholt habe".

Wie schaut es mit der oben genannten RX 6800 XT im Gegensatz zur 3090 aus?
 
Statt einer überteuerten RTX 3090 würde ich die RX 6900XT nehmen, vielleicht hast du am 8. Dezember (sehr viel) Glück eine zu ergattern.
Diese ist auf jeden Fall ein gutes Stück günstiger als die RTX 3090, wird etwa gleich schnell sein und hat nochmal mehr VRAM.

Wenn du das Ding mit einer AMD Zen3 (z.B. Ryzen 9 5900X) CPU kombinierst, kannst du nochmal ein paar Prozent mehr Leistung herauskitzeln.
 
Zuletzt bearbeitet:
Ich würde auch keine 3090 kaufen. Bin ich ganz ehrlich !
Da kommt ja eigentlich wieder die gleiche Story wie mit der 2080 Ti zum tragen.
Ein 4K Monitor überlebt ja normal 2-3 Grafikkarten ;)

Die 970 EVO einfach als 2TB ... sinnvoll, hatte 2x 1TB vorgeschlagen.

Tomahawk WIFI ist natürlich inkl. Wireless LAN.
@BUGEE siehste, das Tomahawk ist eine gute Empfehlung :)

WiFi für nen Standrechner sehe ich halt als weniger sinnvoll.
Uff ! jetzt sehe ich gerade das es ein X570 Board ist.

Bitte den Hinweis zur Kenntnis nehmen das fast alle X570er Boards nen Lüfter aufm Board haben.
Sowas würde ich nicht im System haben wollen ;)

Sehe keinen Grund kein B550 Board zu nehmen.
 
BUGEE schrieb:
Wie schaut es mit der oben genannten RX 6800 XT im Gegensatz zur 3090 aus?
tests lesen? AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

den 10900K nur wenn der noch bis ans limit übertaktet werden soll, sonst den 10850K. wenn es denn ein decacore von Intel sein muss.
wie kommst du für nen gamingrechner auf 2066?

KnolleJupp schrieb:
Diese ist auf jeden Fall ein gutes Stück günstiger als die RTX 3090, wird etwa gleich schnell sein und hat nochmal mehr VRAM.
seit wann sind 16GB mehr als 24GB?

@RaptorTP:
auch wenn der lüfter sicher kein argument für X570 ist würde ich mir da bei MSI mit abstand am wenigsten sorgen machen.
 
Hab es extra nur als Hinweis gekennzeichnet.

Ich persönlich bin da kein Freund von. Bin eigentlich echt froh das hinter mir zu haben ;)
 
Deathangel008 schrieb:
den 10900K nur wenn der noch bis ans limit übertaktet werden soll, sonst den 10850K. wenn es denn ein decacore von Intel sein muss.

Warum den 10900K nur, wenn dieser bis ans Limit übertaktet werden soll und ansonsten den 10850k?
Weil der Unterschied, wenn nichts übertaktet wird, gering ist?

Deathangel008 schrieb:
wie kommst du für nen gamingrechner auf 2066?

Wie gesagt, kenne mich nicht aus und denke mir, größer/teurer = besser.
 
BUGEE schrieb:
Warum den 10900K nur, wenn dieser bis ans Limit übertaktet werden soll und ansonsten den 10850k?
Weil der Unterschied, wenn nichts übertaktet wird, gering ist?
Naja, für einen 10900k legst du fast 150€ mehr hin als für einen 10850k und hast ohne OC 100 Mhz mehr :)
 
  • Gefällt mir
Reaktionen: RaptorTP
Ahh OK, klingt logisch.

Manchmal hilft wirklich ein CPU vs CPU Video anzuschauen.
Wie sich eben die CPUs beim Gaming verhalten.

Dann bekommst du ein Gefühl für.
 
@BUGEE:
tests lesen: Intel Core i9-10850K im Test: Leistung des 10900K minus 100 MHz für 130 Euro weniger
Doch das dürfte nicht alles sein. Den glaubwürdigsten Vermutungen zufolge ist das Modell auch deshalb erschienen, weil die Yield-Rate bei 14 nm für 5,3 GHz Spitzentakt schlecht ist und zu wenige CPUs als Flaggschiff Core i9-10900K gebinnt werden können. Selbst eine kleine Stufe darunter kann einen großen Unterschied machen, denn um die 5-GHz-Marke kennt sich Intel eigentlich aus. Offiziell wollte der Konzern dies jedoch nicht kommentieren.
für den 10850K dürften also die schlechteren chips verwendet werden und dementsprechend "viel" OC-potenzial sollte man da erwarten.

Wie gesagt, kenne mich nicht aus
man könnte aber nen blick in tests werfen.

und denke mir, größer/teurer = besser.
dann hättest du aber bei sTRX4 und nicht bei 2066 landen müssen:D
 
Zurück
Oben