Würde der i7 8700K für eine rtx 3080 reichen?

Amar_lkc47 schrieb:
Hatte eigentlich an den Ryzen 9 3900xt gedacht. Ob er sich noch lohnen würde oder ob ich lieber auf die 4000er steigen sollte?

Sofern deine CPU bei deinen Settings und deiner Software limitiert, würde ich eher auf den Zen 3 3600/3700x Nachfolger setzen, da diese eine wahrscheinlich höhere Single Core Leistung haben werden.
Davon profitierst du bei 144fps wesentlich mehr
 
Wann wird der Glaskugelthread eigentlich geschlossen? Es gibt bestimmt einige andere die jetzt in diesem Moment ernsthafte Kaufberatung benötigen.
 
Zuletzt bearbeitet:
Deathangel008 schrieb:
@Amar_lkc47:
was würdest du dir vom 3900XT erhoffen? fehlen dem 8700K für das was du machst threads?


arbeite das doch mal durch.

@AleksZ86:
kann man grundsätzlich auch nehmen, wobei in den taktbereichen die zahl der 16GB-riegel überschaubar wird wenn ich mich nicht irre. timings sollte man auch beachten, takt alleine ist nicht alles. ansonsten gibts da im RAM-subforum auch sammelthreads, da findest du die experten dafür.


das nenne ich mal optimistisch:D
Naja ich zocke nur sonst mache ich nichts mit den pc.
 
Huhu Jungens und Mädels, ich wollte auch mal meinen Senf dazugeben.

Und zwar hatte ich bis vorgestern noch ne 2080 Non A-Chip mit 280 Watt Bios drauf. Ich hab nen i7-8700k @4.8Ghz@ 1,345v (Ja leider habe ich ein sehr schlechtes Modell erwischt, traurig... Aber egal)
Worauf ich hinnaus will ist: Ich hab hier ein BeQuiet Straight Power 11 550 Watt. Hinten an der Schukodose gemessen Maximal 500 Watt Leistungsaufnahme.

Da lief aber! Prime Maximal Heat + MSI Kombustor und ich hatte alle Lüfter auf MAX aufgedreht mit dem Comander Pro. Diese Auslastung habe ich nicht in einem Game geschafft in WQHD! Ich lag immer so zwischen 350 - 420 Watt in diversen Games wie: BF V, Borderlands 3, The Divison 2, COD MW, Control usw usf! Wer ein Gutes Markennetzteil hat der wird mit 550 - 600 Watt sehr gut fahren! Und das Straight Power 11 schaltet auch erst bei über 720 Watt ab. (https://www.hardwareluxx.de/index.p...aight-power-11-550w-850w-im-test.html?start=1) - Ich hoffe andere Links sind erlaubt, ansonsten löschen bitte!

Ach ja, mein RAM ist der G.Skill Trident Z 3200 CL16 GTZB.

Es ist also kein Problem auch mal ständig an den 550 Watt rumzunuckeln wenn dann ne 3080 rumwerkelt. Ich werde sie mir holen und bin jetzt schon guter Dinge das mein Netzteil ausreichen wird.

Cheers
 
  • Gefällt mir
Reaktionen: Mr.Zweig
Deathangel008 schrieb:
also ~465W verbrauch der hardware bei (geschätzt) ~92,5% effizienz.

CB hat das SP11 btw auch getestet;)

Ja dann tuts mir leid das ich ne andere Website verlinkt hatte 🙈
Aber du bestätigst meine Erfahrung, oder?
 
Amar_lkc47 schrieb:
Hallo allerseits,

wie ihr wisst kommen ja die neuen Karten. Die vollständige Daten der Grafikkarten sind ja auch zu sehen. Nun ist hier die Frage ich hoffe man kann es mit den Daten urteilen richtige benchs folgen ja noch. Wäre ein i7 8700K der Oberclocked ist einen Flaschenhals für die rtx 3080?

Liebe Grüße
Hi,
ich dachte ich melde mich hier mal an um meine Erfahrung mit euch zu teilen. Seit kurzem bin ich der Besitzer einer Gigabyte RTX 3080 Gaming OC (und nein, ich verkauf sie nicht auf Ebay. LOL..)
Meine Konfiguration sieht so aus:

i7 8700K @5Ghz
Asus ROG Strix Z370-H
32 GB = 4x 8 GB DDR4 3200 Mhz RAM
Gigabyte RTX 3080 Gaming OC
256 GB NVme und
1 TB NVme, jeweils Samsung
700W BeQuiet! Straight Power 10 80+ Gold
Windows 10 Pro

2 Monitor-Setup
1. Acer Predor WQHD 24 Zoll ~144Hz
2. Asus FullHD ~60 Hz

Vorher hatte ich eine MSI Armor OC GTX 1080 Ti und war eigentlich mit der Leistung zufrieden. Ich wollte mit der RTX 3080 in Raytrace einsteigen.

Muss sagen rein theoretisch dürfte die i7 8700k, genauso wie jeder andere Intel Prozessor bis zur 10. Generation auch, eine RTX 30er Karte Bottlenecken. Der Grund dafür sind die nicht vorhandenen PCIE 4.0 Anbindungen. Praktisch merkt man den Bottlenek kaum, da PCIE 4.0 eher für schnellere Texturübertragung effektiv genutzt wird.

Effektiv können nur aktuelle Ryzen 7 3800x, oder besser, die übertaktet wurden, das volle Potential der RTX 3080 rausholen. Aber wie gesagt, praktisch merkt man von diesem Potential kaum was, weil die Leistungssteigerung an sich schon so enorm ist, dass es nur bei 4K Raytrace etwas ausmachen dürfte.

Nehme man an man erreicht in einem X-Beliebigen Spiel 144 FPS mit einem 144 Hz Monitor. Oder 4K @144Hz, was auch immer... Tut man mit meiner Konfiguration. Daher, auch wenn der Prozessor die Grafikkarte Bottlenekt, merkt man dadurch nichts, da mein Monitor nicht mehr Frames als 144 verarbeitet.

Man muss tatsächlich aktuelle Titel, der nächste wird bei mir Watchdogs Legion werden, testen und die Erfahrungswerte teilen.

/Edit
Ich habe vergessen zu erwähnen dass ich ein Strommesser vor meinem PC angeschlossen habe. So wirklich zieht der PC nie über 530 Watt...
 
Zuletzt bearbeitet:
Die ganze Bottleneck-Sache hängt also mit PCIe 4.0 zusammen?

Krass.
Mein 24-Kern PCIe 4.0-Prozessor bottleneckt eine 3090 genau so. Obwohl er PCIe 4.0 hat.
Bei 36 FPS. Nicht bei 144. In UHD, nicht in WQHD.

Also irgendwas stimmt da bei Deiner Erklärung vorne und hinten nicht. Eventuell nochmal darüber nachdenken womit das nun wirklich zu tun haben könnte.

flightsimulator_2020_fokan.jpg
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und Mr.Zweig
Naesh schrieb:
Quatsch, der passt perfekt! ;D. Der 8700K ist für Games immernoch eine der besten CPUs auf dem Markt.

Damit wirst du noch locker 2-X Jahre spaß haben.

Mein 8700K bleibt mir erhalten bis er kaputt geht oder 6/12 Kerne merklich limitieren, dies ist aber noch lange nicht der Fall.
lol ... musste lachen als ich deine neue Signatur gesehen habe :-D :-D
 
  • Gefällt mir
Reaktionen: Fuchiii
Zurück
Oben