Ersatz für Gtx 1080ti

Bullet Tooth schrieb:
Das ist ja mal so nicht richtig, Wenn ein Spiel ins CPU Limit rennt, dann ja. Aber es gibt auch Spiele die nicht in ein CPU Limit rennen. Mann sollte sich immer die bestmögliche Grafikkarte holen, und nur weil ein paar Spiele ins CPU Limit rennen sollte man sich nciht in Grafikkartenlimit rennen lassen wenn die CPU von einem Spiel nicht gefordert wird.
Öhm ... das verstehe ich jetzt ehrlich gesagt nicht. :)


Schon bei RTX 3070 bottleneck'ed ein 8700k:

Natürlich auch bei RTX 2080 Ti, die so schnell ist wie RTX 3070:

RTX 3080 bottleneck bei 1440p High mit 8700k @ 5.0GHz OC:

Eine neue Grafikkarte hin oder her. Kauft er beispielsweise RX 6800 XT bekommt er nicht die volle Leistung dieser Grafikkarte. Die ist dann in dem ein oder anderem Game, nur zu ~70% ausgelastet und kann nicht mehr liefern.
 
Es kommt auf die Einstellungen an. Man bekommt JEDE GPU ins Limit.
 
Was gibt es da nicht zu verstehen? Die Einstellungen kannst du mit einer 6950 höher schrauben, als mit einer 6750XT und das immer, egal ob da ein CPU Limit ist. Aber wenn kein CPU Limit vorliegt lässt du Leistung liegen. Oder denkst du das die 6950XT dann langsamer ist als eine 6750xt weil sie nicht voll ausgelastet wird.
Und die 3700 Bottleneckt sich selber, in immer mehr Spielen, wenn man auf 1440p zockt, weil der Spiecher voll läuft.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
djducky schrieb:
Es kommt auf die Einstellungen an. Man bekommt JEDE GPU ins Limit.
Welche GPU würdest du denn für einen 6 Jahre alten Intel 8700k empfehlen?

RTX 4090 doch bestimmt nicht. Was meinst du denn wo das Limit seiner CPU liegt? Welche GPU wäre vertretbar, so das man wenigstens 90% der Leistung, für welche man 100% bezahlt hat, abrufen kann?

Vielleicht ein Denkanstoß:
Der 8700k ist ungefähr so schnell wie Ryzen 3600X, siehe auch hier. 6/12 Threads und 3,7 zu 3,8GHz nimmt sich nicht viel. Wo ziehst du jetzt die GPU Grenze für den Ryzen 3600X? Ich bei RTX 3070 oder RX 6750 XT. Eine RTX 4070 wäre völlig übertrieben, ebenso eine 6800 XT.

Vielleicht mal darauf achten, was bei RTX 3070 schon passiert:
chrome_7sdZUGJ8UA.jpg

Die Grafikkarte wird vom 13600KF zu 96% ausgelastet und nicht nur zu 75% wie beim 8700k? Weil CPU bottleneckt.

Und auch hier:
chrome_8p4TECpjDo.jpg

99 zu 68% aka für 100 FPS gezahlt, und nur 80 bekommen.


Bullet Tooth schrieb:
Oder denkst du das die 6950XT dann langsamer ist als eine 6750xt weil sie nicht voll ausgelastet wird.
Ne, die wird nicht langsamer, aber ist dann nicht mal mehr so schnell wie eine RX 6800 sein könnte, mit dem richtigen Prozessor.

Bullet Tooth schrieb:
Und die 3700 Bottleneckt sich selber, in immer mehr Spielen, wenn man auf 1440p zockt, weil der Spiecher voll läuft.
Ich habe Videos gezeigt, in welchen die RTX 3070, unabhängig wieviel VRam die hat, auf einer moderneren CPU deutlich schneller läuft, da der 8700k ins bottleneck geht. Der VRam ist in diesem Vergleich egal. Selbst wenn man zu wenig VRam hat, bekommt man mit einer alten CPU nicht die volle FPS der Karte. Bestätigt ja meine Aussage.

Vielleicht mal 8700k vs 7700X mit einer RTX 3080 in 1440p Star Citizen:

Auch hier sehen wir wieder, wie der 8700k die GPU nicht bedienen kann. Mit einem 7700X gibt es mehr Frames, weil die GPU mit 95-99% ins Limit läuft. Der 8700k kann die RTX 3080 allerdings nur zu 55-75% bedienen.

Hier vielleicht noch ein Video in welchem der8auer 12900k, 8700k, 6700k und 4770k vergleicht:

Man sieht das eine RTX 3060 12GB noch vertretbar für einen 8700k wäre. Aber bei 3080 Ti wird es schwierig. Dabei gilt es noch zu beachten das 32GB 3600MHz CL14 RAM für den 8700k zum Einsatz kamen, vom sehr guten Board mal von ab.

Back to topic ...

Neupreis:
RX 6800 505€
RX 6750 XT 437€
RX 6700 XT 377€

RTX 3070 489€
RTX 3080 700€

... sind aktuell imho seine Optionen. Wobei du da schon je nach GPU so und so heftig ins CPU Limit rennst. Davon ab, das ich nicht zu Nvidia raten würde, ist das mit seiner CPU maximal "machbar". Ansonsten -> Gebrauchtmarkt.

Und jetzt eine viel bessere GPU einbauen und sich in 2 Jahren neue CPU, Mainboard & Ram holen?

Nein, macht auch keinen Sinn. Da ist der Wertverlust der verbauten GPU zu groß.

Und je länger man wiederum im neuen System die dann 2 Jahre alte GPU benutzt, ist der Wertverlust von CPU/Mobo/Ram wieder zu groß. Deswegen kauft man im DIY Bereich einmal alles (wie er auch mit 8700k + 1080 Ti selbst bewiesen hat - perfekte Combo) und dann wird das geused bis zum EOL. Sicherlich kann man hier und da mal updaten, aber eine neue GPU wie RTX 4070 für 900€ erst 2 Jahre später vollkommen auslasten zu können, wenn sie nur noch 630€ kostet, ist nicht logisch.
 
Zuletzt bearbeitet:
@Piecemaker
Ich würde gar keine GPU pauschal für irgendeine CPU empfehlen. Du kannst zehntausend Fälle raussuchen, wo du ins CPU-Limit rennst. Ich könnte dir ebenso viele Fälle raussuchen, wo immer noch die GPU limitieren würde. Wenn der 8700K in Spiel X 80 FPS liefern kann, jemand aber auf WQHD oder gar 4K mit vielen Details zockt und nur 70 FPS hinbekommt... Du bekommst, wie gesagt, JEDE GPU klein.

Meine aktuelle CPU hat sich bisher noch in jedem Game außer Planetside 2 gelangweilt, da ist IMMER die GPU am Anschlag, das hätte der 8700K auch locker hinbekommen.

Löse dich doch einfach mal von deinen cherry-picked CPU-Limit-Szenarios und den darauf fixierten Empfehlungen und warte ab, was der TE uns vielleicht noch zu seinem persönlichen Anwendungsszenario sagt bzw. welche Spiele er auf welchen Einstellungen spielt bzw. es in Zukunft tun will. Ich würde auch die Regler höher drehen, wenn ich eine neue GPU kaufen würde, statt bei den alten Einstellungen zu bleiben und ggf. ins CPU-Limit zu rennen.

Abgesehen davon haben wir es doch hier mit der Sondersituation "defekte Grafikkarte" zu tun. Die 1080 Ti hätte ihm noch eine Weile genügt, aber sie ist nun einmal defekt. Irgendwann wird er auch die CPU aufrüsten.
 
  • Gefällt mir
Reaktionen: dr.betruger
djducky schrieb:
@Piecemaker
Löse dich doch einfach mal von deinen cherry-picked CPU-Limit-Szenarios und den darauf fixierten Empfehlungen und warte ab, was der TE uns vielleicht noch zu seinem persönlichen Anwendungsszenario sagt bzw. welche Spiele er auf welchen Einstellungen spielt bzw. es in Zukunft tun will.

OK.

Pauli1987 schrieb:
Aber nun stellt sich mir die Frage ob ich nur eine neue passende Grafikkarte besorge. Da hätte ich jetzt mal an eine RTX 4070 gedacht.

Oder gleich ein wenig in die Zukunft denke und mir eine potentere Grafikkarte + passendem Netzteil hole.

Hmmm ... also RTX 4070 oder höher.

Pauli1987 schrieb:
2. Möchtest du mit der Grafikkarte spielen?
  • Welche Spiele genau?

    Im Moment spiele ich nur hin und wieder Apex Legends, aber es werden auch wieder Phasen kommen wo ich mehr Zeit zum spielen habe und da sollten dann auch neuere und kommende Spiele flüssig laufen.

  • Welche Auflösung? Genügen Full HD (1920x1080) oder WQHD (2560x1440) oder soll es 4K Ultra HD (3840x2160) sein?

    WQHD

  • Ultra/hohe/mittlere/niedrige Grafikeinstellungen?

    Es müssen nicht immer die höchsten Einstellungen gespielt werden, Hauptsache flüssig.


  • Genügen dir 30 FPS oder sollen es 60 oder gar 144 FPS sein?

    In Shooter dürfen es gerne 144 FPS sein, für alles andere gebe ich mich auch mit 60+ zufrieden

Also es darf gerne viel mehr als 60 FPS sein, eher auch schon über 120.

Hmmm, welche CPU unterstützt eine hier empfohlene Grafikkarte diesbezüglich?
 
Piecemaker schrieb:
Hmmm, welche CPU unterstützt eine hier empfohlene Grafikkarte diesbezüglich?
Pauschal lässt es sich eben nicht sagen, es kommt auf die Grafikeinstellungen an. Hau alle Regler auf Anschlag und selbst die potenteste GPU wird so schnell bremsen, dass sich jede halbwegs moderne CPU kaputt lacht.

Wo man wirklich höhere FPS braucht sind Onlineshooter. Bei so Kram wie CS:GO liefert dir auch ein 8700K gut und gerne dauerhaft über 300 FPS. Valorant? Dauerhaft über 250 FPS.

Bei Hogwards Legacy wird die CPU dagegen ins Schwitzen kommen und vielleicht 55-75FPS liefern. Ist aber Single Player. Meine GPU schafft in RDR2 auch im schnitt nicht viel mehr als 50FPS, fühlt sich trotzdem flüssig an.
 
  • Gefällt mir
Reaktionen: Klever und dr.betruger
Lee Monade schrieb:
Warum sollte das passieren?
Selbst wenn die Karte 400 Watt brauchen würde hätte er noch 250 Watt Puffer was für seine Hardware locker ausreicht.
Igorlsab Review 6950XT: Lastspitzen bis 560W
https://www.igorslab.de/radeon-rx-6...-energetischen-brechstange-zum-klassensieg/9/

Lee Monade schrieb:
Genau dafür haben Netzteile Kondensatoren, wie zb Igor bereits mehrmals aufgezeigt hat dauern solche Lastspitzen in der Regel im ms Bereich und damit kommen moderne Netzteile problemlos klar selbst wenn die geforderte Leistung über der eigentlichen Nennleistung liegt.

'Problemlos' ist so ein Wort... mit AMD's Vega Karten haben sich nicht allzulange her auch eigentlich überdimensionierte Netzteile teilweise problemlos abschalten lassen.

Siehe auch diesen Test von Igor zum Beweis des Gegenteil:
https://www.igorslab.de/geforce-rtx...900k-oc-mit-und-ohne-oc-gegen-11x-be-quiet/2/

Eine RX 6950XT ist vom Verbrauch in ähnlichen Gefilden, siehe den Link von oben, und ein übertakteter 8700K zieht in ähnlichen Bereichen wie ein nicht übertakteter 10900K.
 
Piecemaker schrieb:
Was meinst du denn wo das Limit seiner CPU liegt?
Das kann er selbst messen.
Was limitiert hier eigentlich?

Angenommen "sein" Limit der CPU liegt bei 70 Frames, dann kann man eine 6700xt, oder 6950xt, oder 7900xt, oder 4070, oder 4090 so einstellen, dass auch sie mehrheitlich min. 75 Frames schafft. Klar ist auch - in jedem Spiel liegt das CPU-Limit wo anders.

Die CPU rechnet - in jeder Auflösung ähnlich - ihre Aufgaben.
Die GPU rechnet ihre Aufgaben, je nach Bildqualität.

Ist das Spiel extrem fordernd, muss die Bildqualität auf bspw. "medium", damit die Grafikkarte pro Zeiteinheit 75 Bilder berechnen kann. Spielt man eine alte Gurke, hat man selbst mit ultra-Settings deutlich mehr Bilder pro Zeiteinheit.

djducky schrieb:
jedenfalls relativiert das ganze die Frage nach dem VRAM etwas.
Bisher kannte ich das Narrativ, dass DLSS3.0 Grafikspeicher kostet, um berechnet werden zu können.
Habe ich dich falsch verstanden?

djducky schrieb:
Abgesehen davon haben wir es doch hier mit der Sondersituation "defekte Grafikkarte" zu tun. Die 1080 Ti hätte ihm noch eine Weile genügt, aber sie ist nun einmal defekt.
Ach ja:
Bei Zotac gibts bis zu 5 Jahre Garantie. @Pauli1987
 
Zuletzt bearbeitet:
Piecemaker schrieb:
Dein Prozessor (CPU): i7 8700K ist 6 Jahre alt und wird diese Karte sehr stark ausbremsen
Jain. man darf nicht vergessen: Der 8700K ist immerhin auf dem Level eines Ryzen 3700X.

Kommt halt stark auf das Game und die gewünschten FPS an. Will der TE 100FPS+ wird es je nach Spiel eng mit dem 8700K, dass ist klar.

Ich persönlich würde den Prozessor auch austauschen.
Ergänzung ()

djducky schrieb:
Meine GPU schafft in RDR2 auch im schnitt nicht viel mehr als 50FPS, fühlt sich trotzdem flüssig an.
Nichts für ungut, aber in welcher Welt? :). Ich kriege schon die Krise wenn ich von capped 100 FPS einen Drop auf 80 FPS oder whatever habe.
 
Zuletzt bearbeitet:
@Pisaro
Drops von 100 auf 80 in Shootern neigen auch zum Ruckeln. RDR2 ist aber ein eher "träges" Spiel, wo man das echt nicht merkt mit um die 60 FPS. In Planetside 2 merke ich 50 FPS natürlich.
 
djducky schrieb:
RDR2 ist aber ein eher "träges" Spiel, wo man das echt nicht merkt mit um die 60 FPS
Hätte ich dazu schreiben sollen: Ich meine sogar RDR2, spiele ich auch. Das Problem ist einfach: Wenn man capped 100 FPS gewohnt ist merkt man jeden Drop.
 
Eine GPU bekommt man immer klein.
Eine starke CPU ist nur notwendig wenn man high fps möchte. Wenn man sich mit 60fps zufrieden gibt (Was bei Single-Player AAA Spielen den meisten genug ist) benötigt man eine CPU gerademal für 150 Euro.
Und die Bildqualität setzt man mit der GPU aufs Maximum. Ein 8700k ist ca. gleichschnell wie mein 10400f und in 99,9% stemmt dieser 60fps. Ich würde den 8700k behalten und eine 4070 reinzimmern, wenn 60fps genug sind, wenn nicht dann natürlich auch ein CPU Upgrade. Wenn die 60fps fest eingestellt sind bemerkt man auch von framedrops nichts.
 
@Zwirbelkatz
Entschuldige, deinen Beitrag hatte ich übersehen. Das mit der garantie ist ein guter Hinweis. Dass DLSS 3.0 VRAM kostet habe ich so noch nicht gelesen - und finde da gerade auch nichts. Ich hatte es so verstanden, dass KI-berechnete Pixel bzw. Frames nicht zusätzlich den VRAM belegen. Falls ich mich da irren sollte, schaue ich mir das gerne an. :)

@Pisaro
Ich merke da jedenfalls nichts. habe aber auch Gsync an...
 
Zuletzt bearbeitet:
Zurück
Oben