I7 2600k endlich ersetzen ?

Locker jedes. Diese ganzen karten die neu kommen 7700xt oder 4070 alles unnötig. Sogar 3080 3090 zuviel. 4k kriegst jedes game hin mit ner 3060ti . Die ist stärker als ne 2080s und die wurde damals schon für 4k gezockt. Meiner meinung nach alles unintressant . 4k 40 fps reicht mit einem freesync monitor.
1080 gtx reicht allemal für full hd beispielweise. Wir brauchen keine rekorde in fps aufstellen. Zock und sei ruhig , damals geforce ti 4200 , star wars jedi knight2 , hauptsache das spiel war flüssig und hat spaß gemacht.
 
Unter 60 FPS heißt für mich: Nicht flüssig, dass geht hier vielen so. Anno z.b. bricht dir mit deinem 2600K auf UNTER 30 FPS weg wenn du ein bisschen mehr gebaut hast. Ein schnellerer I3 8100 fällt da schon auf unter 30 FPS.
https://www.computerbase.de/2019-04...3/#abschnitt_prozessoren_mit_4_bis_24_threads

Shooter unter 60 FPS? Niemals nie. Oder Raft: drücke ich dir auf 10 FPS mit deinem 2600K. Da drücke ich selbst meinen 5900X auf 18 FPS ;).

RTX 3080 zuviel/unnötig? Ich habe zufällig eine RTX 3080 und mir ist die, je nach Game, definitiv zu lahm... und ich habe "nur" 3440x1440! ARK auf maximalen Details in 3440x1440? Unter 50 FPS, läuft es übel komm ich auf unter 40 FPS.

Deine Aussage ist einfach falsch, basierend auf Fakten (Tests) hier im Forum.

Und nein, 40 FPS sind auch nicht FreeSync nicht rund.

Hier mal nur ein paar Spiele die eben NICHT mit einer GTX 1080 durchgehend flüssig laufen in Full HD:

https://www.computerbase.de/2022-03...hnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

https://www.computerbase.de/2022-02...enchmarks_in_full_hd_wqhd_und_ultra_hd_update

https://www.computerbase.de/2022-02...enchmarks_in_full_hd_wqhd_und_ultra_hd_update

https://www.computerbase.de/2022-01...hnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

https://www.computerbase.de/2021-12...hnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

und so weiter.....
 
Zuletzt bearbeitet:
Mach ihm doch seine Argumentation nicht Kaputt :D mit JEDEM SPIEL1!!!1 meint er halt alle SPiele, die bei Windows mit ausgeliefet werden, da kann das schon hinkommen aber sonst sind das klar halt nur Märchen. Reine Polemik (von Fatal4You - der Name ist Programm) :-)

Wenn er etwas Differenziert schreiben würde also Spiel X mit Einstellung und Auflösung y... und dann die anderen auf ähnliche weise aufgeführt..
 
  • Gefällt mir
Reaktionen: Beitrag, I'm unknown und Pisaro
Alexander2 schrieb:
Mach ihm doch seine Argumentation nicht Kaputt :D mit JEDEM SPIEL1!!!1 meint er halt alle SPiele, die bei Windows mit ausgeliefet werden..
Also auf meinem Taschenrechner läuft Solitaire nicht ganz flüssig. Display ist zu lahm. Spaß beiseite, mit der 3060ti in 4k zu zocken geht nicht in hohen Details. Sowohl VRAM als auch Grafikchip sind zu klein bzw. zu lahm.
Fatal4You schrieb:
Locker jedes. Diese ganzen karten die neu kommen 7700xt oder 4070 alles unnötig. Sogar 3080 3090 zuviel. 4k kriegst jedes game hin mit ner 3060ti.
Nein
 
Was wohl besser passt:
Aus eigene Erfahrung weiß ich, das man mit einer GTX1080er Klasse Grafikkarte noch ganz gut Zocken kann (ich habe eine Radeon 5700er also in etwa der Leistungsklasse), auch Moderne Spiele. Aber ganz klar muss man die Einstellungen entsprechend anpassen sowie natürlich auch die Auflösung je nach Spiel.

Ein Beispiel da ich Linuxer bin Zocke ich Cyberpunk 2077 unter Linux und nutze FSR, also das Spiel rendert in 2560x1080 und Proton+Treiber skaliert das dann hoch auf 3440x1440 inklusive der leichten Bildschärfung.
Dabei sind dann die Grafikeinstellungen teil unter Mittel, teils Mittel und auch auf Hoch (Texturen habe ich hoch gewählt zum Beispiel) um eben eine passable Performance zu bekommen. (Nagelt mich da auf keine Einstellung fest, es ist ein Mischmasch aus Einstellungen)
Je nach Region sind die FPS dann von 45 bis 90FPS. eben Außerhalb wo weniger loß ist eher 90 und Teils innen mit vielen Effekten je nachdem natürlich Richtung 45 FPS.

Über die Spielzeit gesehen habe ich so meistens bei 60 oder mehr FPS.

mit einer 3080 wie @Pisaro sie hat bräuchte man sich u m das Einstellen der Grafiksettings wohl weit weniger Bemühen.
Meine CPU ist dabei auch Modern genug mit genug Kernen (AMD 3900X) das sich das Spiel da an einem Mangel verschlucken würde...

Von meinem Bruder, der das Spiel unter Windows Spielt weiß ich, das ein 7700K (als 4 Kerne+4Threads) nicht für das Spiel ausreichend ist, denn er hatte recht Schlechte FPS UND regelmäßig lange Ruckler mit Phasen wo sich das Spiel dann richtig eingeruckelt hatte um sich danach wieder etwas zu beruhigen (... und wieder von vorne - dauernde 100% Auslastung der CPU).

Jetzt mit der selben Grafikkarte (GTX 1080) aber einer neuen CPU ich glaube der 20 Kerner von Intel, müsste der sein:
Intel I7-12700
(8 P cores)
Kann er das wohl in etwa wie ich auch Spielen, jedenfalls sind all die Ruckler weg.
Wobei das womöglich je nach Situation auch unter 60 FPS sind nehme ich an :D kommt ja auf die Einstellung an, ich habe keine vollständige Statistik bekommen von ihm. Aber eine glaubhaft Beschreibung und auch vom alten Zustand einen Screenshot mit so ein paar Hardwaredaten eingeblendet.

Jedenfalls so wie bei mir kann man das Spiel gut Spielen. Auch wenn man sich natürlich mehr wünschen könnte :-)

Wenn also nichtmal ein weit modernerer 7700K reicht, dann reicht niemals ein 2600K für:
Fatal4You schrieb:
Und ich spiele JEDES spiel auf Full HD Mit den höchsteb Auflösungen flüssig.
 
  • Gefällt mir
Reaktionen: Pisaro
Ich glaube sogar, dass mir eine 1070/1080 reicht, da ich zu 90% nur Pubg spiele und sonst eigentlich nichts. Vielleicht ab und zu mal Valorant. Die ganzen neuen Spiele finde ich nicht Interessant.
 
  • Gefällt mir
Reaktionen: Pisaro
Fatal4You schrieb:
1080 gtx reicht allemal für full hd beispielweise.
Wohl dem, der keine Ansprüche hat. Mir reicht meine 3080 nicht mal für UWFHD formerly known as UW-UXGA.
 
  • Gefällt mir
Reaktionen: I'm unknown
@Alexander2
So sehe ich das auch. Der i3-12100 von dem viele schwärmen hat wirklich eine tolle Leistung und Singlecoreperformance. Leider bleibt dieser dennoch ein 4 Kerner und das merkt man. Der 8700K bspw. war seinerzeit nicht aufgrund der Leistung so interessant sondern lediglich aufgrund der 2 zusätzlichen Kerne.
Der 7700K ist ja nicht viel schlechter aber er bricht eben in diesem Szenario ein.

Würde hier nur wegen des Geldes auf den 12400F gehen aber wenn ich wirklich viele jahre im Voraus plane dann lieber den 12700 oder was Gebrauchtes mit 8 Kernen der 11. oder 10. Generation.
Habe zu viel gelernt aus meinem i5-2500K und dem Wechsel auf den i7-2600K. Battlefield 1 und V liefen nicht wegen der Singlecoreperformance so unsauber. Die FPS waren hoch genug aber eben nicht die lows und low 1%

Das lag einzig und allein an fehlenden Kernen. Daher mindestens den i5-12400F wobei man bei Defekt um eine interne Grafikeinheit froh wäre. Also lieber den 12400.

Gruss
 
  • Gefällt mir
Reaktionen: AYAlf und Pisaro
Vielleicht gibt es ja in 5 Jahren oder so einen 4 Kerner, der super Cyberpunk 2077 schafft, ohne das CPU Engpässe entstehen. Mit genug IPC und Takt ist der Punkt vielleicht erreicht.
Aber aktuell ist mir eben kein 4 Kerner bekannt, der genug Performance für so ein Spiel bringt, dass es sauber läuft.

Als Spieler der auch mal solche Spiele Spielt dürfen es dann halt schon 6 Kerne+ sein.
Natürlich kommt es ja auch immer auf die Programmierung der Spiele an wieviele Kerne die überhaupt bedienen können. aber wenn man einfach in Betracht zieht, das die Entwickler ja auch mit dem arbeiten und rechnen, was auf dem Markt verfügbar ist, dann müssen die halt entweder zurückstecken mit ihren Ambitionen oder auf passende Kernzahlen etc. abzielen.
 
  • Gefällt mir
Reaktionen: Pisaro
Ich spiele mit meinem älteren 7400 (4 Kerne, 4 Threads) und einer GeForce GTX 1650. Mit der Zeit und vielen neuen Titeln ist es kaum möglich mehr als 30 FPS zu erreichen. Die CPU ist an ihrer Grenze. Die Singlecoreperformance ist auf dem Papier passabel, aber er hat halt zu wenig Kerne. Ich würde momentan mindestens 6 Kerne, eher aber 8 bevorzugen. Bei mir hat damals das Budget gedrückt. Es ist ein einfaches Beispiel wie ein zu großer Geiz große Probleme verursachen kann. Deshalb mein Rat: Nicht an der falschen Stelle sparen.
 
  • Gefällt mir
Reaktionen: Pisaro
Sensei Jens schrieb:
Deshalb mein Rat: Nicht an der falschen Stelle sparen.
An der Stelle halte ich nochmal das Schild mit "8GB VRAM" herein. 11. oder 12. Generation Core-Prozessoren können sich auch keinen Video-RAM herzaubern, wo keiner ist. Am Ende ist die Graka selbst für PUBG ein Bremser, auch wenn es flüssiger laufen wird. Bei so einem Gummi-Budget würde ich es einfach mit bedenken.
 
Oder soll ich lieber warten, bis die Gpus wieder einen normalen Preis haben, um alles zu upgraden ?
 
DerJustin1 schrieb:
Oder soll ich lieber warten, bis die Gpus wieder einen normalen Preis haben, um alles zu upgraden ?
Sowieso, rechnerisch dauert es nicht mehr lange, momentan muss man für die Mittelklasse immer noch am meisten bluten von den abgerufenen Preisen in Relation zur UVP her.
 
Dabei natürlich nicht vergessen wie es das letzte mal lief, noch bevor die Preise sich wieder richtig normalisiert hatten lief der nächste Mining boom schon an.
Es kann einfach niemand sagen was kommt. Nur wie der aktuelle Trend ist siehst du natürlich selbst :-)
 
  • Gefällt mir
Reaktionen: mrcoconut
Sackgasse zum aufrüsten? :D
das ist doch komplett Wumpe bei Intel, da kannst sowieso immer maximal noch die Folgegeneration in den Sockel klemmen! Und von nur einer Generation weiter der Zugewinn an Leistung ist Traditionell unbedeutend für das Geld, was du dann da reinbuttern würdest.

Edit: und DDR4 vs DDR5 ist stand jetzt gleichgültig, sogar eher so, das du ja einfach ne menge Geld sparst und NICHT LANGSAMER unterwegs bist mit DDR4

Das Argument das vielleicht aufkommt da später dann vielleicht wenn es den gibt schnelleren DDR5 einzusetzen um die Plattform nochmal etwas schneller zu machen → für das ganze Geld das die Riegel dann kosten bekommst du dann 2%? oder 3% mehr Tempo oder sowas? Und das wäre schon viel, wobei davon auszugehen ist das in den meisten Fällen nicht so viel Leistungssteigerung zu erwarten ist (kommt ja immer auf den Anwendungsfall an)
 
Alexander2 schrieb:
(kommt ja immer auf den Anwendungsfall an)
Zip-Komprimieren und Dekompriemieren ist DDR5 bis zu 50%schneller. Ansonsten sind die Geschwindigkeitszuwächse überschaubar.
 
  • Gefällt mir
Reaktionen: Alexander2
Zurück
Oben