Kaufberatung für einen alten Hasen...

Status
Für weitere Antworten geschlossen.
Wurstfach schrieb:
und dem alten Netzteil würde ich auch keine 3080Ti überlassen.
Joak84 schrieb:
Das Netzteil habe ich 2020 gekauft.
Das würde ich jetzt nicht als alt bezeichnen und das RMX ist jetzt auch alles andere als ein Schrottteil.

Joak84 schrieb:
Weißt Du wie hoch ungefähr der Performance Sprung von 2017 auf 2020 war?
Und von 2020 auf 2022?
Dafür einfach mal die Tests anschauen
https://www.computerbase.de/2021-11...2600k-test/6/#abschnitt_benchmarks_in_720p_hd
Da findest du sowohl den 7700K als auch den 12700K, in Spielen also etwas über 60% mehr, in Anwendungen die alle Kerne ausnutzen können hat sich die Leistung mehr als verdreifacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Joak84
h3@d1355_h0r53 schrieb:
Neuere Monitore haben mittlerweile oft variable Hz Zahlen, d.h. deine stabilen 60 FPS gegen
Monitore verhindern tearing? What? Also könnte ich überall VSync abschalten, wenn ich si nen Monitor hätte und könnte so 10 bis 20 FPS rausholen? Wie soll das funktionieren? Hast Du evtl ei en Link wo ich das mal nachlesen könnte?
h3@d1355_h0r53 schrieb:
Befeuert von einer 2070 Super, die eigentlich alles auf hohen Details schafft mit 70-120 FPS bei den anspruchsvolleren Titeln.
Das wage ich zu bezweifeln. Ich habe ne 2070 nicht super und ich komme bei Cyberpunk nicht besonders weit damit. 3090ti schafft es kaum in 4K. Wie im Ursprungspost geschrieben soll es maximale Grafik rausholen und 60 FPS solang sie stabil stabil sind. Gerne noch mehr, aber die Grakas schaffen es halt leider nicht besser.
h3@d1355_h0r53 schrieb:
Beim OC investiert man viel Zeit für nichts.
Vielleicht hat sich da in den letzten 3 Jahren viel getan, aber ein wenig zu OCen und damit zu experimentieren, paar Benchmarks laufen zu lassen ist nun nicht wirklich Aufwand. 😅
 
Joak84 schrieb:
Hast Du evtl ei en Link wo ich das mal nachlesen könnte?
Hier zum Beispiel: https://www.viewsonic.com/library/de/unterhaltung/was-ist-adaptive-sync/
Joak84 schrieb:
...aber die Grakas schaffen es halt leider nicht besser.
Dann warte bis die 4090 rauskommt, die schafft es sicher besser.
Joak84 schrieb:
...aber ein wenig zu OCen und damit zu experimentieren, paar Benchmarks laufen zu lassen ist nun nicht wirklich Aufwand. 😅
Und dafür willst du hunderte Euro mehr ausgeben?
 
  • Gefällt mir
Reaktionen: Joak84
Für OC schaltet man die e cores ab und lässt alle p cores auf zb 5.1 Ghz laufen.

Oder man macht OC nur bei 4 p cores
 
  • Gefällt mir
Reaktionen: Joak84
@Joak84 Das mit der 2070 Super gilt für WQHD.

GSYNC (NVIDIA) wie auch Freesync (AMD) passt die Widerholrate (Hz) des Monitors direkt an deine FPS an. Somit brauchst du kein softwarebasiertes VSync, was ja bekanntlich Leistung frisst und ggf. Lags verursacht. GSYNC funktioniert direkt zwischen Grafikkarte und Monitor auf Hardwareebene. Damit ist jedes einzelne Bild mit dem Monitor synchron, also auf 40 FPS hat der Monitor dann 40 Hz und bei 130 FPS 2 Sekunden später hat der Monitor 130 Hz. Kein Tearing. Gibt halt je nach Monitor Begrenzungen, also z.B. 1-170 Hz oder auch 54-75 Hz. Freesync Monitore gehen eigentlich problemlos an NVIDIA Karten aber GSYNC nicht an AMD soweit ich mich erinnere. Da einfach mal schauen was es gibt, je nach Größe und Hz Zahl und Panel,...
 
@Joak84
Du und dein OC :D. Man merkt das du lange nichts mehr damit zu tun hattest.

Mal ganz einfach gesagt, damals hatte man einen ordentlichen Leistungszuwachs durch OC. Die CPU Hersteller haben aber mittlerweile das OC Potential für sich erkannt. Turbo Boost, XMP (Intel) / D.O.C.P. (AMD) usw. ist nichts anderes als werksmäßiges OC. Die gehen schon damit an die Grenze vom Sweet-Spot und teilweise darüber hinaus. Da ist nichts mehr mit OC was man irgendwie merkt. Da hast du, wenn überhaupt, minimal mehr Leistung bei extrem höherem Verbrauch und sehr viel Wärme.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666
Helge01 schrieb:
Mal ganz einfach gesagt, damals hatte man einen ordentlichen Leistungszuwachs durch OC. Die CPU Hersteller haben aber mittlerweile das OC Potential für sich erkannt.
Das wurde unterdessen ja nun schon mehrfach erwähnt. Das wird hier ein unendlicher Thread von der Mächtigkeit eines Romans von Jonathan Franzen. Wenigstens. Siehe den bisherigen Verlauf.
 
@Wurstfach Das ist richtig, er scheint das aber nicht zu glauben, siehe sein letzter Beitrag. Deswegen muss man das vielleicht so oft wiederholen bis es tatsächlich bei ihm ankommt.

Wurde eigentlich schon darauf hingewiesen das OC heute nichts mehr bringt? :D
 
Deathangel008 schrieb:
nicht ansatzweise so viel wie damals beim 2600K. ab werk läuft der 12700K im allcoreturbo schon mit 4,7GHz. 500MHz mehr wären da schon viel.
Habe gerade mal gecheckt der 2600k nicht geOCed ist gerade mal 50 % langsamer als die 12700k???
Nach 11 Jahren?
Dann ist der 2600k auf 4.8 GHZ was? 10% langsamer? Dann lohnt es sich doch gar nicht eine neue CPU zu holen

Könnte ich nicht sogar die 3080ti mit der 2600k laufen lassen? 10% mehr Performance bei der 12700k? Da wird meine 2600k die RTX im Vergleich zur 12700k kaum ausbremsen.
 
Joak84 schrieb:
Habe gerade mal gecheckt der 2600k nicht geOCed ist gerade mal 50 % langsamer als die 12700k???
Darf ich fragen, wo diese Zahlen herkommen?
Und sag jetzt bitte nicht Userbenchmark.
 
Zuletzt bearbeitet:
Joak84 schrieb:
Habe gerade mal gecheckt der 2600k nicht geOCed ist gerade mal 50 % langsamer als die 12700k???
quelle? den 2600K kann man nicht ansatzweise so stark übertakten als dass der 12700K den nicht komplett zersägen würde.

hier war ein 7700K @stock schon 20% schneller als ein 2600K @4,6GHz mit 2133er-RAM. und im aktuellen CB-ranking liegt der 12700K satte 63% vor dem 7700K.
 
  • Gefällt mir
Reaktionen: Joak84
Joak84 schrieb:
Wenn was der einzige Grund ist? OC? Gibt es noch andere Gründe für eine K CPU außer OC? Wenn ja, welche?
Wenn du dir dadurch erhoffst wie früher die Nutzungsdauer deiner CPU zu verlängern,so war es gemeint.

Ansonsten haben die K auch den höchsten Boost von Werk aus wenn man nicht selbst Hand anlegen möchte und durch vermutlich bessere Selektion auch das grösste UV Potential und nicht zuletzt wie von Intel positioniert schlicht die höchste Leistung insgesamt innerhalb der jeweiligen Reihe.

@Giggity

Man kann/sollte natürlich p&e cores aktiviert haben beim OC, warum auch nicht, funktioniert auch und ist i.d.R. besser im Gesamtergebnis ausser vielleicht bei paar Ausnahmen, da liegt es aber an der Anwendung/Game, was nachträglich eine Optimierung erhalten kann. Das Ausschalten ist nicht mehr als eine Momentaufnahme und macht ausser bei der Jagd nach Rekorden in bestimmten Benches keinen Sinn. Ausserdem verbraucht ADL deutlich mehr Strom bei Ausschaltung der e-Cores im Alltagsbetrieb > Kontraproduktiv,da mehr Hitze > dadurch weniger Takt.
 
Zuletzt bearbeitet:
Mork-von-Ork schrieb:
Darf ich fragen, wo diese Zahlen herkommen?
Und sag jetzt bitte nicht Userbenchmark.
Das ist jetzt nicht das Maß aller Dinge, aber bitte:

https://cpu.userbenchmark.com/Compare/Intel-Core-i7-2600K-vs-Intel-Core-i7-12700K/621vs4119
Ergänzung ()

Mork-von-Ork schrieb:
Darf ich fragen, wo diese Zahlen herkommen?
Und sag jetzt bitte nicht Userbenchmark.
Oder hier:

https://www.google.com/search?q=260...ate=ive&vld=cid:5f3102dd,vid:Yf9PsjeQG3c,st:0

Bei einigen Games 100 % Differenz bei vielen jedoch nur 50%
Ergänzung ()

Giggity schrieb:
Willst du eine custom WaKü oder reicht dir eine AiO?
AiO würde mir erstmal reichen 😊👍


Giggity schrieb:
12700K macht nur Sinn wenn man Z690 nimmt und das wiederum macht nur Sinn wenn man das MB lange behalten will.
Soll länger funktionieren und 4 bis 5 Grafikkarten Generationen wenn möglich
 
Zuletzt bearbeitet:
@Joak84:
der loserbenchmark ist so ziemlich das gegenteil einer seriösen quelle. darauf (oder diesen ganzen affen-seiten) sollte man seine argumentation echt nicht aufbauen.

Joak84 schrieb:
Da wird meine 2600k die RTX im Vergleich zur 12700k kaum ausbremsen.
oh doch. aber nur zu, probiere es gerne aus.
 
Ich wollte meinen i5-3570k Anfangs auch nicht hergeben. Doch dann bin ich irgendwann doch im CPU Limit gelandet mit Hintergrundprogrammen.
Ergänzung ()

Mehr als 5-5,2Ghz pro Kern holt man aus der Technik nicht raus. Jetzt ist das Motto je mehr Kerne desto cooler.

e cores händeln die Hintergrundprogramme damit sich die p cores um die rechenintensiven Sachen kümmern können
 
  • Gefällt mir
Reaktionen: Joak84
Deathangel008 schrieb:
oh doch. aber nur zu, probiere es gerne aus.
👍 einzig sinnvolle nach so vielen Post. Entweder erzählen wir Mist oder es wird nicht gelesen wenn man dann nach über 50 Posts zu dieser Schlussfolgerung von @Joak84 kommt.
 
Tornavida schrieb:
Ausserdem verbraucht ADL deutlich mehr Strom bei Ausschaltung der e-Cores im Alltagsbetrieb
Was oft an der (falschen) höheren P-Core Spannung liegt, die manches Bios bei deaktivierten E-Cores anlegt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben