Upgrade von Ivy Bridge auf Skylake lohnenswert?

Weil Einbrüche von 60 auf 40 ja besser sind. Und vom 140 auf 80 is nix.
 
Zuletzt bearbeitet:
Ich habe das Haar in der Suppe gefunden: Keiner spielt (hoffentlich^^) noch in 720p. Wie das ganze unter Full HD aussieht siehst du ja selbst. Allerdings habe ich die Erfahrung gemacht die neuen Intelgenerationen ( von 2xxx auf 3xxx auf 4xxx etc) bei den Minimum-FPS teilweise stark zugelegt haben. Im CPU-Limit sieht das ganze natürlich ganz anders aus, was der 720p Benchmark ja auch aufzeigt.
 
Nö. Sind nur 15% bzw in Full-HD nur 11.

Bei Anwendungen sind es über 30%. Aber da leg ich das Geld doch lieber in eine gute SSD und mehr Speicher an, damit hab ich in der Praxis mehr von.
 
Dazu kommt noch, dass im Base-test nicht clock zu clock gerechnet wurde, sondern @stock. Also 3,4ghz für den 2600k, 4 ghz für den 6700k. Wenn man die gleich taktet, ebenso den 3770k, siehts anders aus, noch unwichtiger.

@Bttn: Wirst du nicht iwann mal müde, mit deinem Skylake rumzuprahlen? Für wen hast du den eigentlich gekauft? Für dich selbst, oder nur, um im Forum andere davon zu überzeugen, dass du 30% höheren Spielspass damit hast? Leute, denen es wichtiger ist, dass andere von ihnen denken, dass sie Spass mit ihrer hardware haben als selbst Freude daran zu haben. ist ja echt abgefahren dieses Hardware-Forum Syndrom.

Das Base bescheinigt dir auf Full-HD mit deinem 6600k 11% mehr Spass als mit einem 2600k. Und, spürst du den Spass schon?
 
Zuletzt bearbeitet:
Das Haar in der Suppe sind wie gesagt 720p uund eben nicht Clock-to-Clock Vergleich.

Aber da sprechen auch noch andere Sachen für Sandy, und das ist eben die gröbere Fertigung. Dadurch bekommt man die meist mindestens auf 4,5Ghz mit Lukü. Wenn man die Spannung etwas weiter hebt, und die Temps klettern lässt sind nicht selten 5Ghz drin, auch wenns Schwachsinn ist bzgl des Stromverbrauchs.
 
Hutzear schrieb:
Aber da sprechen auch noch andere Sachen für Sandy, und das ist eben die gröbere Fertigung. Dadurch bekommt man die meist mindestens auf 4,5Ghz mit Lukü.

Öhm, welche "Sachen" denn? Nichts persönliches, aber die Fertigungsgröße ist im Zusammenhang mit dem Thema völlig Wumpe. Es stimmt auch nicht, dass jeder Sandybridge mehr als 4GHz erreicht. Bei vielen liegt bereits der Sweetspot bei 4-4.2GHz. Das Haar in der Suppe war bewusst 720p, weil hier schneller ins CPU Limit gefallen wird. Aber man kann ja den gesamten Artikel lesen und wer das macht, weiß auch, dass die neue Plattform sehr von hohem Ramtakt profitiert. Da kommen noch mal gute 15% dazu. Ein "unfairer" Vergleich, weil DDR3 Ram idR. viel eher limitiert, aber doch ist er vorhanden.

@GEZ-Verweigerer:
Auf Dein Niveau bewege ich mich nicht herab. Davon bekomme ich nur Kopfschmerzen und ich müsste mich krumm machen. Prahlen kannst -Du- ausschließlich mit Hörensagen und Halbwissen, aber nicht mit dem, was Du hier im Forum für Senf hinterlässt. Das zieht sich sogar durch alle möglichen Threads wie ein roter Faden. Ich muss niemanden überzeugen. Ich bin es selbst und das reicht mir. Du hast meine Kollegen und mich königlich amüsiert. ;)
 
Glaub der wird wirklich nicht müde.... :evillol:

Speichertest

CB schreibt selber:
Zeigt sich DDR4-3.000 in theoretischen Anwendungen noch doppelt so schnell wie DDR3-1.333, schrumpft die Differenz im Schnitt über alle Anwendungen und Spiele auf sechs Prozent zusammen.............
Sehr viele Games interessiert schneller Speicher herzlichst wenig. Bestes Beispiel Witcher 3. In ein paar Games bringt es ein bisschen was aber nicht der Rede wert.

Die Hyperperformance die sich hier manche dadurch einbilden ist in Games nun einmal nicht vorhanden. Bei Anwendungen, Benchmarks, theoretischen Tests oder in niedrigeren Auflösungen als zum Beisipiel FHD sieht das Ganze natürlich anders aus....

Ich weißt nicht was das mit Halbwissen zu tun hat. Diesen Aussagen
GEZ-Verweigerer schrieb:
Dazu kommt noch, dass im Base-test nicht clock zu clock gerechnet wurde, sondern @stock. Also 3,4ghz für den 2600k, 4 ghz für den 6700k. Wenn man die gleich taktet, ebenso den 3770k, siehts anders aus, noch unwichtiger.
Pisaro schrieb:
Ich habe das Haar in der Suppe gefunden: Keiner spielt (hoffentlich^^) noch in 720p.
Hutzear schrieb:
Das Haar in der Suppe sind wie gesagt 720p uund eben nicht Clock-to-Clock Vergleich.
OiOlli schrieb:
Nö. Sind nur 15% bzw in Full-HD nur 11.
denen kann ich ebenfalls nur zustimmen. Der Einzige der hier mit Halbwissen rumeiert und andere königlich damit amüsiert bist schon du!:stock:
 
Zuletzt bearbeitet:
bttn schrieb:
@GEZ-Verweigerer:
Auf Dein Niveau bewege ich mich nicht herab. Davon bekomme ich nur Kopfschmerzen
Dafür, dass es hier um nichts geht, werdet Ihr ja ganz schön "persönlich". OK, der Mensch, der immer noch nicht geschnallt hat, dass es die GEZ nicht mehr gibt, kann ganz schön penetrant sein. Aber hier hat er in der Sache doch recht: für den reinen Zocker gibt es keinen vernünftigen Grund, von einem frei taktbaren Sandy- oder Ivybridge auf das korrespondierende Skylake-Modell zu wechseln. Dafür ist aucch die Summe der IPC-Verbesserung von "Generation" zu "Generation" zu gering. Während die Leistung der iGPU gewaltig stieg, ist der CPU-Leistungszuwachs im eher überschaubaren Rahmen geblieben. Anders sind die Verhältnisse natürlich bei den Modellen mit niedrigem und festem Takt. Wer mit einem i5-2300 zockt würde schon mit einem i3-6100 einen mächtigen Burst bekommen.

Und ehrlich bttn: wen soll bitteschön die theoretische Leistung bei 720p interessieren?
 
Meine Rede. Man muss nur lesen wollen :)
Guten Morgen zusammen. Wenn andere schlafen, bin ich arbeiten. Ganz gemütlich.

bttn schrieb:
Ein Wechsel von Ivy auf Skylake halte ich aber für Unfug. Ich habe es auch nur gemacht, weil ich Geld loswerden musste.
....und weil ich das 2500k Bundle nahezu ohne Wertverlust wiederverkaufen konnte.

Für -mich- ging es immer um die Differenz Sandybridge-Skylake und in der Sache hat sich der kleine Mehraufwand in vieler Hinsicht "gelohnt". Beitrag #49 kann man weiterhin blind ignorieren. Die Praxis sieht bei mir äquivalent nahezu genau so aus. Dafür wird man sich hier gewiss nicht rechtfertigen müssen. Das wär´s noch :evillol:
 
Zuletzt bearbeitet:
Beitrag #49 wurde bereits durch Beitrag #54 und vielen weiteren Folgebeiträgen außer Kraft gesetzt. Unglaublich wie "blind" manche Menschen sein können! :evillol:
Zumindest hat er es anscheinend im tiefsten Inneren erkannt, denn ansonsten würde er sich nicht rechtfertigen in seinem fast verlustfreiem Austausch seiner Hardware durch den Verkauf seiner alten Komponenten.... :D

Für deine 970er Strixx braucht es keinen i7 oder auch i5 6600K. Die bekommt man auch mit weniger klein!

Juri-Bär schrieb:
Dafür, dass es hier um nichts geht, werdet Ihr ja ganz schön "persönlich". OK, der Mensch, der immer noch nicht geschnallt hat, dass es die GEZ nicht mehr gibt, kann ganz schön penetrant sein.
Den Namen kann man bei CB glaub ich nur einmal ändern. Trotzdem ist GEZ noch da, heißt halt jetzt glaub ich
ARD ZDF Deutschlandradio Beitragsservice oder so....

Jedenfalls abschweifend vom Thema trau ich mich noch nicht ganz das zu verweigern. Habe ja eigentlich keinen Vertrag mit denen! Kenn mich da zu wenig aus um da irgendwie raus zu kommen ohne Konsequenzen wie Gerichtsverfahren,.. usw...
 
Zuletzt bearbeitet:
Juri-Bär schrieb:
Dafür ist aucch die Summe der IPC-Verbesserung von "Generation" zu "Generation" zu gering.

Naja gut die IPC-Verbesserung von Sandy auf Skylake beträgt immerhin durchschnittlich 25%, weshalb sich bei CPU intensiven Anwendungen der Wechsel von Sandy Bridge auf Skylake durchaus rentiert. Aber nachdem Spiele bei alltäglicheren Auflösungen und Qualitätseinstellungen im Allgemeinen im GPU-Limit und NICHT im CPU-Limit laufen ist eine höhere IPC eher zweitrangig sobald die CPU in der Lage ist, die GPU in jeder Situation zu 100% auszulasten. Deshalb auch:

Juri-Bär schrieb:
für den reinen Zocker gibt es keinen vernünftigen Grund, von einem frei taktbaren Sandy- oder Ivybridge auf das korrespondierende Skylake-Modell zu wechseln

Anders schauts natürlich aus bei den Leuten, die die 144Hz von ihrem neuen FreeSync/ GSync-Monitor voll nutzen möchten und dafür auch bereit sind, die Qualitätseinstellungen (und ggf. die Auflösung) im Spiel entsprechend zu reduzieren. In diesem Fall macht eine möglichst schnelle CPU natürlich durchaus Sinn wenn man nicht ins CPU-Limit laufen will. Wenn man aber jetzt nicht grad permanent CS:Go, Battlefield oder andere Online-Spiele zockt, bei denen eine hohe Bildwiederholrate einen gewissen Wettbewerbsvorteil verschafft, seh ich ehrlich gesagt keinen Grund warum man das Spiel zugunsten >60 FPS künstlich hässlicher machen soll...
 
Also ich für meinen Teil hab lieber die Bestmögliche Grafik trotz 144 Hertz und Gsync. Details dafür reduzieren muss ich nicht. Auf die FPS achten auch nicht. Das macht alles Gsync für mich.
Die CPU hier fällt mit solch einer Technik eigentlich eher noch mehr in den Hintergrund! ;)
 
VAN DOOM schrieb:
Also ich für meinen Teil hab lieber die Bestmögliche Grafik trotz 144 Hertz und Gsync. Details dafür reduzieren muss ich nicht.

Geht mir doch genauso. Aber wenn einer auf Biegen und Brechen 144 FPS haben will gehts bei aktuellen Spielen einfach nicht ohne reduzierte Details...
 
VAN DOOM schrieb:
Also ich für meinen Teil hab lieber die Bestmögliche Grafik trotz 144 Hertz und Gsync. Details dafür reduzieren muss ich nicht. Auf die FPS achten auch nicht. Das macht alles Gsync für mich.
Die CPU hier fällt mit solch einer Technik eigentlich eher noch mehr in den Hintergrund! ;)

Klar, mit G-Sync wird auch das Problem der min. FPS sozusagen aus der Welt geschafft, sofern diese nicht unmöglich tief liegen.
 
Kann man mit Skylake eigentlich zwei Grafikkarten mit jeweils 16 Lanes ansprechen, bzw geht das mit jedem Mainboard?
 
Nein, Skylake kann auch nur 2x PCIe 3.0 x8. Immerhin zwacken aber die Zusatzcontroller auf den Mainboards davon nichts mehr ab weil der Chipsatz selber auch nochmal ein paar PCIe 3.0 Lanes zur Verfügung stellt für so Sachen wie S-ATA III, USB 3.0, M.2 etc.
 
VAN DOOM schrieb:
Den Namen kann man bei CB glaub ich nur einmal ändern. Trotzdem ist GEZ noch da
Rundfunkgebühren, wie sie die GEZ einzog, gibt es seit dem 1. Januar 2013 nicht mehr, gab es also auch nicht im Jahre 2015, als sich der Verweigerer hier anmeldete. Zu GEZ--Zeiten konnte man sich der Gebühr mit der ausdrücklichen oder konkludenten Behauptung entziehen, man habe kein "Rundfunkgerät". Jetzt werden Beiträge erhoben und zwar unabhängig davon, ob man ein Rundfunkgerät hat oder nicht. Insoweit ist beim Verweigerer nicht einmal die Namenswahl schlüssig.

@bttn:
Zwischen Deinem Dank für Post #49 in Post #53 und dem

Beitrag #49 kann man weiterhin blind ignorieren.

liegen natürlich Welten. Aber ich denke, nach dieser einsichtsvolle Geste sollte es nun auch gut sein.
 
Zurück
Oben