News Coffee Lake Refresh: Intel erweitert die Desktop-Palette um 25 Prozessoren

ZeroZerp schrieb:
Nur darfst Du auch nicht vergessen, dass dann die Summe der zugegeben teuren Maßnahmen (nicht nur CPU- Takt OC) dann auch mal im Endergebnis gerne 30%-40% ausmachen.
30 -40 % ist vollkommen übertrieben , denn die CPU läßt sich auch ohne 4000er Speicher und 300 € OC Board übertakten vom allcore Boost des 9900K bis meinetwegen 5,2 Ghz all Core OC sind es grade mal 500 Mhz = 10 -11 % ob Memory OC dann nochmal 5 -6 % ausmacht ? fraglich wenn man 3200 er CL 14 Ram vorraussetzt mit optimierten Timings .... , da ist nichts mit 30 - 40 % .... = Wunschdenken ...
 
Zuletzt bearbeitet:
@Aldaric87 : Irgendwie hast Du keinen einzigen Vorteil des R5-2400G genannt. Für "Leute, die ohnehin nie mehr als vier Kerne auslasten", sind die 8 Threads des 2400G völlig uninteressant. Da ich auch den 9100F einbezog, dürfte klar sein, dass die Vega-Grafik nicht gegen die IntelHD sondern eine gamingfähige Grafikkarte steht. Wenn man den 2400G mit einer potenten Grafikkarte aufrüstet, bremst die Anbindung mit nur 8 Lanes aus. Und "AM4-Aufrüstmöglichkeiten" sind nüchtern betrachtet auch nur für Vielkern-Nutzer von Belang.

Der unbestreitbare Vorteil des neuen i3 ist die höhe Singlethreadleistung. 180 Punkte beim Cinebench R15 sind schon deutlich besser als die 156 Punkte des 2400G.

@frankkl : ich gehe auch davon aus, dass der 9100 soviel kostet, wie jetzt der 8100, also derzeit knapp über 120 €. Aber letztes Jahr gab es den 8100 mehrere Monate unter 100 €. Und mit den jetzt angekündigten Modellen sollte doch bald der Lieferengpaß behoben sein und sich die Preise wieder normalisieren.
 
borizb schrieb:
"AMD ist besser weil es weniger Auswahl gibt. "

Klar, das ergibt Sinn. :daumen:

Richtig, AMD ist schon besser, auch wenn sie augenscheinlich weniger Auswahl bieten. Brauchen sie aber auch gar nicht, weil alles von der kleinsten CPU bis zum Flagschiff hin das komplette Feature- und Befehlserweiterungsset mit an Bord hat. Da machen nur die Kern- und Threadzahl sowie die Frequenzen den Unterschied (und die Grafikeinheit bei den APUs).

Und weil das so ist, kommt AMD auch mit weniger Modellen aus, während man bei Intel erstmal klarkommen muss, welche Funktion und welche Befehlserweiterungen überhaupt mitgeliefert werden.
 
MK one schrieb:
30 -40 % ist vollkommen übertrieben ,
Nein sind sie nicht. Die Geschwindigkeitssteigerung sind applikationsabhängig zum Teil sogar noch konservativ angegeben. Kannst ja mal in den Foren ein wenig nach meinen Benchmarkbeiträgen suchen.
Da ist das wie Du es nennst "Wunschdenken" in Zahlen, Screenshots und Messchrieben manifestiert.

Grüße
Zero
 
Juri-Bär schrieb:
@Aldaric87 : Wenn man den 2400G mit einer potenten Grafikkarte aufrüstet, bremst die Anbindung mit nur 8 Lanes aus. Und "AM4-Aufrüstmöglichkeiten" sind nüchtern betrachtet auch nur für Vielkern-Nutzer von Belang.
Unsinniges Argument , das Gegenteil ist der Fall , die 8 Lanes bremsen höchsten bei Einsteiger GraKa weil dies oft nur 3 - 4 GB Speicher haben und es so sein kann das Texturen in den Arbeitsspeicher geladen werden . Bei hochwertigen GraKas sind in der Regel 8 - 11 GB Speicher verbaut - eben damit nichts in den Arbeitsspeicher ausgelagert zu werden braucht , selbst 2 x 3.0 Lanes ermöglichen immer noch 70 - 80 % der GraKa Leistung , mit 8 Lanes sind es 97 - 99 % bei den 1% Lows
Ergänzung ()

ZeroZerp schrieb:
Nein sind sie nicht. Die Geschwindigkeitssteigerung sind applikationsabhängig zum Teil sogar noch konservativ angegeben. Kannst ja mal in den Foren ein wenig nach meinen Benchmarkbeiträgen suchen.

Grüße
Zero
und beziehst dich dann vermutlich auf Single Thread abhängige Software die vermutlich sogar auf Dual Core Celerons mit entsprechenden Takt gut laufen würde ... , ansonsten vergiss es ...
 
Lass doch so eine Quatsch-Argumentation, @MK one , wenn Du keine Ahnung hast. Es gibt genug Beispiele, in denen der langsamere R5-1400 wegen seiner 16 Lanes mit einer GTX 1070 mehr fps liefert, als der schnellere R5 2400G.
 
Juri-Bär schrieb:
Es gibt genug Beispiele, in denen der langsamere R5-1400 wegen seiner 16 Lanes mit einer GTX 1070 mehr fps liefert, als der schnellere R5 2400G.
Link? Würde mich brennend interessieren :)
Konnte nur was mit einer 1060 finden. Und da war der 2400G minimal schneller
 
Juri-Bär schrieb:
Lass doch so eine Quatsch-Argumentation, @MK one , wenn Du keine Ahnung hast. Es gibt genug Beispiele, in denen der langsamere R5-1400 wegen seiner 16 Lanes mit einer GTX 1070 mehr fps liefert, als der schnellere R5 2400G.
anschauen und lernen ....
Blödsinn behaupten kann jeder , außerdem solltest du dir bewußt machen das die APU GPU und CPU innerhalb der TDP bedienen muß , während der 1400 den Boost Takt länger halten kann , weil er keine GPU mitversorgen muss .
Je mehr der GPU teil belastet wird , desto mehr Leistung braucht dieser , desto weniger bleibt für die CPU übrig
 
MK one schrieb:
und beziehst dich dann vermutlich auf Single Thread abhängige Software die vermutlich sogar auf Dual Core Celerons mit entsprechenden Takt gut laufen würde ... , ansonsten vergiss es ...
Nein- Ich beziehe mich auf eine Mixtur an Software. Zudem ist die deutlich überwiegende Anzahl an Applikationen/Spiele Singelcoreleistungsabhängig.

Ich finde es außerdem schon wieder bemerkenswert, dass in dem Thread, in dem es um neue Intel Prozessoren geht, schon wieder überwiegend über Ryzen diskutiert werden muss... und von entsprechender Klientel wieder nur über die Produkte hergezogen wird.
 
Zuletzt bearbeitet:
Hä, @MK one ? Ich mach mir bewußt, dass bei Einsatz einer dezidierten GraKa die interne GraKa ausgeschaltet sein kann und deshalb keinen Einfluß auf das thermische Budget hat. Aber Blödsinn lässt sich bekanntlich immer noch steigern.
 
Juri-Bär schrieb:
Hä, @MK one ? Ich mach mir bewußt, dass bei Einsatz einer dezidierten GraKa die interne GraKa ausgeschaltet sein kann und deshalb keinen Einfluß auf das thermische Budget hat. Aber Blödsinn lässt sich bekanntlich immer noch steigern.
also behauptest du damit jetzt das Steve vom Gamers Nexus Unsinn behauptet ?
Sorry , dem traue ich mehr zu als dir .... , der hat wesentlich mehr Hardware getestet als du dir je kaufen wirst .... oder sollte es sein das du kein Englisch verstehst ? aber selbst dann sollten die Grafiken eine deutliche Sprache sprechen :D

PS: schon älter aber dafür auf deutsch ... , hat sich aber nicht viel daran geändert außer das es heutzutage keine 1 / 2 GB Einsteiger GraKa mehr gibt und Crossfire / SLI nahezu ausgestorben sind ... , die einzigen Gründe für 16 Lanes ...
https://www.computerbase.de/2011-08/test-grafikkarten-mit-pcie/
 
Zuletzt bearbeitet:
Dass der 1400 den Boosttakt länger hält als der 2400G stammt doch von Dir und ist in dem Zusammenhang hanebüchener Unsinn. Darauf habe ich geantwortet, ohne mir das Video auch nur angeschaut zu haben. Mag halt keine Videos und habe genug einschlägige Untersuchungen gelesen, um zu wissen, dass es immer wieder einige Spiele gibt, die mit 8 Lanes gegenüber 16 Lanes gewaltig abstinken. und dann kommt so ein Heini und posaunt: "das Gegenteil ist der Fall"! Klasse, 8 statt 16 PCIe-Lanes ist ein wunderbares Feature... Über so etwas lach' ich mich schlapp und diskutiert nicht darüber, ob meine Englisch-Kenntnisse schlechter sein könnten, als meine Latein-Kenntnisse.
 
Dieser Heini hat vermutlich mehr Plan von der Materie als alle hier im Forum zusammen.

Aber deine einschlägigen Quellen könntest du ja gerne hier posten und deine unsinnigen Aussagen mit Fakten belegen. :daumen:
 
  • Gefällt mir
Reaktionen: benneq
  • Gefällt mir
Reaktionen: Rockstar85
Juri-Bär schrieb:
habe genug einschlägige Untersuchungen gelesen, um zu wissen, dass es immer wieder einige Spiele gibt, die mit 8 Lanes gegenüber 16 Lanes gewaltig abstinken.

Dann poste doch mal die Links dazu. Die wird es nicht geben, weil es Unsinn ist.

Ich kann bei mir die PCIe Lanes einstellen und das macht im Prinzip 0 Unterschied aus ob ich mit 16 oder 8 Fahre. Selbst mit 4 Lanes geht es immer noch sehr gut, siehe eGPUs.
 
@Cool Master Mit einer 2080 Ti kommt man so langsam in die Region wo's relevant werden könnte: https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/6.html
In Wolfenstein 2 und Assasins Creed Origins kann man einen deutlichen (wenn auch kleinen) Unterschied sehen. Wobei man es da auch immer mit Frameraten zu tun hat, wo auch dieser Verlust nicht wirklich stört.
Aber beim Rest der getesteten Spiele: Vollkommen egal ob PCIe 3.0 8x oder 16x.

Mit der 1080 haben sie es auch getestet: https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_PCI_Express_Scaling/24.html
Sieht ganz ähnlich aus. So gut wie 0 Unterschied.
 
  • Gefällt mir
Reaktionen: aldaric
@benneque

Joar im Fazit schreiben sie es ja auch, dass man es in der Regel nicht spürt. Wenn man aber auf 4x setzt in z.B. einer eGPU, ist der Vorteil denke ich immer noch größer als der Verlust von 16x oder 8x im Vergleich mit der vorhanden dGPU bzw. iGPU.
 
@benneque : eines der Spiele, bei denen es Deiner Meinung nach egal ist, ob 8 oder 16 Lanes:

Hellblade_PCIeLanes.PNG


Wenn man in FullHD über 150 fps kommt, mag man vielleicht auf 23 zusätzliche fps verzichten (+14,8%) mögen. Aber unter UHD freuste Dich über knapp 4% mehr fps durch 16 Lanes, weil Du dann dichter an 60 fps bist.
 
Das ist alles ? Ein Test mit einer 2080 Ti, die wie oben schon erwähnt hat im Bereich möglicher Leistungseinbußen ist.

Wer steckt zu einer 100 € APU bitte eine 1200 € GPU ?

:lol:
 
Juri-Bär schrieb:
Aber unter UHD freuste Dich über knapp 4% mehr fps durch 16 Lanes, weil Du dann dichter an 60 fps bist.
Es sind avg. FPS. Um mit 59,2 avg FPS ein durchgängig flüssiges Bild zu erhalten, braucht es Adaptive Sync. Und dann ist's wieder komplett egal, ob du 2 FPS mehr oder weniger hast.
 
Zurück
Oben