News Core i9-7980XE: Intels 18-Kern-Core-i9 erscheint im Oktober

die PCIe Lanes sind relativ Wurst und werden meist eher dann herangezogen, wenn einem die anderen Argumente ausgehen.

Bisher kam auch jeder mit 16 CPU Lanes beim Skylake / Kaby klar, genauso mit den 20 von Ryzen 7. Nun hat Threadripper logischerweise 64 und schon reichen 28 oder gar 44 nirgends mehr hin, weil man dann nicht 4x M.2 SSDs Vollspeed an CPU + Multi GPU aufs Mainboard packen kann.

Kaum einer würde merken ob die eigene GPU 8x oder 16x läuft oder die PCIe SSD mit 2 oder 4x. Bei den Meisten hängt vermutlich auch die halbe HW am Chipsatz der aktuell immer über nur 4x PCIe an der CPU hängt.

Valide ist das Lanes Argument in erster Linie dann wenn Multi GPU zum Einsatz kommt - da es eins der wenigen Felder ist bei denen eine 16x Anbindung / Karte schön wäre. Dass 8+8 aber quasi keine Leistung kostet sollte aber auch hinsichtlich bekannt sein.

Möglich das CF da noch massiver einbricht da CF über die PCIe Lanes geht während NV ja nach wie vor die Brücke nutzt.

Edit: Mehr ist immer gut. Aber wer sich zwei TIs und 4 M.2 PCIe SSDs rein knallt kauft vermutlich eh nen CPU mit >28 Lanes. Man nutzt es halt zur Produktdifferenzierung, genau wie den Preis selbst oder CPU Kerne.


Edit: Leider gibts kaum ein guten Test zu CF / SLI bei kleiner PCIe Lane Bandbreite. Mich würde mal interessieren wie zb zwei Fiji an PCIe 4+4 8+8 und 16+16 skalieren. Gerade weil AMD über den PCIe Bus die Daten austauscht.
 
Zuletzt bearbeitet:
das neue Kernrennen begingt wieder ^^ Bin ja gespannt was kommt da von AMD wieder dazu ;)
 
Caramelito schrieb:
Nutzt du denn alle PCIe Lanes?

Graka x16
Das wars aktuell bei mir.
Gleichfalls. Mir reicht ein B350Board, maximal X370. Allerdings bin ich auch weit von HEDT entfernt. Hauptgründe für HEDT/Enthusiast sind aber halt NVMe (inkl. Raid) und CF/SLI ohne Abstriche. Wenn man sich SLI Titan X (Pascal) für 2.000+ kauft, dann schließt man die nicht an 8x an...Hab schon einige hier im Forum gelesen, die enttäuscht über die "zu wenigen" 44 Lanes waren.
 
Zuletzt bearbeitet:
duskstalker schrieb:
der delay in der inter CCX kommunikation wurde zum start von ryzen überbewertet. derzeit ist dank win10 scheduler patch, treiber update, power profil und schnellem speicher kaum mehr was davon übrig..

Das "Problem" dürfte im etwa dem entsprechen, den Intel bei einem Mehrsockelsystem hat. Wenn ein Kern nur x PCIe Lanes hat und x Speicherkanäle, wird nicht jeder Kern mit voller Geschwindigkeit auf den Speicher und die Geräte zugreifen können. Was an Leistung am Ende übrig bleibt werden wir sehen. Über den Threadripper können wir derzeit nur spekulieren, obwohl er ja angeblich bald auf den Markt kommen soll.

duskstalker schrieb:
epyc kommt auch auf boards mit zwei sockeln, das macht dann 64c/128t mit 128 pcie lanes. um das zu überbieten ist man bei intel für drei 24c xeons 27000$ los. was hier kosteneffizienter ist, braucht wohl nicht weiter ausgeführt werden. ..

Nur gut, dass man in diesem Bereich keinen Schwanzvergleich braucht und seine Systeme nicht einzig nach der größeren Anzahl Kerne kauft. Um da gleichzuziehen, braucht man ein Quad-Sockel System mit je 16 Kernen, was derzeit 4x1800€ oder 4x2800€ je nach gewünschter Geschwindigkeit entspricht. Nun reden wir von wirklich professionellen Systemen mit denen mal Geld verdient. Der Speicher den man in solchen Systemen vorfindet und/oder die Software die man darauf einsetzt kostet ein vielfaches davon.

Es geht be solchen Systemen selten um Kosteneffizienz. Bis Epyc auf den Markt kommt vergehen noch Monate. Bis die Software darauf zertifiziert wird, noch einige Monate oben drauf und zu guter Letzt brauchen wir dann noch Systeme mit solchen CPUs von den großen Herstellern. Im Profibereich wird kaum jemand mit selbst gebauter Hardware herumexperimentieren.

duskstalker schrieb:
mit so vielen kernen und pcie lanes, wie threadripper ermöglicht, verschwimmen die grenzen zwischen desktop und workstation, findest du nicht?..

Die Lanes und Kerne sind für den Vergleich uninteressant. LGA2066 unterstützt keinen ECC Speicher. Das macht es zu einer HEDT Plattform, weil man damit eben keine Workstation bauen kann. Wenn AMD mit dem Threadripper offiziell ECC unterstützen wird, kann man damit eine Workstation bauen und mit der LGA2011 Plattform konkurrieren.

Man sollte einfach aufhören A mit B nur anhand der Kernanzahl zu vergleichen. Intel hat derzeit 4 Plattformen die anders aufgestellt sind wie AMD. AMD hat derzeit nur eine konkurrenzfähige Plattform und mit dem kommenden Threadripper wird es eine zweite geben, die keine direkte Entsprechung zu Intel hat. Einerseits wird der Threadripper mit LGA2066 konkurrieren, auf der anderen Seite mit LGA2011 und in der Zukunft mit LGA3647. Entscheidend wird sein welche Systeme mit diesem Sockel auf den Markt kommen, aber davon sind wir noch weit entfernt.

Fakt ist jedoch, dass der Threadripper im Sommer bestenfalls für Enthusiasten im Desktopbereich interessant sein wird, weil wie schon gesagt im Profibereich kaum einer die PCs selbst zusammenbauen wird und dabei auf eine neue unbekannte und nicht unterstütze Plattform zurückgreift. Damit konkurriert man mit einzig mit dem Core i9. Was danach kommt werden wir sehen wenn es soweit ist.

duskstalker schrieb:
bisher ist der 18c skylake x nur ein papiertiger, niemand weiß wann und ob er überhaupt kommt

Oh! Das steht aber ganz gut nachzulesen in dem Artikel den du gerade kommentierst. Bei Threadripper ist der Sachverhalt übrigens identisch. Bisher wissen wir nur, das er im Sommer kommt und von Epyc ist noch weniger bekannt.
 
Zuletzt bearbeitet:
wäre Threadripper eine native Die wie bei Intel hätte AMD auch lang nicht 64 Lanes drauf... das wäre schon eher Overkill. Viel eher sind die 64 eben das Resultat aus zwei Zeppelin Die.

Wie viel Lanes hat Intels X299 Chipsatz? Bei der kleinen Plattform um Z270 kommen ja noch zig Lanes über Chipsatz dazu und viele Boards werden die meisten M.2 Slots auch über diese anbinden, wissentlich dass man dann nicht mit 2 4x PCIe SSDs 100% Speed gleichzeitig erreichen kann (schon bitter wenn man nicht 2x oder 4x parallel 3000 MB/s lesen kann).

Edit: so wie ich das sehe weitere 24 PCIe Lanes am Chipsatz die quasi über Bottleneck 4x DMI am Skylake X CPU hängen. Damit hat man mindestens 28+24 Lanes. Sollte üblicherweise reichen.
 
Zuletzt bearbeitet:
Begu schrieb:
Gleichfalls. Mir reicht ein B350Board, maximal X370. Allerdings bin ich auch weit von HEDT entfernt. Hauptgründe für HEDT/Enthusiast sind aber halt NVMe (inkl. Raid) und CF/SLI ohne Abstriche. Wenn man sich SLI Titan X (Pascal) für 2.000+ kauft, dann schließt man die nicht an 8x an...Hab schon einige hier im Forum gelesen, die enttäuscht über die "zu wenigen" 44 Lanes waren.

Wenn man Titan X (SLI) oder 1080ti Sli betreibt scheut man evtl. auch nicht eine 1000€ CPU zu kaufen, wenn man ehrlich ist ^^

Ich will viele schnelle Kerne, 28 Lanes sind zudem mehr als genug für mich. Wenn jemand unbedingt mehr braucht, der soll dann zur 1000€ CPU oder Threadripper greifen - Was anderes bleibt ihm nicht übrig.
 
MoD85 schrieb:
Ganz klar, der Unterschied von 10% / Takt ist jetzt nicht riesig. Aber wie du schon erkannt hast wird der Turbo 3.0 die CPUs in höhere Bereiche bringen (gerade mit dieser TDP) als es bei AMD der Fall ist. So wie mir derzeit bekannt ist sollen bei den 18 Kernern 3,7-4,5 GHz anliegen können (Gerüchte). Also wenn wir davon ausgehen das AMD derzeit ihre 3,5 GHz erreicht (beim Topmodell) und einfach nur die 3,7 GHz von Intel entgegenstellen, die noch sagen wir mal 5% von Architektur gewinnen.

100% : 3,5 GHz AMD x 3,7 GHz Intel x 1,1 (10% derzeitiger Taktvorteil ) x 1,05 (5% neue Architektur) => 122%


Kann natürlich durchaus sein, dass deine Rechnung aufgeht. Allerdings will ich wirklich erst noch sehen, dass ein 18-Kerner Taktraten im spekulierten Bereich wirklich erreicht und halten kann (und wieder, ich gehe bei allem, was ich dazu sage von nicht modifizierten Varianten aus, weil ich persönlich das Köpfen einer so teuren CPU nicht einsehen würde, schlicht und ergreifend - und das gilt im Endeffekt für jede CPU, die 1000 Euro oder gar mehr kostet). Gut, auf 1-2 Kernen dürfte das zwar kein Problem sein, das wäre dann aber wirklich eher für ältere Spiele und Programme interessant, die ziemlich schlecht mit mehr Kernen skalieren - und dann auch nur, wenn es wirklich um das letzte fps geht. Dafür wiederum ist so eine CPU vermutlich ziemlich fehl am Platze, aber all' das ist natürlich Abwägungsfrage und auch vom persönlichen Workload abhängig.
Wie auch immer, in jedem Fall wäre ich von 4 Ghz oder gar mehr auf allen Kernen des 7980XE wirklich sehr überrascht, vielleicht rutscht man dann auch in den niedrigeren 3 Ghz-Bereich ab - wohingegen Threadripper 3,5 Ghz auf allen Kernen des 16-Kerners schon eher zuzutrauen ist, wenn man denn gewillt ist, die derzeitige Informationslage als Diskussionsbasis ausreichen zu lassen. Die Frage ist dann: Wie gut sind die eigenen Anwendungen auf viele Kerne optimiert? Wie fällt die Temperaturentwicklung der Core X bei hoher paralleler Last aus und welche Taktraten liegen dann an? Und, den Blick mehr in die Zukunft (bei diesen CPUs wohl durchaus angemessen) und aufs Gaming gerichtet: Wie stark wird in Zukunft auf mehr als 8 Kerne optimiert und welche Rolle spielt eine (nur etwas) höhere IPC dann noch?

Zugegeben, vieles ist da Spekulation. Zumindest was den Taktunterschied angeht, denke ich jedoch nicht, dass die größten Vielkerner sich hier noch allzu viel geben werden, jedenfalls nicht, wenn man eine extrem hohe Multicore-Performance wünscht. Hohe Leistung auf 1-2 Kernen liefert auch ein 6700K oder 7700K und stellen die entsprechenden Szenarien einen signifikanten Anteil an den eigenen Aktivitäten dar, braucht man vermutlich keine HEDT-CPU zu kaufen.

Naja, es ist ein vielschichtiges Thema ... in jedem Fall denke ich, dass sich bei X299 zu viele Schwachstellen ankündigen, um von vorneherein davon auszugehen, dass man diese Plattform für maximale Leistung AMDs TR4 vorziehen muss.


Caramelito schrieb:
@DeathShark:

Mein "Problem" ist einfach nur, dass Ryzen dieselben IPC aufweist wie mein Haswell.
Mein Haswell taktet aber mit 4.5ghz ein Ryzen packt meistens 3.9.

Das wäre in div. Games (alte Games etc.) ein Rückschritt - In neuen Games, die mehr Kerne unterstützen natürlich ein Fortschritt dank mehr Kernen.

Ich will aber in jedem Fall einen Fortschritt, möge er auch noch so klein sein =)

Auch wenn man den Takt in der Realität evtl. nicht bemerkt, außer man schaut auf die OSD-Zahlen - Aber das Gefühl wäre da, wenn etwas nicht passt, dass die CPU nicht liefert wie früher usw.

Eigentlich muss ich ja nicht einmal umsteigen, wenn ich ehrlich bin, ich will einfach mehr - Und eben deshalb kommt aktuell leider nur Intel infrage, auch wenn ich vor einer Woche schon nen 1700er bestellen wollte (habe sogar hier nen Thread eröffnet).

Es gibt auch neue Spiele, die kaum Kerne nutzen, siehe Dirt 4 - Meine CPU chillt bei 20-25% Auslastung während ich mit über 100fps spiele (habe nun die Settings etwas runtergedreht, weil sich mehr FPS aufm 144er Monitor besser anfühlen und vor allem den Inputlag reduzieren, dazu Vsync off - Spielt sich extrem flüssig und direkt).

Ich verstehe deine Argumentation - inklusive des "leicht" irrationalen Aufrüstdrangs, den kennt man als Hardware-Nerd wohl nur zu gut :D
Klingt für mich aber eher, als bräuchtest du eher mehr Grafikleistung als eine HEDT-Plattform, wenn deine CPU chillt und du die Details für mehr fps reduzierst xD
 
Zuletzt bearbeitet:
Oktober gibt's doch wahrscheinlich schon das nächste Stepping von AMD. Da werden auch die Taktraten höher ausfallen.
Also ich sehe eigentlich keinen Grund auf diese Intel-CPU zu warten außer für absolute Enthusiasten.
Wäre ich nicht so knapp bei Kasse hätte ich schon längst einen Ryzen 7. :rolleyes:
 
Caramelito schrieb:
Wenn man Titan X (SLI) oder 1080ti Sli betreibt scheut man evtl. auch nicht eine 1000€ CPU zu kaufen, wenn man ehrlich ist ^^

Ja naja, ich denke das wird der springende Punkt. Ich sehe das Problem, dass die Intel-Vielkerner einiges von ihrem Takt lassen müssen um nicht die Glühbirne zu werden. Dann skalieren die aktuellen Spiele am besten mit 4-8 sehr hoch taktenden Kernen, was dann aber den 3,3ghz 10C widerspricht...Das ist ein Teufelskreis. Und ob wirklich die Mehrzahl der Enthusiasten noch bereit sind, ihre 1000€ CPU zu köpfen, wage ich echt zu bezweifeln. Das Optimum wäre wohl der 8C i7-7820X mit 44+ Lanes gewesen. Vor allem da der auch noch überschaubare monetäre Aufwände bereitet.

Das meine ich damit wenn ich sage, dass ich das aktuelle Lineup für den High-End Gamer als eher unbefriedigend ansehe. Für aufwändige Home-Office Berechnungen und/oder einfache Workstations trifft das natürlich nicht zu, auch klar.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
die PCIe Lanes sind relativ Wurst und werden meist eher dann herangezogen, wenn einem die anderen Argumente ausgehen.

Zwar werden 28 Lanes wohl für die allermeisten Anwender tatsächlich schon mehr als genug sein. Aber die allermeisten Anwender kaufen auch keine tatsächlichen High-End-Systeme. Schaffe ich etwa zwei GTX 1080 Ti für ca. 1500 Euro an und möchte diese mit maximaler Bandbreite betreiben (und das würde man in dieser Position wohl definitiv wollen, auch, wenn es nur 5-10% Leistung kostet, zwei PCIe 3.0 x8-Slot zu verwenden), liefert weder LGA1151 noch AM4 die notwendige Anbindung - ebensowenig, wie es die LGA2066-CPUs unterhalb der 1000 Euro tun werden. Da ist die Sackgasse also schon erreicht. Eine oder mehrere NVMe-SSDs haben dann logischerweise auch keinen Raum mehr, dafür bedarf es dann zumindest der 44-Laner.
Natürlich sind solche Systeme nicht gerade die Regel und ich persönlich würde immer lieber auf die stärkstmögliche Single-GPU setzen als einen SLI-Verbund zu nutzen. Es gibt aber erwiesenermaßen einen Markt für solche Systeme, wie klein er auch immer sein mag :D
 
DeathShark schrieb:
Ich verstehe deine Argumentation - inklusive des "leicht" irrationalen Aufrüstdrangs, den kennt man als Hardware-Nerd wohl nur zu gut :D
Klingt für mich aber eher, als bräuchtest du eher mehr Grafikleistung als eine HEDT-Plattform, wenn deine CPU chillt und du die Details für mehr fps reduzierst xD

Ne nicht ganz, die CPU spielt bei hohen FPS-Zahlen eine wichtige Rolle.

Und Dirt 4 ist eines von wenigen Games, welches nicht viele Kerne braucht. Ich spiele Shooter und Rennspiele gerne mit hohen FPS Zahlen, da verzichte ich auf zB Msaax8. 1440p und x2 reichen hier - Bin so auf die Strecke konzentriert, dass ich davon eh nichts mitbekomme .. ^^

BF1 MP ist dann sehr CPU fordernd - Und SW Battlefront 2 wird allem Anschein nach sehr gut (1. Pretest von pcgh zB lesen) - Das wird auch so ein Massenshooter der dann CPU-fordernd ist und von mir gezockt wird.

Auch in BF1 "reicht" mein 4770k, läuft aber im Benchmodus bei mir @144fps droppt dabei aber immer wieder die fps auf ~100 weil er ins Limit läuft.

Grafikkarte kann man immer leicht regeln.
Schatten eine Stufe runter, Msaa x2 x4 x8 usw.
Die CPU kann man nicht so leicht regeln, wenn man denn 144+ FPS möchte - Die muss dann liefern, Ende :D
 
Anwendungen und vor allem Spiele lasten gerade mal 4 Kerne aus -teilweise auch 6 und 8 Kerne -aber 18 Kerne werden wohl kaum ausgelastet werden. Dazu kommt noch der hohe Energieverbrauch. Was hat man all die Jahre nicht alles versucht den
Stromverbrauch zu senken, das auch teilweise gelang. Nun jetzt steigt die Anzahl der Kerne und mit ihm der hohe Stromverbrauch. Die vielen Kerne werden wohl in den nächsten Jahren kaum Anwendungen oder Spiele finden, die sie tatsächlich auslasten. Natürlich wird man Stromsparfunktionen einsetzen, die Kerne abschalten, die nicht gebraucht werden. Da wird es
vorkommen, das ein 18 Kern Besitzer feststellen muss, das maximal 8 Threads benötigt werden -selten auch mal zwölf oder 16.
Aber seine CPU stellt 36 Threads zu Verfügung.... das hätte er für weniger als der Hälfte vom Preis seiner CPU haben können.
Oder will Intel doch den Sprung wagen, mithilfe der vielen Kerne, die Grafikkarte abzulösen...Also 18 Kerne wird man auch in drei Jahren noch nicht auslasten - nicht im Consumer Bereich.
Der Preis ist auch für den Massenmarkt untauglich. Prestige Objekt -mehr nicht!
 
Caramelito schrieb:
Ne nicht ganz, die CPU spielt bei hohen FPS-Zahlen eine wichtige Rolle.

Und Dirt 4 ist eines von wenigen Games, welches nicht viele Kerne braucht. Ich spiele Shooter und Rennspiele gerne mit hohen FPS Zahlen, da verzichte ich auf zB Msaax8. 1440p und x2 reichen hier - Bin so auf die Strecke konzentriert, dass ich davon eh nichts mitbekomme .. ^^

BF1 MP ist dann sehr CPU fordernd - Und SW Battlefront 2 wird allem Anschein nach sehr gut (1. Pretest von pcgh zB lesen) - Das wird auch so ein Massenshooter der dann CPU-fordernd ist und von mir gezockt wird.

Auch in BF1 "reicht" mein 4770k, läuft aber im Benchmodus bei mir @144fps droppt dabei aber immer wieder die fps auf ~100 weil er ins Limit läuft.

Grafikkarte kann man immer leicht regeln.
Schatten eine Stufe runter, Msaa x2 x4 x8 usw.
Die CPU kann man nicht so leicht regeln, wenn man denn 144+ FPS möchte - Die muss dann liefern, Ende :D


Du hast zwar grundsätzlich recht, wenn es um das Halten hoher FPS-Werte geht. Wenn du zum Erreichen derselben aber bereits Details herunterregelst, könnte mehr GPU-Leistung dir definitiv nicht schaden.

Und ja, Optionsmenü-Einstellungen, die die CPU beeinflussen sind seltener als solche, die Einfluss auf die GPU-Auslastung haben (auch, wenn es sie absolut gibt, das muss man dazu sagen :D). In Titeln wie BF1 und daher vermutlich auch Battlefront 2 helfen aber schon alleine viele Kerne sehr, was Frametimes und Min-Fps anbelangt. Vom letzten bisschen IPC profitiert man dann nicht mehr so sehr - womit wir dann wieder bei der oben diskutierten Frage wären, ob Intels Vielkerner hohen Takt auf allen Kernen gleichzeitig ohne weiteres werden realisieren können, wenn man sie nicht köpft. Was hier der Fall ist, wird sich freilich erst noch erweisen. Fürs Erste würde ich aber wie gesagt nicht davon ausgehen, dass Skylake-X die durchgängig bessere Wahl gegenüber Threadripper sein wird, IPC hin oder her - und den äußerst bescheuerten Namen der AMD-Speerspitze mal außen vor xD


Siegfriedphirit schrieb:
Anwendungen und vor allem Spiele lasten gerade mal 4 Kerne aus -teilweise auch 6 und 8 Kerne -aber 18 Kerne werden wohl kaum ausgelastet werden. Dazu kommt noch der hohe Energieverbrauch. Was hat man all die Jahre nicht alles versucht den
Stromverbrauch zu senken, das auch teilweise gelang [...]


Ja, teilweise, eine Zeit lang sogar bei den Spitzenmodellen im Mainstream. Und dann jagte man ein weiteres die Taktraten in die Höhe, um Leistung zu gewinnen und warf etwaige Effizienzvorteile aus dem Fenster. Für mich ist das ein deutlicher Indikator, dass man mehr Kerne gerade zur Effizienzsteigerung braucht (Beachten: Effizienz = Leistung pro Verbrauch). Das Ganze dann mit absurden Taktraten zu kombinieren läuft dem Ganzen natürlich etwas zuwider, zugestanden.
 
Zuletzt bearbeitet:
Dezor schrieb:
Zum einen freut es mich, dass die Preise nach unten korrigiert wurden...
Wow, sind bitte die Preis nach unten korrigiert worden. Im Gegenteil...Intel hat massivst verteuert. Gewiss ist der Preis pro Kern ist gefallen, aber du bekommst dafür auch weniger PCI-E Lanes unter 1000€(!!!) und zudem keine verlöteten Heatspreader mehr...dafür bekommst du billigste Zahlpasta, sprich du musst die CPU köpfen wenn die Sie übertakten möchtest. Und selbst das geht wohl wegen des RFID Chips auf der CPU nicht ganz problemlos.

AMD bietet verlötete Heatspreader, 64(!!!) PCI-E Lanes und bis zu 16 Kerne (lt. zdnet.de) wohl unter 1000€. Wenn du das mit Intel vergleichst, ist Intel total überteuert.

greetz
hroessler
 
Damit sind wohl endlich die Zeiten der schnarchenden Spieler Entwickler vorbei!
.
Kein Spruch mehr wie: Wir präsentieren heute unser neuestes AAA Spiel für Weihnachten 2017, welches 70 Mio. Entwicklungskosten verschlang. Wir haben das Spiel auf Dual und Quadcores optimiert; 6 und 8 Kerne interessieren uns nicht!
 
Krautmaster schrieb:
Edit: so wie ich das sehe weitere 24 PCIe Lanes am Chipsatz die quasi über Bottleneck 4x DMI am Skylake X CPU hängen. Damit hat man mindestens 28+24 Lanes. Sollte üblicherweise reichen.

Richtig. Effektiv stehen damit 28 (CPU) +4 PCIe 3.0 Lanes (Chipset via DMI, 4x 8 GT/s) mit voller Bandbreite zur Verfügung. Grundsätzlich lässt sich damit nahezu alles abseits von Multi GPU Systemen ohne Einschränkungen abbilden (10GbE, RaidC, mehrere NVMe SSDs etc.).

Wobei es für Multi GPU auch noch den Weg über eine Dual GPU Karte gibt (die Kommunikation zwischen den GPUs läuft dann nicht über die PCIe Lanes der CPU). Da CF/SLI unterhalb der absoluten Highend Modelle nicht gerade sinnvoll ist (Skalierung und Software Kompatibilität) kann ich Intels Ansatz (44 Lanes erst ab 10C / 1000€) schon nachvollziehen. Wer ~1700€ für zwei GTX 1080 TI mit Wasserkühler hinlegt kann sich auch 400€ Aufpreis bei der CPU (gegenüber 8C mit 28 Lanes) leisten.

Ist einfach das oberste Premium Segment und da kann man Herstellern kaum verübeln wenn das Preisschild und die Staffelung entsprechend ausfällt. Wer massig PCIe Lanes aus anderen Gründen braucht ist mit einem richtigen Xeon (-> Workstation, ECC) normalerweise besser bedient. 40 PCIe Lanes gibt es bei Broadwell-EP beispielsweise bereits ab 215€ ;)
 
Zuletzt bearbeitet:
Siegfriedphirit schrieb:
Anwendungen und vor allem Spiele lasten gerade mal 4 Kerne aus -teilweise auch 6 und 8 Kerne -aber 18 Kerne werden wohl kaum ausgelastet werden. Dazu kommt noch der hohe Energieverbrauch. Was hat man all die Jahre nicht alles versucht den
Stromverbrauch zu senken, das auch teilweise gelang. Nun jetzt steigt die Anzahl der Kerne und mit ihm der hohe Stromverbrauch. Die vielen Kerne werden wohl in den nächsten Jahren kaum Anwendungen oder Spiele finden, die sie tatsächlich auslasten. Natürlich wird man Stromsparfunktionen einsetzen, die Kerne abschalten, die nicht gebraucht werden. Da wird es
vorkommen, das ein 18 Kern Besitzer feststellen muss, das maximal 8 Threads benötigt werden -selten auch mal zwölf oder 16.
Aber seine CPU stellt 36 Threads zu Verfügung.... das hätte er für weniger als der Hälfte vom Preis seiner CPU haben können.
Oder will Intel doch den Sprung wagen, mithilfe der vielen Kerne, die Grafikkarte abzulösen...Also 18 Kerne wird man auch in drei Jahren noch nicht auslasten - nicht im Consumer Bereich.
Der Preis ist auch für den Massenmarkt untauglich. Prestige Objekt -mehr nicht!

Ihr dürft einen Prozessor auch nicht immer für ein Programm sehen. Aktuell laufen auf meinem PC z.B. 122 Prozesse ohne dass ich ein benötigtes Programm gestartet habe. Ein Kumpel von Streamt z.B. sowohl auf Twitch als auch auf YouTube gleichzeitig. Das Game, 2 mal OBS da schnauft sogar sein Intel 10 Kerner...

Es ist keine große Zielgruppe, aber es gibt sie...

greetz
hroessler
 
@Deathshark:
Klar wäre mir eine 1080ti lieber als meine 1080, nur wären das 300€ Aufpreis gewesen, die ich nicht bezahlen >wollte<, denn wie gesagt, Schatten 1x runter, Msaa von x8 auf x4 und tadaaa, alles gut :D
Grakas benutze ich dann ~2j eine CPU hoffentlich ca. 5. Da ist mir der Aufpreis ziemlich egal, wenn ich ehrlich bin.

Ja in Multicore-Games wird sich Ryzen ähnlich verhalten, Threadripper etc. ebenso - Aber der Grund für Intel und nicht Ryzen, waren alle Fronten, Single und Multi Thread, schon vergessen? :-P

Wobei ich auch denke, dass man mit 8 Kernen (Sprich i7 7820x oder Ryzen 7) mehr als lange genug Ruhe haben wird - So ein Threadripper oder Intel 10-18 Kerner sind da eher für Enthusiasten die damit was auch immer machen wollen ^^
 
DeathShark schrieb:
... Schaffe ich etwa zwei GTX 1080 Ti für ca. 1500 Euro an und möchte diese mit maximaler Bandbreite betreiben (und das würde man in dieser Position wohl definitiv wollen, auch, wenn es nur 5-10% Leistung kostet, zwei PCIe 3.0 x8-Slot zu verwenden),...

klar. Intel will an den Käufer von 1500€ GPUs eben auch eine CPU mit 44 Lanes verkaufen, ihn also hin zum Core i9-7900X treiben. 5-15% ist relativ, gibts dazu Tests mit ner 1080 TI?

http://www.gamersnexus.net/guides/2488-pci-e-3-x8-vs-x16-performance-impact-on-gpus

wohl eher 0,5%

Here's what we've got for performance:

Between AVG FPS metrics in Metro: Last Light, we're seeing a 1.05% gap (1440p) and 0% gap (4K). Between 1% low metrics, that difference is 0.95% (1440p) and 0%.

For Shadow of Mordor, the numbers are similar – we're seeing a 0.93% performance difference between AVG FPS metrics (or ~1% for 4K).

Black Ops 3, when there is a difference, shows one also just below 1%.

GTA V shows a difference of 0.52%. Ashes is similarly small.

Ganz ehrlich, da muss ich schon 20 Testreihen machen um überhaupt nen validen Unterschied aufzuzeigen.

Manchmal ist 8x auch schneller ;)
https://www.pugetsystems.com/labs/articles/Titan-X-Performance-PCI-E-3-0-x8-vs-x16-851/

Aber klar, ich mein... wie ich schon schrieb, Intel nutzt das zur Differenzierung da man von ausgeht dass jemand der für 2000€ GPU kauft auch 999$ in die CPU stecken kann wenn ihm die 0-5% Leistung durch 16+16 wichtig sind.

Viel eher ist es aber so dass Multi GPU eh so grottig rennt dass ich auch bei nem 5000€ Rechner nicht in Multi GPU investieren würde.
 
Zuletzt bearbeitet:
Zurück
Oben