News Core X: Intel spezifiziert die fehlenden Skylake-X alias Core i9

Wadenbeisser schrieb:
Vermutlich hat er nicht geschnallt das SLI dafür irrelevant ist.

Oder er hat nicht verstanden, dass die Welt nicht nur aus DP und HP besteht oder hat noch nie mit matlab gearbeitet oder er bietet mir gerade an den Finanzierungsantrag für seinen Supercomputer zu schreiben.

Oder halt eine Variation daraus.... Die bisherige Heizung aus 2x 1070 funktioniert jedenfalls ganz passabel, wobei mich immernoch nervt, dass Mathworks es nicht getreten bekommt OpenCL Unterstützung zu bringen.

@ xexex

ist doch komisch irgendwie das die bei deinen Links keine FP32 performance angegeben haben oder? Warum nur...
 
Zuletzt bearbeitet:
xexex schrieb:
"Š2 x PCI Express x16 slots, running at x16 (PCIEX16_1, PCIEX16_2)
* For optimum performance, if only one PCI Express graphics card is to be installed, be
sure to install it in the PCIEX16_1 slot; if you are installing two PCI Express graphics
cards, it is recommended that you install them in the PCIEX16_1 and PCIEX16_2
slots.
Š 2 x PCI Express x16 slots, running at x8 (PCIEX8_1, PCIEX8_2)
* The PCIEX8_1 slot shares bandwidth with the PCIEX16_1 slot and the PCIEX8_2
slot with PCIEX16_2. The PCIEX16_1/PCIEX16_2 slot will operate at up to x8 mode
when the PCIEX8_1/PCIEX8_2 is populated."

Die Bandbreite wird automatisch geteilt.

Ja. Aber die können nicht alle an der CPU hängen. PCIe 16_1 wird an der CPU hängen und wenn etwas in PCIe8_1 steckt, bekommen beide Anschlüsse 8 Lanes von der CPU. Alles andere hängt am Chipsatz. Vielleicht reden wir aneinander vorbei, aber ich las #108 so, dass du meinst, dass alle PCIe-Anschlüsse an der CPU hängen.
 
Ned Flanders schrieb:
Sorry Leute, aber die PCIe Lanes sind hier zum Beispiel sofort weg. Das erste Threadripper Sys das hier aufgestellt wird, ist ein Cuda Number Cruncher für Matlab mit 4x GeForce 1070.

Zum Glück gibts auch Boards mit 10gb LAN onboard, sodas man da nicht einen der x16 Slots verbraucht. Dazu kommen dann aber trotzdem noch die M.2 SSDs etc. pp.

Als Daddelkiste ok, aber in nem Rechner der den Namen auch verdient sind die PCIe lanes des TR schon mehr als ein nice to have.

Okay also 64 Lanes - 4 Lanes für den Chipsatz über diese 4 Lanes laufen dann 10gb Lan und die M.2 SSD sowie USB 3.1 etc, je nach Mainboard-Hersteller.

Also haben so oder so nicht alle 4x16 16 Slots denn 4*16 = 64 Du hast aber "nur" 60. Also egal welchen Hersteller man gerade nimmt mit nur einen "Sockel" geht 16/16/16/16 nicht einfach weil nicht genug Lanes vorhanden sind!


@Dezor:
Doch die hängen alle an der CPU sind ja 32 Lanes die genutzt werden in dem Beispiel und da der Chipsatz nur 4 Lanes bekommt kann er ja auch nur max. 4 Lanes weitergeben.
16/16/0/0, 16/8/0/8 oder 8/8/8/8
 
Zuletzt bearbeitet:
immer wieder diese Diskussion :rolleyes: 24 Chipsatz lanes ersetzen unter Vollast max. 4 echte PCIe3.0 CPU Lanes , eigentlich noch nicht mal das , weil der ganze Kleinkram von der DMI3.0 Transferrate abgezogen werden muss , die grade mal 32 gbit beträgt ( zum Vergleich : USB 3.0 = 5 gbit USB 3.1 = 10 gbit )

Wer 3 oder 4 SSD s + eine 4 TB HDD als Datengrab eingebaut hat , weil er im Normalfall keine Laufwerke mit beweglichen Teilen mehr einsetzen will , dazu noch 10 gbit Lan einsetzt und womöglich noch nen TB3 Controller nutzt , wird recht oft damit konfrontiert werden das seine Laufwerke nicht mir der Geschwindigkeit arbeiten , mit der sie laufen könnten , und es ist relativ egal ob der Anwender das merkt oder nicht , ob die Anwendung oder das Spiel 2 sec später startet .
Bei den Intel Cpu s mit 44 Lanes ist das nicht so gravierend , da schnelle M2 NVME an der CPU hängen , bei Kaby/Coffeelake hingegen sind die grade mal 16 Lanes schon ein Flaschenhals . Fällt bloß nicht auf , weil mal SSD Benchmarks normalerweise nicht gleichzeitig startet , sondern die Laufwerke hintereinander testet . Würde man dort ne 960 Evo M2 und ne Sata SSD gleichzeitig testen , würde einem auffallen das die Sata transferraten von denen der 960 EVO abgehen , zumindest bei der Leseleistung .

Wie auch immer , CPU Lanes sind Chipsatz Lanes immer vorziehen , egal was Xexec oder jemand anderes behaupten mag .
 
Zuletzt bearbeitet:
Caramelito schrieb:
Und ja, "jedes" Game läuft "ausreichend" mit jeder neuen CPU. Aber in bestimmten Games (bei mir WoW) gibt es eben einen großen Unterschied zw. 4.7ghz eines 7700k und 3.9ghz eines Ryzen.
Das Thema gab es hier im Forum schon sehr oft.
Die einen geben sich mit 60fps zufrieden. Die anderen nicht. Ganz einfach ist das

WoW läuft bei mir auf meinem 4690S mit MSI GTX 770 mit fast allen Details auf Maximum butterweich. Ich habe VSync an, damit die Grafikkarte heruntertakten kann und unhörbar leise bleibt. Auf meinem alten PC mit GTX 295 konnte ich auch bei 30 FPS keine Ruckler wahrnehmen. Bei Diablo 3 habe ich hingegen das Gefühl, dass das Spiel zwingend 60 FPS braucht, denn es fühlt sich bei 55 FPS bereits unspielbar stockend an.
Ergänzung ()

eselwald schrieb:
@Dezor:
Doch die hängen alle an der CPU sind ja 32 Lanes die genutzt werden in dem Beispiel und da der Chipsatz nur 4 Lanes bekommt kann er ja auch nur max. 4 Lanes weitergeben.
16/16/0/0, 16/8/0/8 oder 8/8/8/8

Es ging um ein Board mit Z170 Chipsatz. Der Chipsatz bietet 20 Lanes https://ark.intel.com/products/90591/Intel-Z170-Chipset und die CPU (nehmen wir mal die stärkste) bietet "nur" 16 Lanes https://ark.intel.com/products/97129/Intel-Core-i7-7700K-Processor-8M-Cache-up-to-4_50-GHz.

Die 4 Lanes für den Chipsatz hast du nur bei AMD und wenn der Chipsatz 4 Lanes bekommt, könnte er die auch nicht komplett weiterleiten, denn dann könntest du an dem Chipsatz nichts anderes mehr betreiben (USB, SATA, ...)
 
Dezor schrieb:
Ja. Aber die können nicht alle an der CPU hängen.

Hier wird dir geholfen...

Gigabyte hängt sie über Splitter und/oder Switche alle an die CPU. Biostar zweigt 3 PCIe bei dem genannten Board vom Chipsatz ab.

http://www.pcgameshardware.de/Mainboard-Hardware-154107/Specials/PCI-Express-erklaert-1168801/
http://www.pcgameshardware.de/Mainboard-Hardware-154107/Specials/PCI-Express-x16-gegen-x8-1136576/

eselwald schrieb:
Doch die hängen alle an der CPU sind ja 32 Lanes die genutzt werden in dem Beispiel und da der Chipsatz nur 4 Lanes bekommt kann er ja auch nur max. 4 Lanes weitergeben.
16/16/0/0, 16/8/0/8 oder 8/8/8/8

Bei 1151 gibt es nur 16 die aufgeteilt werden.
 
Zuletzt bearbeitet:
@MK one
Was willst Du denn als normal Sterblicher von 2 SSD's gleichzeitig lesen und vor allen Dingen wohin willst Du lesen?
Normal liest man von einer SSD, macht etwas damit (Video z.B.) und schreibt es auf die andere SSD. Da DMI 3.0 Voll Duplex kann ist auch das kein Problem.
Erst wenn man mit seine SSD's Raid 0 macht limitiert der Chipsatz aber klar doch, dass machen ja die meisten und wer das macht kauft sich wohl die richtige Plattform dazu.
 
eselwald schrieb:
Okay also 64 Lanes - 4 Lanes für den Chipsatz über diese 4 Lanes laufen dann 10gb Lan und die M.2 SSD sowie USB 3.1 etc, je nach Mainboard-Hersteller.

Also haben so oder so nicht alle 4x16 16 Slots denn 4*16 = 64 Du hast aber "nur" 60. Also egal welchen Hersteller man gerade nimmt mit nur einen "Sockel" geht 16/16/16/16 nicht einfach weil nicht genug Lanes vorhanden sind!

Ich sags ja, Lanes sind immernoch knapp. Aber ich hab lieber 60 davon (und immernoch zu wenig) als 40 davon.

Das Argument das wenn 64 nicht reichen 40 auch genug sind zieht bei mir jetzt nicht unbedingt.
 
Gut, also hängen sie an einem Zusatzchip, nicht direkt per 1:1 Verdrahtung an der CPU. Das heißt die Bandbreite wird so verteilt, dass sie optimal ausgenutzt werden kann. Wäre man durch entsprechende Geräte dauerhaft auf die volle Bandbreite angewiesen, würde sich die Performance trotzdem halbieren.
 
zieh dir Daten mit 10 Gbit Lan aus einem NAS auf SSD = max 22 Gbit übrig bei DMI 3.0 , Kopiere gleichzeitig Daten von ner internen SSD auf nen extern angeschlossene SSD ( so was soll s auch geben , weil mobil ... ) auch mit 3.1 = 12 gbit verbleibend und starte von deiner 960 Evo als System SSD ne Anwendung ...
glaubst du tatsächlich das Chipsatz Lanes und CPU Lanes gleichwertig sind ?

oder auf HEDT bezogen , 16x 1080 TI zum Gamen+ meinetwegen ne 16x Radeon Instinct https://instinct.radeon.com/en-us/product/mi/ aus beruflichen Gründen
mit TR problemlos möglich , mit Intel erst ab 7900x , da 28 Lanes zu wenig ...
 
@oldmanhunting
Wie wäre es damit:
SSD1: Ablageort für Programme und das OS.
SSD2: schneller Zwischenspeicher zum bearbeiten und Ablageort der Auslagerungsdatei.

Schon dürften Übertragungsspitzen schneller auftreten als so manch einer wahrhaben will.
 
Ned Flanders schrieb:
Ich sags ja, Lanes sind immernoch knapp. Aber ich hab lieber 60 davon (und immernoch zu wenig) als 40 davon.

Das Argument das wenn 64 nicht reichen 40 auch genug sind zieht bei mir jetzt nicht unbedingt.

Das hast Du natürlich Recht genug kann man nicht haben, ich finde die Frage und die muss jeder für sich beantworten brauch ich diese selber wirklich oder will sie einfach nur haben obwohl ich nichts damit mache. Aber wir wissen ja "haben ist besser als brauchen"
 
eselwald schrieb:
Aber wir wissen ja "haben ist besser als brauchen"

Schöner Satz. Mir ist auch klar dass ich hier etwas der Anwender Exot bin (wobei Cuda und OpenCL Maschinen gibt es zumindest im Forschungs Umfeld viele, nur so viele Wissenschaftler gibts halt nicht).

Wenn ich aber die Lanes nicht bräuchte, bräuchte ich wohl auch die 18 Kerne nicht mehr und dann wäre ich sehr schnell zurueck auf z270 *hust* z370 oder eben X370.

Aber wie gesagt, das ist halt mein Anwendungsfeld.... immerhin bin ich wohl einiger der wenigen hier die so eine Plattform auch auslasten ohne einen Anwendungsfall aus gelesenem zu konstruieren oder für andere über BOINC zu rechnen.
 
Wadenbeisser schrieb:
Genau das ist aber das Problem. Was sind die Lanes wert wenn man sie nur mit einer begrenzten Bandbreite nutzen kann?
Baumel 2 PCIe SSD an den Chipsatz oder oder oder.
Die Lanes beim Chipsatz sind nicht für hohe Bandbreiten gedacht sondern um möglichst viele Geräte daran anschließen zu können die normalerweise nicht alle gleichzeitig mit der CPU oder dem RAM quatschen wollen.
Ergänzung ()

@ Krautmaster
Wenn die SSD an der CPU hängt und die LAN Karte am Chipsatz müssen die Daten zwangsläufig über über die DMI Verbindung laufen um auf die SSD zu kommen. Wieviel Bandbreite bleibt dann noch für andere Geräte am oder im Chipsatz übrig?

wie gesagt, für defakto jede Anwendung im HEDT Markt mehr als genug Bandbreite. Auch da wird man kaum die GPU am Chipsatz betreiben. Klar, das 4x PCIe Basierte DMI bietet den gleichen Flaschenhals wie AMDs Southbridge die auch über 4x angebunden ist. Nur eben dass da bei beiden Plattformen (AM4 und SR3) mehr an der CPU bereitstehen - aber zugleich etwas Flexibilität verloren geht.

Ich seh das wie xexex - vor und Nachteile. Wenn es darum geht Anschlüsse wie USB, Sata und viele PCIe Slots zu realisieren sind eher die Anzahl der Lanes entscheidend, da ist zb AM4 schneller ausgebremst als eben die Intel Lösung mit quasi PCIe Switch im Chipsatz. Dafür hat man bei AM4 den Vorteil 4 Lanes mehr auf CPU Seite zu haben.

Hängst du da aber die SSD an die CPU und die GB Lan Karte an den Chipsatz muss das wie bei Intel über die Verbindung zum Chipsatz, ergo PCIe 4x. Bandbreite ist aber wie ich finde meist das kleinere Übel. Selbst bei GPU haut das kaum rein. Viele würden nicht merken ob die SSD bei 2x oder 16x PCIe Gen 3 laufen würde. 3D Xpoint zeigt dass da die Zugriffsszeiten wichtiger sind.
Ich fühl mich schon recht pro, hab 10GB Lan und nen NAS dass auch 800 MB/s liefern kann, aber ich wüsste gar nicht wie ich sinnvoll DMI dicht machen sollte.

Da kann ich mir eher vorstellen an mein ASrock B350M Pro 4 ne M2. SSD anzuklemmen mit 2 Platten an Sata. Und ne SATA Laufwerk geht schon nicht mehr da der B350M auf diesem Board von den 4 SATA 2 mit dem M.2 shared.

@MK one

wer einen Anwendungsfall hat dass er zb von 40 oder gar 64 Lanes profitiert wird das schon wissen dann ja. Dann kann er ja seine 10GByte / s hin und herschaufeln wie er will.

Die 28 Lanes, da geb ich euch recht. Das ist im Sinne von Multi GPU, was bei HEDT durchaus vorkommt, unschön (wenn gleich auch da bei 8x fast dieselbe Performance dasteht).

Wie gesagt. Mir fehlt noch das wirkliche belegbare Beispiel bei dem dann DMI oder AMDs Chipsatz Verbindung limitiert. Das muss doch messbar sein.
Ergänzung ()

MK one schrieb:
Wie auch immer , CPU Lanes sind Chipsatz Lanes immer vorziehen , egal was Xexec oder jemand anderes behaupten mag .

Hat eigentlich mal jemand getestet ob so eine CPU überhaupt simultane Datenrate auf jedem PCIe Lane bereitstellen kann? Schon mal dran gedacht dass intern vielleicht auch nur ein PCIe Switch oder anderer Flaschenhals existiert?

Kann ein i5 / Ryzen 40Gbyte /s über PCIe verarbeiten? Ein Threadripper ~128 Gbyte /s.
 
Zuletzt bearbeitet:
HominiLupus schrieb:
Ich weiß was TDP ist
Das scheint aber nicht so, sonst würdest Du nicht so einen Unsinn schreiben der immer noch unterstellt die TDP wäre eine Angabe zu Leistungsaufnahme.

HominiLupus schrieb:
aber wenn ich eine Intel CPU mit Dauerlast in einem validen Progamm (Prime95 z.B.) konstant auf über 100W Verbrauch bringe, hat Intel schlicht gelogen.
Nein und außerdem kann das Board ein Power Limit setzen und dann nimmt die CPU allenfalls kurzfristig mehr Leistung auf als das vorgegebene Limit.
HominiLupus schrieb:
Die Lüge mag nicht bewusst sein (was natürlich desaströs für das Vermögen von Intel wäre überhaupt CPUs zu bauen) aber eine Lüge ist es doch.
Nein das ist keine Lüge und Deine Aussage belegt klar, dass Du nicht weißt was die TDP ist. Übrigens nimmt auch ein RYZEN R7 1800X gerne mal dauerhaft Leistung auf als die 95W seiner TDP.
HominiLupus schrieb:
Ob die Lüge jetzt nur die "verbraucht 7,1 Liter auf 100km" Lüge
Aber kein vernünftiger Mensch wird erwarten, dass ein Auto diesen Verbauch auf jeden Fall einhält, gut bei den meisten erwartet man heute nicht einmal mehr überhaupt irgendwie mit den angegeben Litern 100km weit zu kommen, aber den tatsächlichen Verbrauch bestimmte die Fahrweise und wenn der Wagen mit eine Höchstgeschwindigkeit von 200km/h angegeben ist, kann auch auch nicht erwarten 200 zu fahren und dabei auch nur 7,1l auf 100km zu verbrauchen.

Helios_ocaholic schrieb:
Dann lies doch mal was da wirklich steht:
Die UEFI vieler X299er Boards übertakten selbst in der Defaulteinstellung die CPU butal und dies erst recht bei intensiver AVX Nutzung, wenn eigentlich Taktraten im Bereich des Basistaktes anliegen sollten. Inzwischen scheinen die neuen UEFI Versionen sich besser an die Vorgaben von Intel bzgl. der Taktraten zu halten, aber gerade bei den frühen Tests und Reviews waren meist die Taktraten und damit die Leistungsaufnahme viel zu hoch, weshalb es zum Throttling kam, zumal auch die die Spannungswandler viele Boards dann nicht ausreichend gekühlt waren und dies dann auch das Board zwingt die CPU zu throtteln. Da haben die Boardhersteller bzw. deren UEFI Programmierer echt Blödsinn gebaut und ausreichend getestet wurde mit Sicherheit auch nicht.

Wadenbeisser schrieb:
Und wie sieht es aus wenn die PCIe SSD an der CPU und die LAN Karte am Chipsatz hängt oder umgekehrt?
PCIe ist vollduplex, kann also in beide Richtung gleichzeitig Daten übertragen. Damit bremst es selbst dann nicht, wenn man Daten von einer schnellen M.2 PCIe SSDs am Chipsatz auf eine andere kopiert die ebenfalls am Chipsatz hängt. Nur wenn beide gleichzeitig lesen (oder bei ganz schnellen ggf. auch schreiben), was aber praktisch nur bei RAIDs vorkommt, dann wird DMI3 wirklich mal zu einem Flaschenhals, aber Dank VROC kann man das beim Skylake-X auch an den PCIe Lane der CPU realisieren, RAID 0 kostet auch nicht extra.
Wadenbeisser schrieb:
bei einem Crossfire/SLI Verbund die andere Grafikkarte am Chipsatz hängt usw. usf.
Grakas hängt man nicht an die Lanes des Chipsatzes, schon weil diese zu maximal 4 Lanes kombiniert werden können. Wer es trotzdem tut, der sollte bzgl. der Performance keine besonderen Ansprüche stellen oder verwendet das Ganze dann für Berechnungen wie Mining bei denen die Bandbreite der Anbindung der Grakas keine Rolle spielt.
 
IBISXI schrieb:
Wie bitte?
Welcher Intel ist bei halbem Takt gleich schnell in Prime?

Hast du da mal eine Quelle dazu?
Ich hab auf die schnelle nichts gefunden.

geht um die AVX Performance.
Anhang anzeigen 636686

Y Cruncher ist quasi der AVX Bench. Wenn man sich das vor Augen führt wird auch klar weshalb man bei gleichem Takt bei AVX so satt mehr Saft zieht. Und Prime mit AVX macht ja nichts anderes als AVX zu rechnen. :)
 
Zuletzt bearbeitet:
@ Holt
Und? Das bedeutet lediglich das gleichzeitig Daten gesendet und empfangen werden können und ändert nichts an der verfügbaren Bandbreite. Fordern mehrer Geräte gleichzeitig Daten an müssen sie sich dennoch den Flaschenhals teilen.
 
Krautmaster schrieb:
Da kann ich mir eher vorstellen an mein ASrock B350M Pro 4 ne M2. SSD anzuklemmen mit 2 Platten an Sata. Und ne SATA Laufwerk geht schon nicht mehr da der B350M auf diesem Board von den 4 SATA 2 mit dem M.2 shared.

Come on Krautmaster, das ist ein µATX Board! Das als Beispiel für Limitierungen der AM4 Plattform herzunehmen ist jetzt schon etwas gewagt....
 
Zuletzt bearbeitet:
ja deswegen heißt es Flaschenhals. Ich bin zwar noch niemand hier auf CB oder in the real world begegnet bei dem sich das als Flaschenhals ergeben hat aber theoretisch und sicher auch Praktisch ist er da. Sagt ja auch keiner was anderes.
Ergänzung ()

Ned Flanders schrieb:
Come on Krautmaster, das ist ein µATX Board! Was das als Beispiel für Limitierungen der AM4 Plattform herzunehmen ist jetzt schon etwas gewagt....

nein das ist genau richtig da. Weil die Chance zb 6 statt 4 SATA zu benötigen doch 1000x größer ist als die in ein Chipsatz Bandbreiten Limit zu laufen. Ein Bandbreitenlimit dass einen auch noch konkret in der Arbeit behindert.

Ich hab mich beim B350 kauf was das angeht wohl nicht schlau genug gemacht. Ich wusste nicht dass sich die SATAs sharen.
http://www.pcgameshardware.de/Mainb...s/B350-Ryzen-Promontory-Chipset-SATA-1233969/

Es geht schlicht darum dass das Thema oft total überdreht wird. Das mag bei dem µATX Board stimmen (ist übrigens aber bei ATX B350 eben genauso ) - aber wie ich finde noch viel massiver in der Diskussion in wie fern der DMI im Privatbereich oder selbst bei HEDT einen ausbremst. :rolleyes:

Da ist der Preis ein ein deutlich gewichtigeres Argument. Sogar die TIM Thematik wiegt da deutlich schwerer.


Einfach mal drüber Nachdenken wie oft ich oder wie oft andere schon drüber gestolpert sind dass sie zb nicht genug SATA aufm Board haben - und wie oft dem Umstand dass der DMI limitiert hat. :freaky:
 
Zuletzt bearbeitet:
Zurück
Oben