News Entwickelt Intel den PCI-Express-x2-Slot?

Commodore128 schrieb:
Volker, Volker, einen x8 Slot,der quasi nie genutzt wird? LOL, hast du schonmal was von hardware raidkontrollern gehört? Bestimmt, oder? Die sind alle x8, dafür ist dieser Slot auch gedacht!

Commodore, Commodore wie viele haben nen Hardwareraidcontroller? Otto-Normal sicher nicht nicht wenn es aber nur 1% oder weniger der Bevölkerung nutzt ist das irgendwie nicht schon "quasi nie"?
 
Klingerdennis schrieb:
Commodore, Commodore wie viele haben nen Hardwareraidcontroller? Otto-Normal sicher nicht nicht wenn es aber nur 1% oder weniger der Bevölkerung nutzt ist das irgendwie nicht schon "quasi nie"?

Wenn die überwiegende Mehrheit der hier sich hirnstuhlartig äußernden Kinder keinen Einsatzzweck für einen 8x Slot findet, heißt das noch lange nicht, daß es die überwiegende Mehrheit aller(!) Rechneranwender ist. Falsche Logik, zudem ist die Argumentation noch seicht.

Entweder hat sich CB um eine sinngemäße Einschränkung der Aussage vertan oder aber man vertritt wirklich nur das Hifi-Manta-Golf-Klientel, dessen Phallusverlängerung ein PC ist oder dieser als Spielkonsolenersatz dient. Daß solche "Anwendert" selten bis gar nicht einen 8x-RAID Controller einsetzen (geschweige denn wissen, was das überhaupt ist), ist nicht verwunderlich.

Vielleicht sollte man CB aufteilen - in Kindergarten und den Altherrenteil.
 
DaBzzz schrieb:
Sag, wozu braucht beispielsweise ein 2-Port USB3.0-Controller eine Anbindung von symmetrischen 8 GB/s? Und wieso sollte man das PCB so lange machen, wenns doch keiner braucht? Kostet auch sein Geld. Oder soll man nur Karten anbieten, die auch ordentlich Ports haben und damit den x16 ausnutzen? Das will auch keiner bezahlen. Und 12+ USB-Ports braucht auch kein normaler Mensch.
...wir könnten aber auch einfach Grafikkarten auf x8 oder kleiner beschneiden. Weitere Worte dazu überlass ich den Besitzern von Dual-GPU-Karten.

Du hast schon recht das so eine USB 3.0 Karte solche Anbindungen nicht braucht,aber wenn auf Motherboards alles etwas einheitlicher wäre,hatte man als Endkunde nicht immer die Qual der Wahl.Ferner wäre eine Anbindung von 8GB/s auch nicht das schlechteste oder ? Bei großen Datenmengen die man verschieben will eine enorme Zeitersparnis :evillol:

Anstatt bewährtes weiter zu verbessern werden immer mehr neue Standards entwickelt.Ich zumindest habe das Gefühl,das dies in eine falsche Richtung geht.Aber so ist numal der Technische Fortschritt von heute.Alles schnell auf den Markt geschmissen und dazu noch verdammt kurzlebige Marktpräsenz im Gegensatz zu früher.
 
Eisenfaust schrieb:
Wenn die überwiegende Mehrheit der hier sich hirnstuhlartig äußernden Kinder keinen Einsatzzweck für einen 8x Slot findet, heißt das noch lange nicht, daß es die überwiegende Mehrheit aller(!) Rechneranwender ist. Falsche Logik, zudem ist die Argumentation noch seicht.

ich kann ja nichts beweisen aber ich wage es mal sehr stark zu bezweifeln das der überwiegende anteil der PCs einen RAID controller hat im kompletten consumer markt dürfte es kaum RAIDs geben guck dir die PCs von saturn und co an die haben auch nie RAIDs warum auch?
Eisenfaust schrieb:
Vielleicht sollte man CB aufteilen - in Kindergarten und den Altherrenteil.

damit dürftest du den überwiegenden anteil der bevölkerung als kindergarten bezeichnen
 
chip273 schrieb:
Intel sollte mal auf Chipsatzseite nachbessern, statt die Spezifikation zu ändern.
Wie wäre es denn mal mit Mainboards, die 7 stück x16 Ports haben, die dann auch mal alle voll beschaltet sind, statt dann immer "(elektrisch nur x4)" usw. ?

Das Problem ist die Spannungsversorgung der Lanes. Eine Lane besteht aus zwei Peer-to-Peer Leitungen: eine hin, eine zurück. Jeder PCIe Slot darf maximal mit 75 Watt belastet werden (soweit ich weiß). Die Spezifikation sieht maximal 32 Lanes vor - riesige Slots, die ich in herkömmlichen Rechnern noch nicht gesehen habe, allenhalben in gigantischen Maschinen, die über PCIe ihre 'Blades' anbinden, aber da gibt es proprietäre Systeme, die besser geeignet sind.

Zudem kommt der Preis pro Platikslot und die Edel- und Halbdelemetalle für die Leiterbahnen. Für Spielzeugrechner einfach zu teuer! So ein PCchen fürs Kinderzimmer wird nach zwei Jahren spätestens in die Tonne geklopft. Das ist einfach nur kostspielieg.

Tigerfox schrieb:
Weil Intel so geizig mit PCIe Lanes im Chipsatz ist bzw. sich auch für Panther Point nicht bemüssigt fühlt, endlich PCIe3.0 im PCH zu integrieren, soll zur Lösung der Bandbreitenprobleme gleich ein neuer Standard verabschiedet werden?
Dabei sehe ich auch nicht wirklich, wo das Problem sein soll: Es stimmt zwar, dass gängige SATAIII-Controller von Marvell, die mit nur einer Lane angebunden werden, ausgebremst werden (allerdings schon bei etwa 400MB/s, nicht bei den 500MB/s einer Lane) und dass es zur Lösung dieses Problems einen 88SE9182 mit einer x2-Anbindung gibt, der auf einigen wenigen teuren Asus-Boards bereits verbaut wird.

Daß Intel kaum etwas Gutes für seine Kunden übrig hat und aus dem Markt herauspreßt, was möglich ist, wissen wir. Die Monopolstellung ist einfach nur malat.

Dennoch finde ich es ganz gut, daß Intel, anders als AMD, nichts suggeriert, was eh fauler Zauber ist. PCIe hat eine Sterntopologie. Jedem wird theoretisch die maximale Bandbreite zugebilligt. Das Heißt, die interen Crossbar Switch /Hub muß n-mal X-fach Slots mit voller Last bedienen können! selbst Intels an sich guten Chipsätze haben irgendwo einen Sättigungspunkt erreicht, der nur einen Bruchteil dieser theoretischen Maximalbandbreite darstellt. Und dann kommt noch der peinliche Flaschenhals DMI 1.0/2.0 hinzu. Gerade bei RAID Arrays, die auf einem SAS 2.0 Controller aufsetzen, kommt schnell bei 16 oder 32 Laufwerken eine Sättigung des DMI zustande, so daß sich die Anbindung solcher geschichten an den Chipsatz nicht lohnt. Und diesen Mangel haben auch die Serverchipsätze, man denke nur an Tylersburg!

Intel hat zudem noch ein weiteres Problem: man will aus Kostengründen nur noch einen Chipsatz bauen, der aus einem Chip besteht. Zwar verstehe ich nicht, daß diese Chips plötzlich teurer sind als die Zweichiplösungen, aber man wird in Tel Aviv gute gründe dafür haben. Die TDP solcher zusammengepferchter Bausteine scheint ein Poblem, denn man muß sich überlegen, daß Intel die Chipsätze auf den alten Fertigungsstraßen produziert, in einer relativ 'groben' Strukturbreite (also 45nm derzeit). Da ist natürlich wenig Spielraum ... Und der Root Komplex für die PCIe lanes nimmt doch schon Platz und Watt in Anspruch ...

Darklanmaster schrieb:
Meiner Meinung nach gehören auf ein MoBo nur x16 Slots (sind ja abwärtskompatibel).
Je nachdem was in den Slots steckt und was an Lanes frei ist müsste der Chipsatz diese an die gestecken Karten verteilen (optional im Bios einstellbar). Also eine dynamische zurordnung von Lanes an die Slots.

Das wäre die einzig vernünftige Lösung

Das macht aber die Bretter groß und kostspieleig, weil die großen Slots teurer sind und mehr Platz brauchen. Da es bei der Massenwarenherstellung auf jeden Mikro-Pfennig ankommt, wird man sich diese dann sparen.

RubyRhod schrieb:
Das ist logisch - man braucht ein gewisses "Regelwerk", das natürlich nicht unübersichtlich und aufgebläht sein darf.

Aber bitte:
Die Slots 1, 2, 4, 6, 16 oder 32 Lanes breit machen, bis auf den 32er immer nach hinten offen, als Option einen ebenfalls standardisierten "Fanghebel" (wie oft bei Graka-16x-Slots vorhanden), und dann passt das doch.

1x Karte in 2x Slot --> geht
2x Karte in 1x Slot --> geht

1x Karte in 16x Slot --> geht
16x Karte in 1x Slot --> geht

Das wäre mal eine volle Kompatibilität gewesen, mit der jeder zurecht kommt und nach jeder Hersteller seine Karte auf seine Bedürfnisse zuschneiden kann.

Ich bin nicht ganz firm in der mechanischen Spezifikation, aber die Aussparung an den Karten, die es ermöglicht, eine 8x Karte in einem 1x Slot einzusetzen, müßte bei Umwidmung zu einem 2x Standard auch verschoben werden. Das würde bedeuten man hätte in einer Übergangszeit zwei zueinander inkompatible Kartentypen, die wiederum nur in Slotz größerer Ausprägung lauffähig wären (in 8x oder 16x könnte man sie einsetzen).


Auf teuren Serber- und Workstationplatinen von Tyan, SuperMicro, ASUS oder EVGA findet man zuweilen selbst für die 4x Anbindungen nur noch durchgangig mechnaische 16x Slots, wovon dann die 16x oder 8x farbig kodiert sind. Diese Lösung finde ich sehr gut, gibt sie einem Freiraum. Allerdings induzieren die verwendeten Multiplexer eine nicht unerhebliche Latenz ...
 
Ich verstehe jetzt nicht, wo AMD seinen Kunden faulen Zauber suggeriert. Im Gegensatz zu Intel saßen bei AMD immer auch die PCIe-Lanes für Zusatzgeräte in der Northbridge und die war von A-Link/DMI-Flaschenhals befreit und mit der CPU über HT verbunden. Erst seit neustem hat AMD auch Lanes in der Southbridge, leider.

Bei Intel hingegen hatte die Northbridge immer nur die Lanes für die Grakas und alle zusätzlichen waren in der Southbridge und haben am DMI gelitten. Da braucht man keine 16-32 Laufwerke, DMI2.0 lässt sich schon mit den 6 Ports von Cougar Point überlasten, wenn mindestens einer davon mit 6Gb/s genutzt wird. Tylersburg ist die einzige Ausnahme bisher, Patsburg evl. auch.

Dass die PCHs teurer sein sollen als die alten MCHs+ICHs verstehe ich auch nicht, denn im Grunde sind die PCHs identisch mit den früheren ICHs, je nach Modell zusätzlich mit dem FDI. Aber sie sind keinesfalls sowas zusammengepferchts wie Nvidias MCPs es waren.

Übrigens stellen AFAIK nur die PEGs 75W zur Verfügung, alle anderen Slots nur 25W.
 
chip273 schrieb:
Intel sollte mal auf Chipsatzseite nachbessern, statt die Spezifikation zu ändern.
Wie wäre es denn mal mit Mainboards, die 7 stück x16 Ports haben, die dann auch mal alle voll beschaltet sind, statt dann immer "(elektrisch nur x4)" usw. ?

Klar warum nicht gleich 100 Stück und das Mainboard bringen wir dann aus Platzmangel in einer Fabrikhalle unter oder wie?! :freak:

@Topic:
Sehe den Sinn des ganzen auch nicht so wirklich da PCI-E 3.0 ja vor der Tür steht.
 
Ja, nur bei Intel eben noch nciht in absehbarer Zeit und bei den Controllerherstellern wohl auch nicht. Intel sucht daher nach einer kurzfristigen Lösung für aktuelle Controller.
 
TeHaR schrieb:
Nein eben nicht. Die PCIe Spec erlaubt nur 16/8/4/1 Anbindung.
Hast du Zugang zu den Spezifikationen? Sind ja leider nicht öffentlich zugänglich.

Denn für die PCIe 1.0 waren 1,2,4,8,12, 16 und 32 Lanes vorgesehen. Wann da was gestrichen wurde würde mich mal interessieren.

Eisenfaust schrieb:
Vielleicht sollte man CB aufteilen - in Kindergarten und den Altherrenteil.
Am besten auch noch nen Teil für unnötig rumpöbelnden Trolle.
Es geht auch nicht darum dass es kein Anwendungsgebiet für x8 Slots gibt, sondern dass es Situationen gibt wo ein x1 Slot zu knapp bemessen ist und ein x4 Slot nicht nötig ist.

Aber notwendig finde ich das nicht. Die sollen den Chipsatz einfach 4 Lanes mehr spenedieren und man bekommt bequem 1-2 x4 Slots hin, was für den Consumerbereich ausreicht.


Tigerfox schrieb:
Übrigens stellen AFAIK nur die PEGs 75W zur Verfügung, alle anderen Slots nur 25W.
x1 Slot sind eigentlich nur bis 10W spezifiziert. Nur für spezielle "Server I/O addin-Cards ab 178mm Länge" (so der Wortlaut) sind 25W vorgesehen. x4 und x8 Slots ebenfalls 25W.

Aber so richtig hält sich da glaub ich eh keiner dran. x16 low Profile Karten sollten auch nur 25W ziehen, sieht ind er Praxis wohl anders aus.
zB http://geizhals.at/deutschland/589029


EDIT:
Hier mal ne Folie von der PCI-SIG Developers Conference 2006. (ist frei zugänglich, oder wars zumindest mal)
Da frag ich mich was da Intel jetzt großartig entwickeln will.
 

Anhänge

  • PCIe.jpg
    PCIe.jpg
    206,8 KB · Aufrufe: 562
Zuletzt bearbeitet:
Verstehe ich nicht, da muss Intel doch nur den Antrag für die Zertifizierung in die Post stecken und warten bis sie die Antwort erhalten.
Was muss man man da groß entwickeln?
Ich hielt es für sinnvoller eine Dynamische Lane Verteilung zu entwickeln, so wie sie ASRock hat, dann kann man überall 16x solts drauf hauen und je nach Karte verteilt sich das dann.
 
Eisenfaust schrieb:
Das macht aber die Bretter groß und kostspieleig, weil die großen Slots teurer sind und mehr Platz brauchen. Da es bei der Massenwarenherstellung auf jeden Mikro-Pfennig ankommt, wird man sich diese dann sparen.

Was ist mit MBs für den Enthusiasten-Markt? Diese können durchaus 300-500€ kosten. Warum also nicht einen Highend Chipsatz mit 96 oder 128 Lanes die frei nach Anweder im BIOS/UEFI verteilt werden können?

Ich bezeichne mich einerseits als Intel-Fan, andererseits enttäuschen mich Intel-Produkte in letzter Zeit immer mehr. Intel produziert mit klarer Ausrichtung Office-/Media-PC für den Massen-Markt. SB aber auch IVY-Bridge bieten nur 2 SATA-III Ports genauso mies sieht es mit USB 3.0 aus. Selbst die teuerste Intel-Platine ist von der Ausstattung her für ein Office-/Multimedia-PC ausreichend für einen Power-User / Enthusiast aber einfach unzureichend. Genauso entäuschend wie bei ihrem SSD-Angebot (320 keine SATA-III, 510er zuwenig Performance, 710er/720er unerschwinglich).

Der Power-User/Enthusiast ist für Intel eine Größe, die sie in letzter Zeit immer mehr bereit ist einfach zu ignorieren.
 
Paschaul alle Slots als X16 machen, und übers EFI einstellen welcher slot wieviele Lanes von den ~40 wirklich bekommt, oder Automatisch aufteilen lassen wobei dann die GPU vielleicht nur 8 abkriegt ...

Das wär mal Flexibel, kann ja nicht so schwer sein da ein paar Relais unterzubringen.
Meinetwegen auch etwas teurer, wenn man schon nicht genug Lanes für alles hinkriegt ...
(Audi verkauft sich auch für 30% mehr Preis aber nur 10% mehr Leistung als VW)
 
Zuletzt bearbeitet:
Wieder Inteltypisch, ich wär dafür das jedes Board nur noch 16X anschlüsse hat und dann sagen wir mal insgesamt 50Lanes hat. Wenn man dann zum beispiel eine 8X Karte drin hat geht er automatisch auf 8X runter, dasselbe bei 4x 2x 1x. Die Lanes werden dann geteilt, bis alle verbraucht sind!
 
Überleg mal was das für ein Aufwand für die verdrahtung bedeutet. Und vor allem muss dann jeder Slot auch 75W bereitstellen können und im Extremfall mehrere/alle gleichzeitig.
Für Highend-Boards denkbar, aber sicher nicht für Boards die deutlich unter 100€ angeboten werden sollen. Vor allem brauchen das viele gar nicht. Da wäre es Unsinn jedes Board so auszustatten. Da kann man lieber nen paar PCB-Layer sparen.
 
Zuletzt bearbeitet:
Man sollte vielleicht nicht vergessen, daß elektrische Überlegungen (welcher Slot hat wieviel Lanes und so) nicht zwangsläufig mit thermischen Bedingungen harmonieren müssen. Es gibt viele User, die ein an sich sehr gutes MB austauschen mußten, weil das Board-Layout bei der Kühlung die sie bevorzugten nicht brauchbar war. Man denke da an Wasserkühlung, 3-Slot Kühllösungen u.ä.

Eine nur-16x-Slots-Lösung die im BIOS/UEFI konfigurierbar wäre (oder zur Not halt automatisch je nach Steckkarten), würde viele solcher Probleme lösen. Wir sprechen ja nicht vom Massenmarkt und schon gar nicht davon, daß jedes MB so ausgestattet werden sollte.
 
BlackWidowmaker schrieb:
Was ist mit MBs für den Enthusiasten-Markt? Diese können durchaus 300-500€ kosten. Warum also nicht einen Highend Chipsatz mit 96 oder 128 Lanes die frei nach Anweder im BIOS/UEFI verteilt werden können?
[...]

Der Power-User/Enthusiast ist für Intel eine Größe, die sie in letzter Zeit immer mehr bereit ist einfach zu ignorieren.

Man muß weder 'Fan' noch irgendeines Herstellers sein (das ist kindisch) noch besonders übermäßigig anspruchvoller Benutzer: die bisherigen für den Massenmarkt angebotenen Intel-Chipsätze sind im Detail und in der Zuverlässigkeit gut, in puncto Flexibilität und Ausbaufähigkeit einfach nur eine Frechheit.

Hast Du Dir einmal überlegt, was Du für eine monströse Root-Switch für 128 PCIe Lanes benötigen würdest? Nicht zu sprechen über die sophistische Logik, die eine Verteilung der Lanes sicherstellt. Das ist einfach nicht machbar.

Traurig ist, daß der ambitionierte Workstationbauer entweder eine konfektionierte Maschine von einem namhaften Hersteller kaufen kann - Dell oder HP, oder aber auf "Etnhusiastenmaterial" zurükcgreifen muß, das dann aber wiederum richtig überladen und damit wieder beschränkt wird. SuperMicro hat sehr gute LGA1366 Boards angeboten, die nativ die 36 Lanes des X58 Chipsatz auf drei Slots, zwei 16x und ein 4x herausgeführt hat. Ansonsten waren zwei Intel NICs und die vom ICH10R dargebotenen SATA-3GB Ports und USB Ports mit von der Partie. Das Board ohne SLI-Zertifizierung war rund 80 Euro billiger als ein vergleichbares Board von ASUS, auf dem dann soviel Scheißdreck an die ICH10R angeklemmt wurde, daß man sich fragen mußte, ob das überhaupt noch über den DMI gepreßt werden kann, wenn alles funkt, was dranhängt. Aber: SLI tauglich. Toll ...

Ich hätte mir ein Board mit einem nF200 und drei vollwertigen 16x PEGS sowie zwei 8x Slots gewünscht, um sowohl GPGPU-kArte nebst Graphikkarte und einen SAS Controller unterzubringen und noch einen Slot für Evetualitäten frei habe. Gibt es nicht. Zumindest nicht von SUpermicro. Den ASUS Kinderkram vergißt man am besten, ASUS kann nichteinmal vernünftigen professionellen Support liefern. Aber teure Mainboards bieten sie ...


Dshing schrieb:
Verstehe ich nicht, da muss Intel doch nur den Antrag für die Zertifizierung in die Post stecken und warten bis sie die Antwort erhalten.
Was muss man man da groß entwickeln?
Ich hielt es für sinnvoller eine Dynamische Lane Verteilung zu entwickeln, so wie sie ASRock hat, dann kann man überall 16x solts drauf hauen und je nach Karte verteilt sich das dann.

Das ist teuer ... Zumindest wird es teuer gemacht, wenn es nicht Standard ist. Ich würde für ein gutes Mainboard auch etwas mehr ausgeben, wenn es drei Jahre Garantie und diese sophistische dynamische Lane-Verteilung gäbe.

bensen schrieb:
[...]
Am besten auch noch nen Teil für unnötig rumpöbelnden Trolle.

Damit hättest Du dann Deinen Platz gefunden. Bravo. Vorschlag angenommen.

Es geht auch nicht darum dass es kein Anwendungsgebiet für x8 Slots gibt, sondern dass es Situationen gibt wo ein x1 Slot zu knapp bemessen ist und ein x4 Slot nicht nötig ist.
Finalsätze werden mit einem Komma eingeführt - immer noch!
Aber notwendig finde ich das nicht. Die sollen den Chipsatz einfach 4 Lanes mehr spenedieren und man bekommt bequem 1-2 x4 Slots hin, was für den Consumerbereich ausreicht.

Und? Siehst Du 4 Lanes mehr im Sandy-Bridge-E Root-Komplex? Es sind 40 an der Zahl. Keine einzige Lane mehr. Trotz daß der Chip im vergleich zum Massenmarkt-Silizium größer ist, teurer und in 32 nm gefertigt wird, hat es sich Intel verkniffen wenigstens neben zwei vollwertigen 16x PEGs noch einen 8x Slot über den schnellen PCIe 3.0 anbieten zu können. Oder wahlweise zwei 4x. Was hier so leicht von der Zunge geht ist vielleicht technisch gar nicht so einfach umzusetzen, oder, - noch viel schlimmer - den PR-Intelligenzbestien beizubiegen, die außer ihren PowerPoint-Präsentationen mit bunten Balken nichts verstehen (können).

Tigerfox schrieb:
Ich verstehe jetzt nicht, wo AMD seinen Kunden faulen Zauber suggeriert. Im Gegensatz zu Intel saßen bei AMD immer auch die PCIe-Lanes für Zusatzgeräte in der Northbridge und die war von A-Link/DMI-Flaschenhals befreit und mit der CPU über HT verbunden. Erst seit neustem hat AMD auch Lanes in der Southbridge, leider.

Bei Intel hingegen hatte die Northbridge immer nur die Lanes für die Grakas und alle zusätzlichen waren in der Southbridge und haben am DMI gelitten. Da braucht man keine 16-32 Laufwerke, DMI2.0 lässt sich schon mit den 6 Ports von Cougar Point überlasten, wenn mindestens einer davon mit 6Gb/s genutzt wird. Tylersburg ist die einzige Ausnahme bisher, Patsburg evl. auch.

Intel und AMD Chipsätze unterscheiden sich nicht sonderlich. Tylersburg barg alle Graphik-PCIe Lanes in sich, die restlichen lagen auf der ICH10R. Verbindung zwischen ICH10R und X58 wurde via DMI hergestellt. 6 SATA 3GB Laufwerke, vorzugsweise SSDs, zwei 1GBit NICs und vielleicht noch einen DSP auf einem PCIe Slot mit 1x ... das alles soll über einen 1GB/s schnellen Port zur CPU? Bei AMD steht lustigerweise A III Link mit 4GB/s - meines Wissens ist es das selbe wie bei Intel: ein umgewidmeter PCIe Haken, der im Falle des DMI 2.0 oder A-Link III 2 GB/s in eine Richtung, also 4 GB/s in beide Richtungen gleichzeitig schafft. Da der SATA Verkehr nicht vollduplexfahig ist - im Gegensatz zu SAS/SCSI, kann man getrost nur eine Richtung betrachten. Insofern ist es verwunderlich, wie AMD auf die SB800 und SB900 sechs SATA 6GB Ports pappen kann. Wohlgemerkt, ich denke, daß der A-Link III eben nur 4 Lanes hat und in eine richtung 2GB/s schafft. Sollte er pro Richtung 4 GB/s schaffen, sähe das Bild anders aus und ich liege mit meiner Schlußfolgerung falsch.



Dass die PCHs teurer sein sollen als die alten MCHs+ICHs verstehe ich auch nicht, denn im Grunde sind die PCHs identisch mit den früheren ICHs, je nach Modell zusätzlich mit dem FDI. Aber sie sind keinesfalls sowas zusammengepferchts wie Nvidias MCPs es waren.

Übrigens stellen AFAIK nur die PEGs 75W zur Verfügung, alle anderen Slots nur 25W.

... das verstehe ich auch nicht, jedenfalls las ich, daß sie in etwa auf dem gleichen Niveau liegen sollen. Intel reduziert drastisch die Kosten der Produktion und verdient die Differenz. An den Kunden wird vielleicht die kaum ins Gewicht fallende niedrigere TDP weitergegeben. Mir erschien das ein wenig faul ...
 
Und noch ne neue Schnittstelle, Intel meint es ja vllt. gut aber sollte erstmal das andere Zeug nutzen xD.
 
@Eisenfaust: Du beschwerst dich einerseits über das Vollpappen der ICH10R mit dem Flaschenhals DMI, andererseits hättest du gerne an einen X58 mit nF200 zwei Grakas und einen SAS-Controller angeschlossen? Du weisst aber schon noch, dass beim nF200 alle 32 Upstreamlanes weiterhin über die 16 Downstreamlanes gehen?

Außerdem kritisierst du die Rechtschreibung anderer, bist aber selbst nicht besser:
Trotz daß der Chip...

Was DMI und A-Link angeht hast du recht, sind beides im Prinzip vier PCIe2.0-Lanes, beim DMI wohl noch mit einem leicht verbesserten Protokoll, im Endeffekt aber beide mit 2GB/s pro Richtung, was natürlich für sechs SATA Ports ziemlich wenig ist.
Dennoch muss ich dir wiedersprechen, was die Verfügbarkeit der Lanes angeht. Intel hat bei Tylersburg mit seinen 40 Lanes sehr wohl 4 Lanes für Peripherie übrig gehabt, die nicht durchs Nadelöhr DMI gehen mussten. Bei AMD war das bei allen Chipsätzen der Fall, erst mit SB800 und SB900 gibt es überhaupt ein paar Lanes in der NB, die dann allerdings gleich für x4-Slots genutzt werden.
Wie es bei Patsburg bzw. SB-E aussieht, ist nicht ganz klar. Es war immer von 40 Lanes die Rede und ich hatt angenommen, dass abzgl. DMI und PCIe3.0-Uplink zum PCH keine weiteren Lanes mehr für was anderes als Grakas übrig bleiben.
Auf neuen Skizzen sieht es allerdings so aus, als hätte SB-E 40 Lanes, verteilt auf 5 Controller, und zusätzlich noch die Lanes für DMI und Uplink. Wir werden es sehen.
 
Tidus2007 schrieb:
Und noch ne neue Schnittstelle, Intel meint es ja vllt. gut aber sollte erstmal das andere Zeug nutzen xD.

Es ist im Grunde keine neue Schnittstelle, es ist nur die Erweiterung eines schon bestehdenden Standards. Sofern es sich um keine Sommerlochente handelt könnte Intel, als zahlendes Mitglied des PCIe-Konsortiums, wirklich auf die Definition eines solchen erweiterten Standards drängen. Das würde vielleicht in einem ganz anderen Licht erstahlen, wenn man wüste, wie der kommende Standard aussehen wird. Ich bezweifele, daß 2x Slots mit PCIe 2.0 oder 3.0 realisiert werden, eher werden solche Slots mit PCIe 4.0 oder was auch immer nach 3.0 kommen mag realisiert. Dann, wenn die Bandbreite eines PEG mit 16x exorbitant hoch ist, könnte es durchaus sinnvoll erscheinen eine weitere Zwischenstufe am unteren Ende einzuführen.
 
Zurück
Oben