@CHAOSMAYHEMSOAP:
Zum ersten Zitat von mir: Du weißt aber schon, das der Itanium eine VLIW Architektur ist und dadurch Befehle parallell ausführen kann und noch ein paar andere nette Dinge parat hat?
Zum 2ten Zitat: Hättest du weiter gelesen, dann wüßtest du, das ich nicht von Prozessoren gesprochen habe, dessen Funtionsweise physikalisch komplett anders ist, sondern bspw. von einer NoC Architektur.
Zum 3ten Zitat: Wenn ich von QPI rede, wieso switched du dann zum HT?
Das der HT noch nicht am Ende der Fahnenstange ist, ist mir klar, aber QPI mit seinen 6,4GBit ist es schon.
Mehr als 6GBit über Kupfer ist bei standard PCBs hochfrequenztechnisch eine katastrophe.
Kein Wunder also, das Intel Know How in der optischen Datenübertragung sammelt, möglicherweise wird der QPI-Bus, wie er jetzt noch existiert, direkt von einer optischen Schnittstelle abgelöst.
QPI ist sowieso ein Schuß ins eigene Bein, die Übertragung des Fehlercodes auf separaten Leitungen deutet darauf hin, das keine 8/10Bit Codierung stattfindet und es dadruch wesentlich langsamer werden kann, wenn Fehler auftreten.
Ich glaube CHAOSMAYHEMSOAP, du hast eine selektive Wahrnehmung und scheinst nicht wirklich zu wissen, warum die Caches eigentlich immer größer werden!
Wenn sich der Speicherdurchsatz und die Interface-Performance dem Durchsatz der CPU anpassen würden, dann könnte man auch mit sehr viel weniger Cache auskommen.
Große Caches sind also dazu da, um Unterschiede in den Verarbeitungsgeschwindgkeiten auszugleichen.