Wir sprachen über "einige Jahre". Die 90er sind drei Jahrzehnte her, das ist einfach alles nicht relevant für den Zeitraum, über den @Flutefox und ich sprachen, sondern liegt weit davor. Gut, Mainframes gibt es immer noch, aber so sehr in der Nische, dass sie nicht relevant für die alltägliche Wahrnehmung sind.ETI1120 schrieb:Bei dieser Betrachtung ignoriert man die Mainframe, dann Mini Computer und dann Workstations und Server auf RISC Basis die die IT-Landschaft bis Ende der 1990er Jahre geprägt haben.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Hauptlieferant für AMD: Samsung liefert HBM für Instinct MI455X und DRAM für Venice
Genau darauf will ich raus. Dieser Zeitraum war ein Ausnahme.stefan92x schrieb:Wir sprachen über "einige Jahre". Die 90er sind drei Jahrzehnte her, das ist einfach alles nicht relevant für den Zeitraum, über den @Flutefox und ich sprachen, sondern liegt weit davor.
Und das ist das zweite Problem, die Wahrnehmung.stefan92x schrieb:Gut, Mainframes gibt es immer noch, aber so sehr in der Nische, dass sie nicht relevant für die alltägliche Wahrnehmung sind.
Kommt drauf an, was genau wir damit meinen.ETI1120 schrieb:Genau darauf will ich raus. Dieser Zeitraum war ein Ausnahme.
Technologisch sind Consumer- und Enterprise-Architekturen im wesentlichen konvergiert und daran hat sich bis heute nichts geändert.
Höchstens HBM als Technologie und optisches Netzwerk sind heute praktisch exklusiv Enterprise, aber im Kern werden heute die gleichen Architekturen vom Notebook bis zum größten Supercomputer genutzt.
Das verstehe ich auch nicht mehr, da der Original Post beklagt, dass Server und Client sich immer mehr voneinander entfernen.stefan92x schrieb:Kommt drauf an, was genau wir damit meinen.
Da ist nichts konvergiert. X86 hat sich bei den Servern breit gemacht und die bis dahin vorherrschenden Architekturen verdrängt. Damit sind auch viele im PC Bereich übliche Technologien ins Data Center gekommen.stefan92x schrieb:Technologisch sind Consumer- und Enterprise-Architekturen im wesentlichen konvergiert und daran hat sich bis heute nichts geändert.
Und dann haben eben die üblichen Mechanismen eingesetzt. Im Data Center gibt es andere Anwendungen und andere Anforderungen als beim Client. Also werden andere Lösungen benötigt. Und dann läuft es wieder auseinander.
Echt jetzt? Es fängt doch ganz profan bei den Kühlern an, dass sich bei den Servern andere Konzepte etabliert haben. Selbst die DIMMs sind nicht mehr kompatibel, ...stefan92x schrieb:Höchstens HBM als Technologie und optisches Netzwerk sind heute praktisch exklusiv Enterprise, aber im Kern werden heute die gleichen Architekturen vom Notebook bis zum größten Supercomputer genutzt.
Aber auch umgekehrt. Sowas wie Virtualisierung ist eher ein Data Center Feature, aber heute in jeder Consumer-CPU vorhanden.ETI1120 schrieb:Damit sind auch viele im PC Bereich übliche Technologien ins Data Center gekommen.
naja... Man montiert einen Kühlkörper auf der CPU und pustet mit einem Lüfter die Luft durch. Jetzt kann man natürlich sagen, dass beim PC das ganze eine Einheit darstellt, während im Server der Gehäuselüfter gleichzeitig für den Luftstrom sorgt, aber ist das fundamental anders? In meinem Mini-ITX ist der CPU-Kühler der einzige Lüfter, da ist diese Kombination also wie im Server....ETI1120 schrieb:Es fängt doch ganz profan bei den Kühlern an, dass sich bei den Servern andere Konzepte etabliert haben
Bei Wasserkühlungen ebenso, wer einen fette MORA anschließt, hat ähnliche Verhältnisse wie im Datacenter.
Bleibt aber beides DDR-SDRAM.ETI1120 schrieb:Selbst die DIMMs sind nicht mehr kompatibel, ...
Also ja ich bleibe dabei, früher wurden komplett unterschiedliche Technologien/Architekturen genutzt, heute werden die gleichen einfach anders skaliert.