News Hauptlieferant für AMD: Samsung liefert HBM für Instinct MI455X und DRAM für Venice

ETI1120 schrieb:
Bei dieser Betrachtung ignoriert man die Mainframe, dann Mini Computer und dann Workstations und Server auf RISC Basis die die IT-Landschaft bis Ende der 1990er Jahre geprägt haben.
Wir sprachen über "einige Jahre". Die 90er sind drei Jahrzehnte her, das ist einfach alles nicht relevant für den Zeitraum, über den @Flutefox und ich sprachen, sondern liegt weit davor. Gut, Mainframes gibt es immer noch, aber so sehr in der Nische, dass sie nicht relevant für die alltägliche Wahrnehmung sind.
 
  • Gefällt mir
Reaktionen: Flutefox
stefan92x schrieb:
Wir sprachen über "einige Jahre". Die 90er sind drei Jahrzehnte her, das ist einfach alles nicht relevant für den Zeitraum, über den @Flutefox und ich sprachen, sondern liegt weit davor.
Genau darauf will ich raus. Dieser Zeitraum war ein Ausnahme.
stefan92x schrieb:
Gut, Mainframes gibt es immer noch, aber so sehr in der Nische, dass sie nicht relevant für die alltägliche Wahrnehmung sind.
Und das ist das zweite Problem, die Wahrnehmung.
 
ETI1120 schrieb:
Genau darauf will ich raus. Dieser Zeitraum war ein Ausnahme.
Kommt drauf an, was genau wir damit meinen.

Technologisch sind Consumer- und Enterprise-Architekturen im wesentlichen konvergiert und daran hat sich bis heute nichts geändert.

Höchstens HBM als Technologie und optisches Netzwerk sind heute praktisch exklusiv Enterprise, aber im Kern werden heute die gleichen Architekturen vom Notebook bis zum größten Supercomputer genutzt.
 
stefan92x schrieb:
Kommt drauf an, was genau wir damit meinen.
Das verstehe ich auch nicht mehr, da der Original Post beklagt, dass Server und Client sich immer mehr voneinander entfernen.

stefan92x schrieb:
Technologisch sind Consumer- und Enterprise-Architekturen im wesentlichen konvergiert und daran hat sich bis heute nichts geändert.
Da ist nichts konvergiert. X86 hat sich bei den Servern breit gemacht und die bis dahin vorherrschenden Architekturen verdrängt. Damit sind auch viele im PC Bereich übliche Technologien ins Data Center gekommen.

Und dann haben eben die üblichen Mechanismen eingesetzt. Im Data Center gibt es andere Anwendungen und andere Anforderungen als beim Client. Also werden andere Lösungen benötigt. Und dann läuft es wieder auseinander.
stefan92x schrieb:
Höchstens HBM als Technologie und optisches Netzwerk sind heute praktisch exklusiv Enterprise, aber im Kern werden heute die gleichen Architekturen vom Notebook bis zum größten Supercomputer genutzt.
Echt jetzt? Es fängt doch ganz profan bei den Kühlern an, dass sich bei den Servern andere Konzepte etabliert haben. Selbst die DIMMs sind nicht mehr kompatibel, ...
 
ETI1120 schrieb:
Damit sind auch viele im PC Bereich übliche Technologien ins Data Center gekommen.
Aber auch umgekehrt. Sowas wie Virtualisierung ist eher ein Data Center Feature, aber heute in jeder Consumer-CPU vorhanden.
ETI1120 schrieb:
Es fängt doch ganz profan bei den Kühlern an, dass sich bei den Servern andere Konzepte etabliert haben
naja... Man montiert einen Kühlkörper auf der CPU und pustet mit einem Lüfter die Luft durch. Jetzt kann man natürlich sagen, dass beim PC das ganze eine Einheit darstellt, während im Server der Gehäuselüfter gleichzeitig für den Luftstrom sorgt, aber ist das fundamental anders? In meinem Mini-ITX ist der CPU-Kühler der einzige Lüfter, da ist diese Kombination also wie im Server....

Bei Wasserkühlungen ebenso, wer einen fette MORA anschließt, hat ähnliche Verhältnisse wie im Datacenter.
ETI1120 schrieb:
Selbst die DIMMs sind nicht mehr kompatibel, ...
Bleibt aber beides DDR-SDRAM.

Also ja ich bleibe dabei, früher wurden komplett unterschiedliche Technologien/Architekturen genutzt, heute werden die gleichen einfach anders skaliert.
 
Zurück
Oben