News Cascade Lake Refresh: Viele neue Intel Xeon Gold vs. AMD Epyc

xexex schrieb:
Zeigt nicht wirklich viel technisches Verständnis deinerseits, wie Virtualisierung funktioniert. Die CPU wird jedenfalls 1zu1 durchgereicht, wenn eine Anwendung auf einem Blech mit AMD Hardware nicht optimal funktioniert, wird sie auch als Gast nicht besser laufen.
Völliger Blödsinn. Wenn die CPU 1:1 durchgereicht würde, würde "Privilege Escalation" dem Namen spotten, weil es keine Eskalation sondern normales Verhalten wäre.

Geklaut von hier:
https://www.sciencedirect.com/topics/computer-science/paravirtualization
3-s2.0-B9780124114548000036-f03-11-9780124114548.jpg


Es ist zwingend bestimmte Interrupts etc. abzufangen. Ein NMI aus der VM heraus würde den ganzen Host töten und VMs gelten grundsätzlich als untrusted - anders wären public Vserver gar nicht möglich.

Je nach Virtualisierungsform variiert das ein wenig, aber das Grundprinzip ist erkennbar.

Edit:
https://wiki.xen.org/wiki/PV_on_HVM
Auch informativ - wen's tatsächlich interessiert.
 
  • Gefällt mir
Reaktionen: Vulcanraven
RuhmWolf schrieb:
I opened a ticket with Microsoft's Partner support on this issue as we have clients wanting AMD servers and we can't really offer them because of the scheduler performance issues on 3+ NUMA nodes as well as nested virtualization support
aldaric schrieb:
AMD bringt alles mit was für verschachtelte Virtualisierung gebraucht wird, jedoch hat MS die Funktion bisher noch nicht freigegeben. Das wurde auch mal auf dem AMD Reddit besprochen (mit AMD Beteiligung) und diese wollten dahingehend mit MS in Kontakt treten. Warum MS hier so träge ist, weiß auch keiner so recht.
das klingt nach einem Problem bei TR 1/2 bzw Epyc Gen 1. Da war das NUMA Chaos komplett... möglich dass sich MS da gar nicht weiter einfuchsen wollte und auf Epyc Gen 2 warten wollte - da NUMA hier wesentlich einfacher handzuhaben ist. Auch irgendwie nachvollziehbar.
Spätestens jetzt spricht aber wenig dagegen das zu unterstützen.

Das zeigt auch gut dass es nicht einfach Wurst ist auf welcher HW visualisiert wird, wie es hier mancher zu glauben scheint.
1580919823183.png


Nicht ganz easy sich bei Epyc 7001 zu entscheiden auf welche phyischen Kerne man die Last von einer VM mit zb 12 Cores legt... oder eben wenn mehrere VMs ggf sogar mit Overprovisioning am Werkeln sind.
Das is bei 7002 und Intels Mesh deutlich einfacher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nagilum99
Nagilum99 schrieb:
Völliger Blödsinn. Wenn die CPU 1:1 durchgereicht würde, würde "Privilege Escalation" dem Namen spotten, weil es keine Eskalation sondern normales Verhalten wäre.

Und was ändert es an der eigentlichen Aussage?
wenn eine Anwendung auf einem Blech mit AMD Hardware nicht optimal funktioniert, wird sie auch als Gast nicht besser laufen.

Schaue dir mal das Beispiel Matlab an.
 
xexex schrieb:
Schaue dir mal das Beispiel Matlab an.

Du meinst wenn man das Ding im Intel-optimierten Modus betreibt, statt auch AMD-Prozessoren ohne angezogene Handbremse zu verwenden?
Schlechtes Beispiel. Ganz schlecht.

Mir ist im übrigen nichts bekannt, dass tatsächlich nicht (korrekt) auf AMD- aber Intel Prozessoren funktioniert.
CPU-Bugs mal ausgenommen, rein architektonisch betrachtet.
Und das ganze AVX512 Gedöns ist in homöopatischen Dosen am Markt, zumal alles auch einen Fallback auf AVX(2) haben dürfte.
 
  • Gefällt mir
Reaktionen: Ned Flanders
Nagilum99 schrieb:
Du meinst wenn man das Ding im Intel-optimierten Modus betreibt, statt auch AMD-Prozessoren ohne angezogene Handbremse zu verwenden?
Schlechtes Beispiel. Ganz schlecht.

Wieso? Perfektes Beispiel wie die Virtualisierung dir das Problem der in einem Gast laufender Software nicht behebt.

Wenn der Kunde Software einsetzt die auf AMD Hardware schlecht läuft, egal ob wegen fehlender Optimierung oder fehlenden Features, nützt dir der tollste AMD Server nichts. Dann migrierst du die VMs auf die vermeintlich schnellere Hardware, die der Kunde für teures Geld gekauft hat und das ganze läuft langsamer wie vorher.

Nagilum99 schrieb:
Mir ist im übrigen nichts bekannt, dass tatsächlich nicht (korrekt) auf AMD- aber Intel Prozessoren funktioniert.

Starten wirst du fast alle Programme können, einzelne Ausnahmen mal ausgenommen (siehe Destiny 2 Problem kürzlich), mit welcher Leistung die dann laufen werden, steht auf einem anderen Stern.

Eines vergisst du bei deiner Geschichte!
1580926638891.png

https://software.intel.com/en-us/articles/optimization-notice#opt-en

Jegliche Software die mit dem durchaus stark verbreiteten Intel Compiler kompiliert wurde, unterstützt auf der AMD Plattform ausschließlich die "Grundbefehle" und keine Erweiterungen wie SSE oder AVX. Was in den letzten 15 Jahren niemals ein Thema war, ist aktuell wie eben bei Matlab ein sehr großes und nicht jeder ist bereit seine gesamte Softwareumgebung zu aktualisieren, nur weil du der Meinung warst, Systemanforderungen würden für dich nicht gelten.
 
Zuletzt bearbeitet:
xexex schrieb:
[...]
Jegliche Software die mit dem durchaus stark verbreiteten Intel Compiler kompiliert wurde, unterstützt auf der AMD Plattform ausschließlich die "Grundbefehle" und keine Erweiterungen wie SSE oder AVX. Was in den letzten 15 Jahren niemals ein Thema war, ist aktuell wie eben bei Matlab ein sehr großes und nicht jeder ist bereit seine gesamte Softwareumgebung zu aktualisieren, nur weil du der Meinung warst AMD Server verkaufen zu müssen.

Wenn sie das nicht unterstützt: Warum kann man das mit einem simplen Schalter doch aktivieren?
Bisher sah ich nur "Intel i7..."-Anforderungen, weil die Firmen der Ansicht waren, dass die viel schneller sind als AMD Prozessoren. In meiner ganzen Karriere bin ich, Realworld, noch nie mit Software in Konakt gekommen, die auf AMD Prozessoren konzeptionell schlechter oder gar nicht läuft.
Ausgenommen natürlich Bulldozer, die genau wie die P4-Architektur von Grundauf schrott (und eine Sackgasse) war.

Was man hingegen oft antrifft: Veraltete Softwarearchitektur die Multicore nur vom hören-sagen kennt. Dank Zen(2) ist der Nachteil dort aber auch nicht mehr vorhanden/relevant.

Wer im übrigen, die bei dir so stark verbreiteten, Intel Compiler einsetzt, weiß ich nicht. Bekannt ist mir (in meinem Arbeitsbereich) keiner.
Dass man die Beschränkung außer Kraft setzen kann, ist übrigens hinlänglich bekannt. c't/iX (Weeerbung) testen schon seit langem auch AMD CPUs/Server mit dem Intel Compiler.
 
Nagilum99 schrieb:
Warum kann man das mit einem simplen Schalter doch aktivieren?

Wo? Kannst du das irgendwo bei Oracle aktivieren? Beim Exchange Server? Beim SQL Server? Bei der Warenwirtschaft?

Wenn du das irgendwo bei Handbrake aktivieren kannst, dann ist es schön, aber meist wirst sowas nicht auf einem Kundenserver laufen.

Nagilum99 schrieb:
Wer im übrigen, die bei dir so stark verbreiteten, Intel Compiler einsetzt, weiß ich nicht. Bekannt ist mir (in meinem Arbeitsbereich) keiner.

Eine Statistik kann ich dir dazu auch nicht liefern, aber so ziemlich jede grössere Firma die ihre Software in den letzten Jahren entsprechend auf verfügbare Hardware optimiert hat, dürfte zu den Kunden gehören.

A recent study by Colfax International looked at the performance of compiled code as well as compile time across a number of C++ compilers. The Intel compiler was #1 in performance and, unsurprisingly, it took somewhat longer to compile when optimizing heavily. Polyhedron, in the UK, has published benchmarks comparing Fortran compilers for many years. Intel’s Fortran compiler has long ranked high on this list. The Intel C, C++, and Fortran compilers share a common optimizer and code generator, so this consistent performance across all three languages is to be expected.
https://www.infoworld.com/article/3269194/the-several-faces-of-intel-compilers.html

1580928689780.png

https://software.intel.com/en-us/system-studio/features/build

Bis nun neue Versionen diverser Software herauskommen, die nun auch AMD CPUs berücksichtigen, möglicherweise einen anderen Compiler nutzen werden und diese dann beim Kunden ankommen, werden Jahre vergehen und mit Jahren meine ich nicht 1-2 sondern eher 5-10.
 
Zuletzt bearbeitet:
Ähh... SQL Server läuft schlecht auf Epyc? Ist das was du meinst? Und ja, indeed ist Matlab auf mehreren Eben ein schlechtes Beispiel. Eine davon ist, dass du aus den System Anforderungen lesen kannst, das Mathworks AMD CPUs UND Intel CPUs empfiehlt. Du hast gar keine Möglichkeit das vorher zu sehen. Nun kannst du sagen das man einfach immer Intel nehmen sollte (was ja offensichtlich Deine Philosophie ist), aber dann stehen halt Anwendungen wie Fluid Dynamics oder Simulations oder alles mögliche andere schlecht da. Beim Preis oder der Performance oder sogar beides.

Warum kann man nicht einfach erkennen, dass es am besten ist, die ideale Hardware für den vorgesehenen Usecase zu benutzen und im Zweifel einfach mal seinen Job zu tun und das Telefon in die Hand zu nehmen und sich zu erkundigen? So mega schwer ist das ja jetzt nicht. Das kann mal Intel sein mal AMD. Das ist doch völlig Banane. Du bist da mega bissig, wenn jemand einfach nur seinen Job ernst nimmt und nicht den Hausmeister mimt, der den Elektriker ruft wenn im Treppenhaus eine Glühbirne durchgebrannt ist.

Nagilum99 schrieb:
Bisher sah ich nur "Intel i7..."-Anforderungen, weil die Firmen der Ansicht waren, dass die viel schneller sind als AMD Prozessoren. In meiner ganzen Karriere bin ich, Realworld, noch nie mit Software in Konakt gekommen, die auf AMD Prozessoren konzeptionell schlechter oder gar nicht läuft.

Eben... wenn dem so wäre, auf einem auch nur ähnlichen Level wie bei dem Beispiel Matlab, dann würde das auch sofort auffallen. Die Zen Derivate werden im ganzen Netz hoch und runter gebenchmarked. Wenn da mal eben in Anwendung X die hälfte der Leistung fehlen würde, wäre Matlab like der Shitstorm im ganzen Netz. Ist er aber nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nagilum99
xexex schrieb:
Wo? Kannst du das irgendwo bei Oracle aktivieren? Beim Exchange Server? Beim SQL Server? Bei der Warenwirtschaft?
Vectore Extensions bei SQL, Exchange und WaWi? Naja... (und bei Matlab ging es um nichts mehr als das)
Die nutzen idR. nach wie vor klassisch FPU/ALU und skalieren teilweise ganz gut mit Kernen, Cache und RAM-Bandbreite. Außerdem wird viel virtualisiert, so dass man viel mehr VMs/Leistung auf einem Blech unterbringen kann - von den Vorteilen bei PCIe in dem Bereich ganz zu schweigen.

Whatever: Seit Zen auf dem Markt ist, macht AMD es mir wieder einfach sie zu verbauen/empfehlen. Das war jahrelang, zweifelsohne, nicht so. Hatte aber nichts mit dem Hersteller oder dem Intel Compiler zu tun, sondern schlichtweg einem irrweg bei der Architektur.
Zu Zeiten des Intel P4 musste man aber auch sehr speziell sein, das Ding zu kaufen.
 
Ned Flanders schrieb:
Und ja, indeed ist Matlab auf mehreren Eben ein schlechtes Beispiel.
Matlab ist ja auch nur die Fraktion "I got money to burn". Weder an der Uni, noch auf Konferenzen, noch jetzt in der Branche "autonomes Fahren" habe ich jemals tatsächliche Profis damit arbeiten sehen. Ich wüsste auch nicht warum. Industriestandards sind bei cutting edge Technologie OpenSource Dinge wie OpenCV, NumPy, TensorFlow, NLTK/SpaCy und Konsorten.
Da ist Matlab Lichtjahre hintendran, allein schon was die fehlenden Features der Programmiersprache angeht im Vergleich zu Hochsprachen wie Python.

Und was kann es ansonsten noch? Speziell für Mathe hab ich in meinem Leben deutlich häufiger Mathematica gesehen.

Wenn es dann wiederum um viel LA in "richtigem" Code geht, dann schlägt Eigen, Lapack oder cuBLAS - je nach Anwendungsgebiet - Matlab auch ziemlich deutlich.

Also wer mit Matlab Lizenzen Geld verbrennt, dem traue ich genauso zu ohne ausreichende Evaluierung von Alternativen Geld mit z.B. Intel Xeon zu verbrennen. Oder Windows Servern.
 
ascer schrieb:
Weder an der Uni, noch auf Konferenzen, noch jetzt in der Branche "autonomes Fahren" habe ich jemals tatsächliche Profis damit arbeiten sehen.

Naja, das ist so nicht ganz richtig. Matlab ist akademisch schon sehr verbreitet, zumindest in meinem Bereich. Da ist in jedem zweiten imaging paper im supplementary matlab code zu finden den man selbst wieder einbinden kann. 3/4 unserer Doktoranden und Postocs benutzen das ohne auch nur irgendeine Ahnung davon zu haben was sie da eigentlich benutzen. In manchen bereichen hat sich das echt als standard entwickelt. Speziell imaging.

Außerdem ist NumPy, wenn es mit der MKL verbunden ist genauso betroffen, nur hier kannst du einfach auf OpenBLAS oder BLISS umstellen und das Problem ist erledigt. Bei Matlab geht das nicht ohne weiteres. Aber das ganze ist und bleibt ein schlechtes Beispiel
 
Ned Flanders schrieb:
Außerdem ist NumPy, wenn es mit der MKL verbunden ist genauso betroffen, nur hier kannst du einfach auf OpenBLAS oder BLISS umstellen und das Problem ist erledigt.
Das stimmt, hier verstehe ich auch ehrlich nicht warum AMD nicht ebenfalls mehr in entsprechende Libraries investiert. MKL, CUDA, cuDNN usw. machen doch vor, was das für riesige Gewinne über Marktverbreitung einfährt.

Klar, gute Libs kosten...aber ohne bringt auch die beste Hardware nichts. Und im Vergleich zu einer neuen Generation Ryzen & Co. dürfte Lib-Entwicklung wohl um Größenordnungen weniger Geld verschlingen.
 
Ned Flanders schrieb:
Ähh... SQL Server läuft schlecht auf Epyc? Ist das was du meinst?

Nein! Das habe ich nie so behauptet, auch wenn es bei den ersten Generationen durchaus der Fall war. Meine Aussage war schlichtweg die, dass es zuhauf Software gibt, die ausschließlich auf Intel Hardware optimiert ist, weil es schlichtweg seit gut 15 Jahren keine AMD Server mehr gab.

Jede Serversoftware die in den letzten 15 Jahren also auf dem Markt kam und heutzutage noch überall im Einsatz ist, ist entweder auf Intel CPUs optimiert oder gar nicht optimiert und jeder der meint ich verbaue AMD Hardware weil ich es so toll finde, nimmt das Risiko an falschen Stelle gespart zu haben auf die eigene Kappe.

Wie ich schon sagte, wenn du eine Firma hast, die die nötigen Ressourcen besitzt und/oder sowieso nur auf aktuelle Software setzt, mag es für dich weniger ein Problem sein. Einem Kunden mehr oder weniger ungefragt AMD Hardware unterschieben zu wollen, kann aber schnell auch komplett in die Hose gehen.

In ein paar Jahren wird das anders aussehen, nur im Moment ist AMD in diesem Markt nicht einmal ansatzweise richtig angekommen und die Softwareschmieden sehen noch keine Notwendigkeit darin für AMD eine Extrawurst zu braten und wenn sie das tun, dann nicht rückwirkend für 10 Jahre alte Softwareversionen.

Wie die Softwarelandschaft oft in der Realität aussieht, siehst du wunderbar in einem anderen Artikel hier bei Computerbase, wo unsere Regierung noch knapp 50000 PCs mit Windows 7 betreibt. Siehst das in der freien Wirtschaft anders aus? Mitnichten! Es gibt Firmen die alles auf dem neusten Stadt haben, es gibt auch genug Firmen die noch heute Server 2003 für irgendwelchen Krempel einsetzen und nun kommst du mit deinem Epyc und was dann?

Am Ende ist es wie ich bereits sagte. Der Neueinstieg in diesen Markt ist für AMD ein Marathon und kein Sprint! In den letzten zwei Jahren konnte AMD noch so gut wie gar nicht in den Markt richtig Fuß fassen und ich erinnere mich noch als manche hier im Forum, im Jahr 2017 in diesem Segment was von 20% Marktanteil für AMD zum jetzigen Zeitpunkt geblubbert haben. Langfristig kann man nur sagen, dass Konkurrenz dem Markt gut tut, man aber auch nicht erwarten kann dass plötzlich alle auf einen Newcomer setzen und jeder wird seine eigenen berechtigten Gründe dafür haben.
 
Zuletzt bearbeitet:
Nagilum99 schrieb:
1. Ist das 50 % richtig. Es werden bestimmte Befehle abgefangen, das meiste wird 1:1 durchgereicht. Alles andere würde Virtualisierung zu einem Nischenprodukt machen. Les' dich mal ein, bevor du von "voller virtualisierung" schreibst - und nimm dir Zeit: Das Thema ist komplex. Gibt von Xen/Citrix z.B. schöne Artikel darüber (DomU vs. Dom0...).
2. Testumgebungen haben idR. nur große Firmen, da die Kiste tatsächlich 100 % identisch sein sollte - was schnell mal fünfstellig wird.

...du machst das nicht beruflich, oder? ;-)

Nicht direkt mein Bereich, nein. Mir ist durchaus klar, dass Software den Weg mit geringstem Widerstand waehlt. Aber Virtualisierung bedeutet nunmal das unterliegende komplett zu abstrahieren. Sobald das unterliegende aber ueber funktionieren oder nicht funktionieren entscheidet, dann hat es die Aufgabe verfehlt. Mir ist auch klar, dass vieles durchgereicht wird aus Performancegruenden, aber dann entfernt man sich immer weiter von der Kernfunktion von Virtualisierung. Das verkauft man zwar dann als Virtualisierung, aber naja.
 
Kacha schrieb:
Sobald das unterliegende aber ueber funktionieren oder nicht funktionieren entscheidet, dann hat es die Aufgabe verfehlt.

Du verwechselst Virtualisierung mit Emulation, wurde dir aber bereits zig mal gesagt.
 
Wenn man den Thread hier so verfolgt, lernt man folgendes:

  • AMDs Problem ist nicht der Markt, es sind die IT Admins
  • Die meisten IT Admins arbeiten in Firmen mit bedenklicher Firmenkultur ("Piechische Guillotine")
  • Die wenigsten IT Admins machen ihren Job richtig und/oder haben keine Eier in der Hose

Glücklicherweise ist das bei uns nicht so (international, 1000+ MA, über 6 Mrd Marktkapital).

Irgendwie traurig. Als IT Admin würde ich mich fragen, was ich überhaupt arbeite. Wenn ich nur Datenblätter und "ist so weil ist so" kenne, sorry, dann brauchts mich nicht, kann man auch nen IT Student aus Polen anstellen.

Ich selbst bin zwar kein Serveradmin, habe die Verantwortung aber bei Telefonie und Video - weltweit. Und den Kern meiner Aufgabe ist es, das "Beste" fürs Geld zu kriegen (und zwar nicht nur bei der Anschaffung) und die Bedürfnisse unserer Mitarbeiter (aka "Kunden") zu befriedigen. Und wenn mein Chef mir sagt, "ich finde das Produkt xy aber besser und will das ", dann hört er von mir alles andere, aber sicher kein "ja gut".
Und darum schätzt mich mein Vorgesetzter auch. Und steht auch hinter mir, wenn halt mal was schief läuft.
 
  • Gefällt mir
Reaktionen: Denniss
xexex schrieb:
Du verwechselst Virtualisierung mit Emulation, wurde dir aber bereits zig mal gesagt.

Ich denke eher, dass du das verwechselst. Emulation fuehrt eine andere Architektur aus, Virtualisierung abstrahiert die darunter liegende Hardwareebene. Allerdings eben so, dass es egal sein muss welcher Hersteller oder welche Generation es ist. Es ist trotzdem x86_64 und keine andere Architektur. Sobald aber zum Beispiel der Hersteller einen Einfluss hat, ist es hoechstens Virtualisierung very light. Passthrough ist allgemein sehr fragwuerdig ob es unter Virtualisierung faellt, da es eben das komplette Konzept ueber den Haufen wirft. Ich denke aber du gehst davon aus, dass das was dir der Hersteller als Virtualisierung verkauft Virtualisierung ist. Dann wundert mich deine Aussage nicht.
 
Zuletzt bearbeitet:
Kacha schrieb:
Emulation fuehrt eine andere Architektur aus, Virtualisierung abstrahiert die darunter liegende Hardwareebene.

Und diese Definition ist wo festgelegt?

Ich nehme mir einfach mal diesen Artikel als Hilfe:
Als Emulation wird in der Informatik das funktionelle Nachbilden eines Systems durch ein anderes ohne direkte Unterstützung durch das Betriebssystem oder den Prozessor bezeichnet. Das nachbildende System, Emulator genannt, verhält sich im Idealfall wie das originale System hat aber keinen direkten Zugriff auf die Hardware sondern nutzt wie jede andere Software die Funktionen des Betriebssystems.......
http://www.apfelwiki.de/Main/Emulation

Würde man die Hardware komplett abstrahieren, wäre es eine Emulation, denn man würde irgendeine selbst definierte vCPU auf einer beliebigen Hardware emulieren und genau das geschieht bei einer Virtualisierung nicht!
Virtualisierung ist im Wesentlichen eine zusätzliche Abstraktionsschicht zwischen Wirtssystem und Gast und kommt ohne die direkte Unterstützung durch den Prozessor oder zumindest das unter ihm liegende Betriebssystem nicht aus.


EDIT: Auch noch mal für dich zum Nachlesen
Virtualisierung: So tun, als ob
Bei näherem Hinsehen entpuppt es sich allerdings als unsinnig, eine komplette Intel-CPU nachzubilden, wenn sie sowieso im Computer steckt: Stattdessen könnte man den Prozessor doch einfach direkt nutzen und bräuchte nur den Rest des gewünschten Zielsystems zu simulieren. Diese Idee lässt sich auf alle weiteren Komponenten ausdehnen: Man bildet nur noch die gerade notwendigen Teile der Hardware durch Software nach. In einem solchen Fall spricht man nicht mehr von einer Emulation, sondern von Virtualisierung.
https://www.linux-community.de/ausgaben/linuxuser/2007/06/virtualisierung-und-emulation/
 
Zuletzt bearbeitet:
xexex schrieb:
Würde man die Hardware komplett abstrahieren, wäre es eine Emulation, denn man würde irgendeine selbst definierte vCPU auf einer beliebigen Hardware emulieren und genau das geschieht bei einer Virtualisierung nicht!

Das sagt der Link eigentlich gerade nicht. Ein System mit einem anderen nachbilden waere in dem Fall eher sowas wie ARM auf x86_64.

xexex schrieb:
EDIT: Auch noch mal für dich zum Nachlesen

https://opensource.com/resources/virtualization und selbst Wikipedia erklaeren es ganz gut. In Wikipedia kommt auch der Begriff Paravirtualisierung zum Einsatz, was dem ganzen mehr entspricht, da eben eine Abhaengigkeit von Programm und Hardware existiert.
 
Kacha schrieb:
Ein System mit einem anderen nachbilden waere in dem Fall eher sowas wie ARM auf x86_64.

Eine AMD CPU auf einer Intel CPU 1:1 abzubilden ist genauso eine Emulation, wie ARM auf x86. Wenn die Hardware komplett abstrahieren willst, dann gaukelst du einer VM einem bestimmten Prozessor vor, egal welcher im System verbaut ist und dann hast du eben eine Emulation und keine Virtualisierung mehr.

Die Sache ist klar definiert, kann die Anwednung direkt auf der CPU ausgeführt werden ist es eine Virtualisierung, hat die Software gar keinen Zugriff auf die verbaute Hardware ist es eine Emulation.

Kacha schrieb:
Wikipedia erklaeren es ganz gut.

Da gebe ich dir recht!
Hardware virtualization is not the same as hardware emulation. In hardware emulation, a piece of hardware imitates another, while in hardware virtualization, a hypervisor (a piece of software) imitates a particular piece of computer hardware or the entire computer. Furthermore, a hypervisor is not the same as an emulator; both are computer programs that imitate hardware, but their domain of use in language differs.

Dein erster Link sagt übrigens gar nichts, was deine Argumentation untermauern würde.
What is a virtual machine?
A virtual machine is the emulated equivalent of a computer system that runs on top of another system. Virtual machines may have access to any number of resources: computing power, through hardware-assisted but limited access to the host machine's CPU and memory; one or more physical or virtual disk devices for storage; a virtual or real network inferface; as well as any devices such as video cards, USB devices, or other hardware that are shared with the virtual machine. If the virtual machine is stored on a virtual disk, this is often referred to as a disk image. A disk image may contain the files for a virtual machine to boot, or, it can contain any other specific storage needs.

In beiden Fällen wird bei der Virtualisierung von der Abstraktion von Teilen eines Rechners gesprochen, nirgendwo jedoch wird behauptet es würde auch die CPU dabei abstrahiert, sowas machen eben nur Emulatoren.
 
Zuletzt bearbeitet:
Zurück
Oben