News Windows Server 2016: Lizenzen auf Basis der Kerne statt der Prozessoren

Windows Server braucht man weniger wegen den Services selbst, bei uns zumindest weit mehr als einfacher VM Untersatz zur Installation von unendlich vielen Server Komponenten für andere Apps. Schön dabei ist natürlich die Automatische Aktivierung im HyperV.
Dazu natürlich noch die Citrix Umgebung.

Ich denke wir führen locker 400 VMs mit MS Server aus. (Mittelständler, 4000 MA)
 
raekaos schrieb:
Ändert sich also an den Lizenzkosten nicht wirklich was.
In der Regel sind Windows Server heute eh virtualisiert und spezialisiert da ist es wurscht. Mehr als 8 Kerne pro VM kommen selten zum Einsatz und wenn doch spielen die Lizenz-Mehrkosten auch kein Rolle mehr.
So läuft die Lizenzierung aber nicht. Es wird immer die physische Hardware lizenziert. Es spielt keine Rolle, ob deinen VMs eine, zwei oder zehn vCPUs zugewiesen sind. Es zählen am Ende nur die Cores der physischen Hardware.
 
Bei Datacenter Lizenzierung sind dir VMs doch selbst mit Server Standard Installation automatisch mitlizensiert meine ich, da kann man diesen special Key verwenden und es is direkt aktiviert. Find ich mega praktisch da man als IT studi auch Datacenter bekommt und ich so beliebig VMs mit Server OS zu Hause betreiben kann :)
 
... das erinnert in der Tat extrem an Oracle.
Und die haben damit massive Probleme. Zum einen wegen der verschiedenen Power pro Kern, zum anderen wegen der Virtualisierungsthematik.

Ich hoffe MS hat sich da kein Ei gelegt. Denn bei Oracle führt das Modell im Großkundenbereich gerade in letzter Zeit zu echten Aufständen.
 
Gladston3 schrieb:
Also das ist ja wohl kein wirkliches Problem? Samba4 ersetzt Active Directory quasi 1:1. Gerade wenn wir von Lösungen für KMUs sprechen.
Der Exchange Server spielt seine Vorteile eigentlich ausschließlich über die gute Konnektivität zu Outlook aus und vielleicht noch über seine Point and Click Installationsroutine^^

Jo, für kleine Unternehmen vielleicht ganz interessant, aber sobald wir in die Größe (d.h mehrere Standorte) gehen, geht da ganz schnell das Licht aus. Als ich das letzte Mal Samba gecheckt hab, war von Sachen wie Replikation des AD und DNS, Read-Only DCs, cross-forest trust, automatisiertes Ausrollen von Zertifikaten usw wenig zu sehen, und da haben wir über Backup noch gar nicht gesprochen. In Buden mit 30 Mann vielleicht kein Problem, da kann man jeden noch einzeln durch sein Büro schleusen und abarbeiten, aber sobalds 100+ Mitarbeiter sind, setzt man eben doch auf die bequeme Lösung wenn sie die Arbeit erleichtert und nicht erschwert.
Klar mag es mitlerweile auch Exchange-Alternativen geben, die schon *ganz* gut mit Outlook usw funktionieren, bis es dann eben doch wieder hakt.

Versteh mich nicht falsch, ich bin absolut kein Windows-Jünger der nur auf seine Klickmenüs abfährt (die letzte Exchange-Migration hab ich nahezu komplett über PowerShell abgearbeitet), wenn es sinnvolle Alternativen gibt bin ich der letzte der sich dagegen wehrt. Nur zählt halt auch der Wartungsaufwand, Einarbeitungszeit, Problemlösung und (Abwärts)Kompatibilität zu anderen Schnittstellen mit zur Entscheidungsfindung. Und da bietet derzeit Microsoft (noch) ein sehr komfortables Gesamtpaket an, wo man bei seinem Chef schon viel Überzeugungsarbeit leisten muss damit er sich für etwas anderes entscheidet.

Kleine Unternehmen werden sich in Zukunft eh kaum noch selbst um ihre Server kümmern, das wandert perspektivisch gesehen zu externen Dienstleistern. Ob das jetzt Cloud heißt oder direkt bei denen gehostet wird spielt dann auch keine Rolle mehr, weil diese Anbieter eh wieder in anderen Dimensionen arbeiten und die Lösung für die Kunden nur ein Derivat der Struktur abbildet.
 
Zuletzt bearbeitet:
Bei sowas frag ich mich immer warum die das so kompliziert machen müssen.
Wir haben früher SPLA-Lizenzen weitervermietet, da fragt man sich manchmal ob es bald nen Studiengang "MS-Lizensierung" geben muss damit es überhaupt ein oder 2 Unternehmen mit mehr als 5 Rechnern gibt, die es schaffen sich korrekt zu lizensieren.

Auch spaßig: Man nehme ein VM-Ware-Cluster, ca. 20 physikalische Server mit je 32 Cores. Dann kommt eine einzige Windows-VM. -> Viel Spaß beim Lizensieren.

Lösung: Einfach wie früher - jede Installation braucht eine Lizenz. Egal wie viele Cores, egal auf welcher Hardware/Software das virtualisiert wird.
 
Zuletzt bearbeitet:
Ich habe dem "mit voller Hose ist gut stinken"-Konzept nie etwas abgewöhnen können. Unsere IT wollte mir auch schnarch langsame Xeons anbieten, 20 Cores mit 1GHz. Kaum eine Software profitiert von sowas.

Bei Oracle gab es früher auch Faktoren, welche CPU mit welchem Faktor zu lizensieren sind. Da war dann intel mit 0,75 zu multiplizieren, IBM mit eins und Single-Core-CPUs waren sehr teuer.

Solch ein Durcheinander wird wohl auch noch für den PC kommen. Vlt. wird aber auch einfach der Windows-Leistungsindex herangezogen: Viel Rechenpower = teure Lizenz; Tablett = kostenlos
 
Bei einem Tablet dürfte win nicht viel kosten,
wenn es schon Tabs für 60 euro gibt
 
eine 100%ige Outlookkonnektivität ist für die meisten Unternehmen aber sehr wichtig :) (und nein, es gibt keine Alternative zu Outlook)

RDP etc. ist auch ziemlich wichtig in Unternehmen.

Und wer seinen Exchange komplett über die Shell bedient ist definitiv nicht ausgelastet ;)

Für ne Bastelbude mit viel Zeit, kann man sich auch ein paar Linuxserver hinstellen.
 
Zuletzt bearbeitet:
Gerade im Server-Bereich ist doch Linux ganz groß...dass sich Microsoft sowas überhaupt erlauben kann :freak:
Für was braucht man denn einen Windows-Server was mit Linux nicht läuft? Kann mir nicht vorstellen, dass es da was gibt. Selbst Software die nur unter Windows läuft lässt sich im normallfall portieren, mal abgesehen davon, dass diese Software dann falsch entwickelt wurde.

Finde es generell einen Witz wie teuer manche Software ist und wie viel Geld dort gescheffelt wird. Klar gute Software (wenn sie denn mal gut wäre) darf auch was kosten aber tausende Euro für eine Lizenz ist echt zu viel des guten.

Kowa schrieb:
Solch ein Durcheinander wird wohl auch noch für den PC kommen. Vlt. wird aber auch einfach der Windows-Leistungsindex herangezogen: Viel Rechenpower = teure Lizenz; Tablett = kostenlos
Hm, dann könnte man ganz zufällig alle Bauteile aufs Minimum runtertakten bevor die Leistung bestimmt wird :D
So lange man die Hardware nicht ändert merkt das auch keiner, zumindest derzeit.
 
Zuletzt bearbeitet:
Marcel55 schrieb:
Für was braucht man denn einen Windows-Server was mit Linux nicht läuft?

Citrix. Punkt. Aus. Ende.
 
Marcel55 schrieb:
Gerade im Server-Bereich ist doch Linux ganz groß...dass sich Microsoft sowas überhaupt erlauben kann :freak:
Für was braucht man denn einen Windows-Server was mit Linux nicht läuft? Kann mir nicht vorstellen, dass es da was gibt. Selbst Software die nur unter Windows läuft lässt sich im normallfall portieren, mal abgesehen davon, dass diese Software dann falsch entwickelt wurde.
Linux ist bei Webservern etc. groß.
Windows Server brauchst du für praktisch alles, was irgendwie mit den Clients interagiert und über HTTP hinausgeht (etwas übertrieben, aber kommt hin). Exchange / Outlook, AD, DC, GPOs, Anwendungen von Drittherstellern die zwingend MS-SQL verlangen, Netzlaufwerke mit ordentlicher Versionhistorie über Rechtsklick->Vorgängerversionen, WSUS, Windows Software Center. Die Verwaltung von Windows Clients funktioniert (eigentlich logisch) mit Windows Server am Besten.

Finde es generell einen Witz wie teuer manche Software ist und wie viel Geld dort gescheffelt wird. Klar gute Software (wenn sie denn mal gut wäre) darf auch was kosten aber tausende Euro für eine Lizenz ist echt zu viel des guten.
Windows Server mit Windows Clients ist gute Software. Auch bei Linux hat man da in großen Infrastrukturen oft Problemchen und Gefrickel, sowas läuft einfach nicht "mal eben" Problemlos.
Und in Relation zu Mitarbeiterkosten, Serverkosten etc. pp. sind die Lizenzkosten meist fast Peanuts.
 
Autokiller677 schrieb:
Netzlaufwerke mit ordentlicher Versionhistorie über Rechtsklick->Vorgängerversionen

Das bekommen andere Produkte, z.B. NetApp, auch ganz gut hin. ;)
 
Außerdem darf bei Linux nicht der Supportaufwand etc.... vergessen werden.
Im Endeffekt nur bedingt günstiger....
 
crashbandicot schrieb:
Das bekommen andere Produkte, z.B. NetApp, auch ganz gut hin. ;)
Ja ok, geht. Allerdings geht man da von einem Vendor-Lockin ins nächste, hat also im Hinblick auf Lizenzkosten und Systemoffenheit nur bedingt Vorteile.
 
Shririnovski schrieb:
Davon abgesehen, die wenigsten Windows Server bekommen 20+ Kerne zu Gesicht, es ändert sich also nicht viel.
Hmm rechne ich hier jetzt mal habe ich wohl die A-Karte...
Denn wer redet hier direkt von Linux?

Jede VM wird nach darunterliegender Physik lizenziert.
Bedeutet bei uns im VMware Cluster sind Datacenter Lizenzen im Einsatz.

2 Sockelsysteme mit jeweils 12 Cores ergibt 24.
Bedeutet für mich 24 abzgl. der 16 vorgegebenen macht 8 zusätzlich zu lizenzierende Cores.

Fazit:
Datacenter Edition für einen Server mit
16 Kernen = 6.155 US-Dollar
zzgl. 4x 2 Kerne = 4x 769,38 US-Dollar
Gesamtpreis pro Server = 9232,50 US-Dollar

Und das dann mal vier... :o
 
Blutschlumpf schrieb:
Auch spaßig: Man nehme ein VM-Ware-Cluster, ca. 20 physikalische Server mit je 32 Cores. Dann kommt eine einzige Windows-VM. -> Viel Spaß beim Lizensieren.

Ne ganz einfach: Du lizensierst den einen phys. Host, auf dem die einzelne Windows VM läuft, mit 16x 2core Lizenzen, was je nach Zahl der Sockel (2 oder 4) dem Preis der 2012R2 Lizensierung entspricht oder doppelt soviel kostet. Auch wenn das Szenario sehr unrealistisch ist.

Ansonsten kann ich das ganze Gebashe hier nicht recht nachvollziehen. Windows Server scheint halt zu Beginn der Lizensierung teuer, aber wenn das ganze mal aufgesetzt ist, hält sich der Wartungsaufwand sehr in Grenzen. Und im Notfall kann auch mal ein anderes Systemhaus recht problemlos einspringen, ohne dass man sich gleichmal den passenden und deutlich teureren Spezialisten für Linuxsysteme holen kann.

Naja und funktionieren tut das Ganze schlichtweg.
Wenn dann irgendwann mal alles bei großen Hostern liegt schaut das wieder anders aus, aber dann interessiert das den Kunden auch nicht, sondern nur der monatliche Preis und die Funktion.

Wenn man die EDV aber noch im Haus hat, wird man sich sehr genau überlegen, ob man sich Linux antut.
 
Zuletzt bearbeitet:
yii schrieb:
Jo, für kleine Unternehmen vielleicht ganz interessant, aber sobald wir in die Größe (d.h mehrere Standorte) gehen, geht da ganz schnell das Licht aus. Als ich das letzte Mal Samba gecheckt hab, war von Sachen wie Replikation des AD und DNS, Read-Only DCs, cross-forest trust, automatisiertes Ausrollen von Zertifikaten usw wenig zu sehen, und da haben wir über Backup noch gar nicht gesprochen. In Buden mit 30 Mann vielleicht kein Problem, da kann man jeden noch einzeln durch sein Büro schleusen und abarbeiten, aber sobalds 100+ Mitarbeiter sind, setzt man eben doch auf die bequeme Lösung wenn sie die Arbeit erleichtert und nicht erschwert.
Klar mag es mitlerweile auch Exchange-Alternativen geben, die schon *ganz* gut mit Outlook usw funktionieren, bis es dann eben doch wieder hakt.

Versteh mich nicht falsch, ich bin absolut kein Windows-Jünger der nur auf seine Klickmenüs abfährt (die letzte Exchange-Migration hab ich nahezu komplett über PowerShell abgearbeitet), wenn es sinnvolle Alternativen gibt bin ich der letzte der sich dagegen wehrt. Nur zählt halt auch der Wartungsaufwand, Einarbeitungszeit, Problemlösung und (Abwärts)Kompatibilität zu anderen Schnittstellen mit zur Entscheidungsfindung. Und da bietet derzeit Microsoft (noch) ein sehr komfortables Gesamtpaket an, wo man bei seinem Chef schon viel Überzeugungsarbeit leisten muss damit er sich für etwas anderes entscheidet.

Kleine Unternehmen werden sich in Zukunft eh kaum noch selbst um ihre Server kümmern, das wandert perspektivisch gesehen zu externen Dienstleistern. Ob das jetzt Cloud heißt oder direkt bei denen gehostet wird spielt dann auch keine Rolle mehr, weil diese Anbieter eh wieder in anderen Dimensionen arbeiten und die Lösung für die Kunden nur ein Derivat der Struktur abbildet.

Also alles was du aufgezählt hast, kann Samba4. Klingt für mich eher nach Samba3... Und Backups waren eigentlich nie ein Problem.
Zimbra und Zafira können Outlook mehr als *ganz* gut. Die werden auch in sehr grossen Unternehmen eingesetzt. Wobei du mir gerade bei Outlook erklären musst, warum man das, gerade in grossen Unternehmen, einsetzen sollte? Word, Excel und Powerpoint lasse ich mir ja noch einreden, aufgrund der Kompatibilität nach aussen, aber Outlook? Gibt genug bessere (webbasierte) Alternativen.
Überhaupt kann ich den Einsatz von Exchange gerade bei grossen Firmen gar nicht verstehen. Als würde irgendein wirklich grosser Mailserver mit Exchange laufen^^

Gerade wenn wir von ein paar 100 Mitarbeitern sprechen, werden die Lizensierungskosten ja auch so hoch, dass sich selber Handanlegen durchaus lohnt.

Den einzigen Punkt, den ich auch problematisch sehe, ist, spezial Software, die nur auf Windows läuft. Aber da sollten die Chefs und Admins mal anfangen Druck auf die Hersteller auszuüben. Alleine schon, weil mit Server 2016 Azure für grössere Unternehmen quasi zur Pflicht wird...

Ich bleib bei meiner Meinung. Der Umstieg zu Linux scheitert oftmals einzig und allein an der Faulheit und dem Desinteresse der Verantwortlichen.
 
Gladston3 schrieb:
Der Umstieg zu Linux scheitert (...)

... an der Verbreitung von Windows im privaten Umfeld. Die Endnutzer sind jetzt schon am Klagen, obwohl jeder Windows kennt und auch zu Hause hat. Viel Spaß wenn du in einem Konzern >10.000 Nutzer auf Linux umstellst - das kannst du servicetechnisch (Servicedesk, Second Level Support, Field Server, ...) gar nicht abdecken.
 
@Gladston3: Bei diesen Ersatzlösungen fängst du aber oft genug bei 0 an. Außerdem gibt es kaum standardisierte gangbaren Pfade um einen bestimmten Funktionsstand zu erreichen. Unter Windows bist du nach dem Setup und dem Durchlaufen des Assistenten zur Domänenerzeugung auf einem Stand für den du bei zusammengeschalteten Insellösungen schon ne Woche brauchst. Um etwas Ähnliches schnell und zuverlässig hinzubekommen muss du schon auf Profilösungen setzen. Zum Beispiel Univention Corporate und Groupware Server oder Novell GroupWise. Das kostet dann aber eben auch, und nicht zu knapp. Es fehlt nicht an den Fähigkeiten der Software, sondern an der ganzheitlichen Lösung, die die Software mit minimalem Konfigurationsaufwand auf möglichst viele Bedürfnisse anpassbar macht.
Ferner scheitet das Ganze nicht an dem Desinteresse oder der Faulheit der Verantwortlichen, sondern an deren Interessen und Prioritäten. Da ist eben die Frage was ich erreichen will, und nicht wie ich das erreichen will. Du kannst sicherlich auf freier Basis etwas schaffen, was im Funktionsumfang einem Sharepoint-Server entspricht. Die Frage ist nur ob es dein Interesse ist sowas zu schaffen, oder ob es das Interesse ist, einfach nur Sharepoint Funktionalität in möglichst kurzer Zeit mit möglichst wenig Aufwand zu haben.
Da fragt man sich eben ob man heute 10000 Euro investiert und morgen eine fertige Lösung installiert hat, oder ob man nichts investiert und jemanden einstellt, der in 6 Monaten so eine Lösung programmiert oder in 4 Wochen so etwas mit zig Komponenten zusammenschustert und danach auch wartet.
 
Zurück
Oben