News 4 CPUs und 6 TB RAM: Windows 10 Pro for Workstations angekündigt

Das klingt eher nach Preisanpassung an Hardwareleistung, also Preiserhöhung für sehr leistungsfähige Geräte.

Bisher quält uns Windows 10 mit dem Spagat zwischen Handy und Threadripper. Dann soll der im Vergleich dazu relativ kleine Leistungssprung zwischen bisherigen High-End PCs und dem beschriebenen Workstation mit einer eigenen Windows Version bedacht werden? Ich würde es lieber sehen wenn zwischen mobilen Geräten und PCs ein Trennstrich gezogen würde als zwischen PCs und leistungsfähigen PCs.
 
Gab's die Meldung nicht schon mal? Und ReFS würde ich inzwischen auch nicht mehr als neu bezeichnen - auf Servern gibt's da jetzt doch schon seit Jahren.
 
Wattwanderer schrieb:
Ich würde es lieber sehen wenn zwischen mobilen Geräten und PCs ein Trennstrich gezogen würde als zwischen PCs und leistungsfähigen PCs.

Wäre mir auch sehr viel lieber. Und zusätzlich dazu wäre es noch schön, wenn für PC Nutzer unnötige Dinge wie die XBox App usw. nicht unveränderlich im System hocken würden, sondern als zusätzliche Software nachinstalliert werden könnte.
Wozu hat MS denn seinen ach so tollen Windows Store? Dort könnten sie die entsprechenden Apps als "Module" parken und jeder, der sie tatsächlich benötigt, kann sie nachträglich installieren.
Akutell habe ich auf meinem System nen Haufen Krempel, den ich nie benötige, nur weil MS der Meinung ist, ich sollte es benötigen.
 
Nur interessant falls man die Zwangsupdates ausschalten kann. Sonst bleiben wir wohl weiterhin auf LTSB.
 
Wattwanderer schrieb:
Bisher quält uns Windows 10 mit dem Spagat zwischen Handy und Threadripper.

Häh?? :freak:


Dann soll der im Vergleich dazu relativ kleine Leistungssprung zwischen bisherigen High-End PCs und dem beschriebenen Workstation mit einer eigenen Windows Version bedacht werden?

Ich glaube du hast überhaupt nicht verstanden, warum und wieso diese Version jetzt herausgebracht wird.

Ich glaube, die User die hier aus dem Forum mehr als 2TB RAM benötigen und verwenden, kann man an einer Hand abzählen. Ebenso NVDIMM-N wird wohl kein Normalsterblicher in seinem PC verbauen. Hier geht es um richtige(!) Workstations.

ReFS ist nett, wird in den nächsten Jahren sicher auch in der normalen Version einzug halten.
Ergänzung ()

Neko/Arc schrieb:
Nur interessant falls man die Zwangsupdates ausschalten kann. Sonst bleiben wir wohl weiterhin auf LTSB.

Und ihr hättet generell richtigen Bedarf an der Workstation Version?
 
Loopman schrieb:
Ergänzung ()

Und ihr hättet generell richtigen Bedarf an der Workstation Version?

Wenn die Vorteile wie ReFS und das Ram Limit überwiegen, dann ja. Momentan haben wir zwar nur 512GB Ram in den 840ern, aber das kann und wird sich noch ändern. Nur die LTSB kann halt keiner ausversehen upgraden und das macht sie für viele hier attraktiv.
 
Wattwanderer schrieb:
Das klingt eher nach Preisanpassung an Hardwareleistung, also Preiserhöhung für sehr leistungsfähige Geräte.
Nicht direkt. Bisher musste man sich afaik für solche Geräte die Serverversion kaufen, man kommt also sogar billiger weg.
Wattwanderer schrieb:
Bisher quält uns Windows 10 mit dem Spagat zwischen Handy und Threadripper. Dann soll der im Vergleich dazu relativ kleine Leistungssprung zwischen bisherigen High-End PCs und dem beschriebenen Workstation mit einer eigenen Windows Version bedacht werden? Ich würde es lieber sehen wenn zwischen mobilen Geräten und PCs ein Trennstrich gezogen würde als zwischen PCs und leistungsfähigen PCs.
Auch window 10 mobile ist ne eigene Version und bei der sind die Unterschiede zum normalen Win10 wesentlich drastischer als bei der Workstation Variante (sowohl beim Interface als auch unter der Haube). Ich weiss also nicht so ganz worauf du hinaus willst.
Was genau ist für dich ein Trennstrich?
 
Wieso liegt das RAM-Limit eigtl bei 2 (jetzt 6) TB?
Das ist doch beides noch lange nicht die Grenze von 64-Bit.

Erfordert jedes Byte, das potenziell adressiert werden KANN einen höheren programmieraufwand im OS?
 
Schon in meinem "Surf PC" steckt 64GB RAM. Mit Threadripper sind 128GB möglich. Mit Dual Sockel und RDIMMs ließe sich jetzt TB RAM knacken. Wie groß wäre da der Sprung zum beschriebenen "Workstation"? RAM? Rechenleistung? Mit viel Optimismus ließe sich ein Faktor 10 erreichen.

Wie groß ist der Sprung von einem Einsteiger Windows 10 Nokia Handy zum High-End Enthusiasten PC? 100? 1000?
 
wenn dieses "Windows 10 Pro for Workstations" ähnlich dem "Windows 10 Pro LTSB" (Long Term Servicing Branch) ohne Apps, Store und Adware ausgeliefert wird, hätte ich sogar Interesse :D
 
Bonanca schrieb:
Wieso liegt das RAM-Limit eigtl bei 2 (jetzt 6) TB?
Das ist doch beides noch lange nicht die Grenze von 64-Bit.

Erfordert jedes Byte, das potenziell adressiert werden KANN einen höheren programmieraufwand im OS?

gleicher Grund wie das CPU-Limit und so n Blödsinn wie CALs etc - Geld scheffeln ;)
 
Bonanca schrieb:
Wieso liegt das RAM-Limit eigtl bei 2 (jetzt 6) TB?
Das ist doch beides noch lange nicht die Grenze von 64-Bit.

Erfordert jedes Byte, das potenziell adressiert werden KANN einen höheren programmieraufwand im OS?

Wahrscheinlich hat man einfach einen sinnvoll erscheinenden Wert willkürlich gewählt. Womöglich zu Zeiten wo 2GB RAM Module Standard war. Da konnte sich keiner vorstellen, dass jemand einen Rechner mit 1024 DIMMs vollsteckt.

Off-Topic...

Wie man so etwas versieben kann sieht man IMHO bei IPv6. 32BIT zur Adressierung reicht nicht mehr. Also müssen mehr Adressen her. Statt sagen wir mal 48BIT wie z.B. bei MACs was bisher für jedes bis heute jemals produzierte Netzwerkinterfaces ausgereichte, hat man 128BIT gewählt. Das wäre wie: Oh, uns gehen die Telefonnummern aus. Verlängern wir sie mal und setzen 29 Stellen (!!!) hinzu. Das reicht wohl, um unser ganze Galaxie mit IP Adressen zu versorgen aber ob wir immer noch Internet nutzen werden wenn wir alle Planeten in unser Galaxie besiedelt haben? Bereits Mars ist ja mit Pingzeiten zwische 6 und 40 Minuten keine Freude mehr. :)
 
Neko/Arc schrieb:
Nur interessant falls man die Zwangsupdates ausschalten kann. Sonst bleiben wir wohl weiterhin auf LTSB.
kann man doch unter aufgabenplanung/microsoft/windows/updateorchestrator da kannst du sogar einstellen wie oft gesucht werden soll ich hab ein windows 10 pro kp ob das bei home auch so geht

dort kann man übrigens auch den automatischen neustart bei einem update ausschalten
 
Bonanca schrieb:
Wieso liegt das RAM-Limit eigtl bei 2 (jetzt 6) TB?
Das ist doch beides noch lange nicht die Grenze von 64-Bit.

Erfordert jedes Byte, das potenziell adressiert werden KANN einen höheren programmieraufwand im OS?

Geldmache. Microsoft wird nicht umsonst liebevoll mit "M$" abgekürzt. Die vorgestellte Version ist natürlich völliger Quatsch. Wozu gibt es denn die normale "Pro"? Oder ist die nicht "Pro" genug? Jetzt muss superduper Pro rausgebracht werden.
 
Wattwanderer schrieb:
Schon in meinem "Surf PC" steckt 64GB RAM. Mit Threadripper sind 128GB möglich. Mit Dual Sockel und RDIMMs ließe sich jetzt TB RAM knacken. Wie groß wäre da der Sprung zum beschriebenen "Workstation"? RAM? Rechenleistung? Mit viel Optimismus ließe sich ein Faktor 10 erreichen.

Wenn du mit dem PC wirklich nur Surfst und Office Arbeiten machst, waren die 64GB halt auch einfach nur Geldverschwendung. Mehr als 16-32GB RAM braucht man auch heute nur in wenigen speziellen Anwendungsfällen. Surfen gehört da aber sicher nicht zu, außer du hast ein paar hunderttausend Tabs offen.

Bonanca schrieb:
Wieso liegt das RAM-Limit eigtl bei 2 (jetzt 6) TB?
Das ist doch beides noch lange nicht die Grenze von 64-Bit.

Erfordert jedes Byte, das potenziell adressiert werden KANN einen höheren programmieraufwand im OS?

Nein, es ist vor allem eine Beschränkung, um Power-User zu zwingen, teurere Versionen (bisher: Windows Server) zu kaufen, damit sie nicht ihr Quad-Sockel System mit ein paar TB RAM mit Windows Home betreiben.

Wattwanderer schrieb:
Wahrscheinlich hat man einfach einen sinnvoll erscheinenden Wert willkürlich gewählt. Womöglich zu Zeiten wo 2GB RAM Module Standard war. Da konnte sich keiner vorstellen, dass jemand einen Rechner mit 1024 DIMMs vollsteckt.

Off-Topic...

Wie man so etwas versieben kann sieht man IMHO bei IPv6. 32BIT zur Adressierung reicht nicht mehr. Also müssen mehr Adressen her. Statt sagen wir mal 48BIT wie z.B. bei MACs was bisher für jedes bis heute jemals produzierte Netzwerkinterfaces ausgereichte, hat man 128BIT gewählt. Das wäre wie: Oh, uns gehen die Telefonnummern aus. Verlängern wir sie mal und setzen 29 Stellen (!!!) hinzu. Das reicht wohl, um unser ganze Galaxie mit IP Adressen zu versorgen aber ob wir immer noch Internet nutzen werden wenn wir alle Planeten in unser Galaxie besiedelt haben? Bereits Mars ist ja mit Pingzeiten zwische 6 und 40 Minuten keine Freude mehr. :)
Im Bereich von IPs geht es auch darum, dass man nicht nur einzelne Adressen, sondern oft ganze Netzsegmente an Firmen etc. vergibt. Da bleiben dann oft IPs ungenutzt etc., es hat aber fürs Routing große Vorteile, weil man z.B. einfach sagen kann "Oh, Paket kommt aus dem Netzsegment - ab zu Wallmart damit". Wenn man eng plant und sowas wie 48Bit nimmt, werden die Adressen am Ende wirklich one-by-one an die Kunden verteilt und man hat überhaupt keine Segmentierung des Netzes mehr. Da ändern sich die letzten 2 Bit, und man ist auf einem anderen Kontinent bei einer anderen Firma oder ISP - obwohl es von der IP her das gleiche Segment ist.

Es gibt dagegen sogar stimmen die sagen, selbst v6 ist zu klein - wobei das auch noch mit anderen Sachen zusammenhängt. Sehr große Firmen sind z.B. gerne ihr eigener ISP, weil sie dann auch über mehrere Standorte IPs etc. exakt managen können. Um ISP zu sein, braucht man aber schon ein relativ großes Netzsegment (/40? /48? Glaube ich?), und davon gibt es dann schon fast wieder zu wenige.

Dazu wollte man um jeden Preis NAT in Zukunft verhindern - v6 kann ja auch by design einfach kein NAT. Und bevor man sich verschätzt und so eine Umstellung wie von v4 auf v6 in 50 Jahren wieder machen muss, hat man hier lieber etwas großzügiger gearbeitet.
 
Neko/Arc schrieb:
Momentan haben wir zwar nur 512GB Ram in den 840ern, aber das kann und wird sich noch ändern.

Du kannst also noch das 4fache einbauen, bevor die neue Version für euch interessant wird. ;)
Wenn bisher 512GB reichen, werden 2TB sicher noch ein ganzes Weilchen weiter reichen.
 
ReFS ist doch schon in der 1703 enthalten. Das kann man jetzt schon nutzen...
 
@Miuwa

Und ReFS würde ich inzwischen auch nicht mehr als neu bezeichnen

Und wird selbst von Microsoft bei Server 2016 noch nicht zum Einsatz empfohlen und eher abgeraten. :)

@CB

RDMA macht beim Filesharing auch wenig Sinn. Ist eher eine Funktion die bei Migrationen von VMs in Clustern genutzt wird wenn eine VM auf einen anderen Host verschoben wird.
 
Bonanca schrieb:
Wieso liegt das RAM-Limit eigtl bei 2 (jetzt 6) TB?
Das ist doch beides noch lange nicht die Grenze von 64-Bit.

Erfordert jedes Byte, das potenziell adressiert werden KANN einen höheren programmieraufwand im OS?
Meines Wissens zwei Gründe:
- Produktdifferenzierung (die Leute sollen sich ein Server bzw. jetzt Workstation OS kaufen um Server / WS Hardware zu betreiben.
- Testhardware: Generell gibt MS ein OS nicht für mehr Kerne/RAM frei, als sie testen können.

Übrigens können aktuelle Prozessoren keine 2^64Byte adressieren (die Leitungen für die oberen Adressbits fehlen) ich glaube bei Intel liegt das Limit derzeit bei 256TB.
 
Zurück
Oben