News Zen vs. Skylake: Die-Größenvergleich von Ryzen, Naples und Skylake-SP

Ich frage mich allen Ernstes, wie Intel die 165W realisieren will inkl. AVX...
Bei der derzeitigen Architektur wird das schon ziemlich schwierig bei einem 10-Kerner den Basis-Takt zu erreichen...
 
Der_Unbekannte schrieb:
Sehe ich das richtig, das wirklich jeder Kern in einem CCX eine Verbindung zu jedem anderen Kern haben muss, innerhalb des CCX?

Ja.

Der_Unbekannte schrieb:
Falls ja, dann wäre ein 8 Kern CCX nur mit sehr großen Latenzen möglich. Wäre ein 6 Kern CCX noch "wirtschaftlich"?

Mit dem jetzigen Zen Design gäbe es ein Latenz- und Platzproblem(Chipfläche) bei größeren CCXen. Momentan glaube ich, dass 4 Kerne für den internen Kern zu Kern Fabric die Grenze darstellen. Das heißt aber nicht, dass AMD nicht bei Zen+ in die Trickkiste greifen kann, um da noch was bei den Latenzen zu machen.

Der_Unbekannte schrieb:
Warum arbeitet bei den Epyc und Threadripper der Inter-Die Infinity Fabric sehr viel schneller?

Wenn ich mich richtig erinnere, dann verwenden Epyc und Threadripper PCIe als Bus für die Inter-Die Kommunikation. Die Kerne innerhalb eines CCX verwenden zwar auch Infinity Fabric als Protokoll, aber einen anderen, internen Bus.

Der_Unbekannte schrieb:
Was hindert eigentlich AMD, den Infinity Fabric schon jetzt bei den Ryzen zu entkoppeln? Ein Bios Update müsste doch reichen, oder nicht?

Ich glaube ein Bios Update kann den internen Bustakt nicht entkoppeln. Hierfür müsste ein zusätzlicher Taktgeber im Prozessor verbaut werden. Ich kann diese Designentscheidung insofern nachvollziehen, als dass der IMC ja auch am Fabric hängt. Wenn also Daten vom RAM in die CPU geladen werden, gibt es keine Notwendigkeit, dass der Bus schneller als mit Ramtakt läuft, da in genau diesem Szenario hierdurch kein Geschwindigkeitsgewinn erzielt werden kann. Eventuell müssen RAM und Fabric auch aus anderen Gründen synchron laufen (weils sonst inkonsistente/inkohärente Caches gibt oder so). Auf jeden Fall wurde aber Chipfläche eingespart durch diese Entscheidung.
 
Zuletzt bearbeitet:
Wieso wird hier eigentlich versucht direkt zu vergleichen, obwohl Intel beim 14nm Prozess am Ende angekommen ist:

dem aktuellen Intel-Prozessor in der letzten Ausbaustufe der 14-nm-Fertigung

und bei AMD noch 14nm+ mit den Rome/Starship CPUs, dem Threadripper-Nachfolger und natürlich Pinnacle Ridge Zen Prozessoren erst im Frühjahr kommenden Jahres auf den Markt kommt?

Ja, natürlich ist das zeitlich bedingt, aber da kann man doch nicht von gleicher Fertigungsgüte sprechen(?), zumal Intels 14nm+ den Fertigungsproessen gleicher/ähnlicher Größe der gesamten Konkurrenz (TSMC, GF und Samsung) überlegen ist, was etwa die Gate-Größe angeht, wenn ich mich richtig erinnere. Aus dem Grund sollen die 7nm Prozesse der Auftragsfertiger ja auch angeblich das Gegenstück auf ähnlichem Niveau zu Intels 10nm Heimfertigung sein.

Das sollte man bei dem Vergleich zwischen Kaby-Lake-/Skylake-X und RyZen/Threadripper sicherlich berücksichtigen ... ab Frühjahr 2018 werden mit Pinnacle Ridge und später dann dem Threadripper Nachfolger und Starship die Karten wieder neu gemischt und wer weiss schon, wann dann Intel erste HEDT-Plattform Cannon Lake 10nm CPUs bringen kann (Ende 2018 vielleicht, oder wird es wie bei Broadwell durchgereicht und man geht gleich bei ausreichend Prozessfortschritt/-reife schnell zu Ice Lake über?) ;)?
 
Zuletzt bearbeitet:
Raucherdackel! schrieb:
Der Sweetspot von Ryzen liegt meines Wissens bei 2,5 GHz, steigt dann gemächlich mit der Spannung ziemlich linear an, und ab 3,5 GHz braucht er dann unverhältnismäßig viel Saft.
Bei 0.9V VCore ziemlich geschmeidige 2500 MHz bei 60W inklusive Netzteil gemessen - und das mit 8 Kernen und 16Threads auf Volllast....

Holt schrieb:
So sieht es wohl aus und in dem Bereich von 2,x GHz scheinen den Gerüchten nach auch die EPYC CPUs zu arbeiten

Ich habe da ein Verständnisproblem.
Definiere mir doch mal jemand den"Sweetspot" bei 2,5 GHz, was nur wenig oberhalb des Leerlauftaktes ist.
Und was ist "dann unverhältnismäßig viel Saft"?
Hat dann der i9-7900X bei 1,5 GHz seinen "Sweetspot" weil er drüber "unverhältnismäßig viel Saft" benötigt?

Wenn der 7700k in Prime ähnlich viel Saft zieht als Ryzen hat er vermutlich seinen Sweespot ebenfalls bei 2,5 GHz.
Wäre doch logisch.
 
atlas77 schrieb:
@smartcom,

im Handwerk gewinnt man Preiskämpfe nicht durch intelligentere Verfahren7Management etc
sondern über die Bezahlung der angestellten.

Du weißt also nicht was ein Intel Ingenieur bekommt und was einer bei AMD verdient.

Ach bei REWE ist ales so teuer..klar wenn die Angestellten Tarif bekommen und Sozialleistung..ist eben der Dicounter günstiger der seinen Angestellten Dumpinglöhne zahlt.

hahaha - das muss ich mal meiner Frau sagen mit dem tollen Verdienst bei REWE :freak:
 
PulsarS schrieb:
Ich frage mich allen Ernstes, wie Intel die 165W realisieren will inkl. AVX...
Bei der derzeitigen Architektur wird das schon ziemlich schwierig bei einem 10-Kerner den Basis-Takt zu erreichen...

niedrigerer Basis Multi wie bei Kaby Lake auch. Einen extra Multi für AVX.
Ergänzung ()

cookie_dent schrieb:
Ich habe da ein Verständnisproblem.
Definiere mir doch mal jemand den"Sweetspot"

Naja, bei Transistoren hast du immer eine Grundspannung die du für einen Schaltvorgang brauchst. Knapp über dieser kannst du einen gewissen Takt fahren der kaum eine Spannungserhöhung nötig hat. Heute kommt man bei unter 1V schon gegen 3 Ghz, bis dahin bleibt die Effizienz nahezu gleich und der Verbrauch steigt linear mit der Performance über den Takt.

Sobald du mehr Spannung geben musst kann die Effizienz eigentlich nur schlechter werden da sich diese exponentiell niederschlägt. Dann nehmen auch die Leckströme zu.

Wenn man also einen Sweet Spot definieren müsste könnte man zb schauen wie weit man bei 8 Kernen und zb 60W verbraucht, oder man schaut wie viel Takt man zb bei 0,9V erreichen kann (zwei CPU bei je 0,9V ganz andere Effizienzwerte haben können).

Ein i7 7700k ist zb himmelweit weg von einem effizienten Punkt. Der 1700er Ryzen 7 hingegen nahe dran.
 
Zuletzt bearbeitet:
Das Ganze wird ja so formuliert als wäre die Fertigung besser nur weil sie platzsparender ist. Dafür benötigt sie deutlich höhere Spannungen für höhere Frequenzen als bei Intel. Auch kann Intels Fertigung einfach mal 1 GHz höher takten.
Der einzige Vorteil den ich bei AMD sehe ist Infinity Fabric und damit die Möglichkeit 32 Kerne CPUs günstig zu produzieren. Wobei sich erstmal zeigen muss welche Nachteile so ein MCM mit sich bringt.
 
Smartcom5 schrieb:
Wer hätte noch vor wenigen Monaten auszusprechen gewagt, daß AMD bei der Fertigungstechnik effizienter und überlegener ist und Intel schlägt? Wie schnell sich das Blatt doch wenden kann …

Hätte ich so auch nicht gedacht, finde es aber absolut fantastisch.

AMD hat hier einen unbeschreiblich kapitalen fertigungstechnischen wie geldwerten Vorteil und kann Intel preislich weiter unterbieten, während sie sogar noch eine größere Marge haben als Intel.

Intel kann einen Preiskampf schlicht nicht gewinnen ...

Das Problem ist, Technik ist das eine, Verkäufe etwas anderes. Intel kann sich einen Preiskampf leisten, AMD nicht. Ich sehe jedenfalls noch nicht, dass die OEMs massiv auf AMD setzen und Intel die lange Nase zeigen. Der Athlon64 damals war auch besser als der P4, aber der Markt trotzdem Intel-dominiert.

Den Unterschied heute könnte die höhere Integration sein. Damals gab es noch keine x86 APUs. Wenn Raven Ridge so gut wird, wie ich es erwarte, dann könnte man für den Notebookmarkt wirklich ein Produkt liefern, welches in der Kombination seiner Eigenschaften (CPU, GPU, Effizienz, Preis) so gut ist und man so weit vor der Konkurrenz liegt, dass man als OEM nicht daran vorbei kommt und wir da vielleicht endlich mehr AMD Notebooks (auch Top-Notebooks) sehen werden. Ich drücke die Daumen. Raven Ridge ist für AMD mMn das Produkt, auf das es am meisten ankommen wird.
 
Chismon schrieb:
Ja, natürlich ist das zeitlich bedingt, aber da kann man doch nicht von gleicher Fertigungsgüte sprechen(?), zumal Intels 14nm+ den Fertigungsproessen gleicher/ähnlicher Größe der gesamten Konkurrenz (TSMC, GF und Samsung) überlegen ist, was etwa die Gate-Größe angeht, wenn ich mich richtig erinnere. Aus dem Grund sollen die 7nm Prozesse der Auftragsfertiger ja auch angeblich das Gegenstück auf ähnlichem Niveau zu Intels 10nm Heimfertigung sein.

Du beziehst dich bestimmt auf die Intel Folie wie die 14/16er Fertigungsprozesse verglichen werden.
Die ist reiner BS.
Der dort verglichene 16NM Prozess von TSMC wurde gar nie eingesetzt, sondern gleich die bessere + Variante.
Bei Samsung/GF wird der 14er LPE(arly) Prozess verglichen, der stammt noch aus 2015. Da ist Samsung schon zwei Verbesserungen weiter.
Also die Folie ist reiner Intel Marketing Schwachsinn um sich selber besser dastehen zu lassen als sie sind.
Die nehmen sich momentan sehr wenig bis gar nichts.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Naja, bei Transistoren hast du immer eine Grundspannung die du für einen Schaltvorgang brauchst. Knapp über dieser kannst du einen gewissen Takt fahren der kaum eine Spannungserhöhung nötig hat. Heute kommt man bei unter 1V schon gegen 3 Ghz, bis dahin bleibt die Effizienz nahezu gleich und der Verbrauch steigt linear mit der Performance über den Takt.

Sobald du mehr Spannung geben musst kann die Effizienz eigentlich nur schlechter werden da sich diese exponentiell niederschlägt. Dann nehmen auch die Leckströme zu.

Wenn man also einen Sweet Spot definieren müsste könnte man zb schauen wie weit man bei 8 Kernen und zb 60W verbraucht, oder man schaut wie viel Takt man zb bei 0,9V erreichen kann (zwei CPU bei je 0,9V ganz andere Effizienzwerte haben können).

Ein i7 7700k ist zb himmelweit weg von einem effizienten Punkt. Der 1700er Ryzen 7 hingegen nahe dran.

Richtig, und zur Fertigung ansich kommt auch noch das Design der CPU hinzu, das auch aus diversen Gründen (RAM Takt zum Beispiel) bei gewissen Taktraten effizienter arbeitet. Ein Ryzen verliert beispielsweise bei 2500MHz weniger Leistung, als es die Taktratenverringerung vermuten lässt. Grob gesagt und nur zur Veranschaulichung: eine Taktverringerung um 40% kann in einer 30% igen Leistungsverringerung resultieren, wodurch wiederum die Effizienz steigt.
Ryzen bringt bei ca. 2500MHz immer noch eine brutale Rohleistung bei gleichzeitigem Sparverbrauch, und genau davor hat Intel am meisten Angst. Weil dieser Effizienz Sweet Spot nämlich genau da liegt, wo Intel ihr meistes Geld verdient: im Serverbereich.
 
karamba
Dein Argument warum sich Intel einen Preiskampf leisten könnte hat erhebliche Schwächen.
1. War zur Athlon64 die Hardware rund um den Prozessor noch nicht wirklich aus einer Hand und hatte teilweise Schwächen
2. War zu dieser Zeit die massive Marktmanipulation von Intel auf Vollgas und somit kaum bis keine AMD basierende Systeme bei den OEMs zu finden

Deswegen würde ich deiner Erklärung eher wenig Bedeutung beimessen.
 
atlas77 schrieb:
@smartcom,

im Handwerk gewinnt man Preiskämpfe nicht durch intelligentere Verfahren7Management etc
sondern über die Bezahlung der angestellten.

Du weißt also nicht was ein Intel Ingenieur bekommt und was einer bei AMD verdient. …
Beyazid schrieb:

@atlas: …
Und selbst wenn Intel gut zahlt, die Margen sind fast lächerlich hoch und trotzdem hat Intel NICHTS innovatives vorgestellt mit der ganzen Knete. Während AMD die günstigen Chippreise an den Kunden zu einem großen Teil durchreicht, hat Intel einen großen Teil der Margen den Aktienhaltern durchgereicht.
atlas77 schrieb:
@Beyazid

ich bin überzeugt davon, das Intel gut seine Mitarbeiter entlohnt. Und obwohl ich keine Interna kenne, denke ich schon, das auch das ein Grund ist warum Produkte teurer sind.
Ironischerweise fühlen sich derlei Angestellte dergestalt pudelwohl bei Intel, daß man nicht zuletzt aufgrund der desolaten Zustände in technischen Fragen bezüglich Personalmanagement an die Öffentlichkeit ging und sich gezwungen sah, über eben jene Interna bei Intel zu berichten;
Demnach wurden kürzlich („Die Abkehr der Zwölftausend“) und werden tausende Ingenieure wie der Kassierer an der Kasse des sprichwörtlichen Discounter behandelt. Man stopft neuerlich angestellte ahnungslose Ingenieure wahllos in Projekte oder zieht sie von solchen ab und die Motivation der Angestellten ist auf einem Allzeit-Tief.
„Many employees/engineers got fired in recent times and they say Krzanich treats engineers (replacing them) like supermarket cashiers, many new hires are inexperienced and not getting trained well enough. The mood in the company is at an all-time low and many employees are in fear for their jobs.“ — CanardPC

Es gibt keine klare Linie was Projekte angeht und selbst die Mitarbeiter sind sich darüber im Klaren, daß man entwicklungstechnisch im Hintertreffen ist oder zumindest den eigenen gesetzten Zielen weit hinterher hingt. Dazu werden aussichtslose Projekte vorangetrieben und wieder andere notwendige Projekte werden kurzfristig ohne Grund abgesägt.
„Many employees/engineers got fired in recent times and they say Krzanich treats engineers (replacing them) like supermarket cashiers, many new hires are inexperienced and not getting trained well enough. The mood in the company is at an all-time low and many employees are in fear for their jobs.“

Weiterhin scheint Krzanich (Intel's CEO) vollkommen planlos, kopflos und erschlagen von der Situation, daß AMD wieder aufgestanden ist – womit bei Intel Keiner wirklich gerechnet hat. Unwissend darüber, wie man nun reagiert wird von oben wahllos verordnet oder sein gelassen, in der Hoffnung, es möge helfen. Viele sehen in Murthy Renduchintala (Chef von Intel's Client and Internet of Things-Sparte) einen möglichen Kandidaten, der das Ganze deutlich besser händeln könnte, zumal dieser deutlich mehr Background mitbringt – darüber, daß Krzanich als Intel's CEO abgelöst werden muß, sind sich jedoch praktisch alle einig.
„Murthy Renduchintala is said to actually be a glimmer of hope in the whole mess as since he's been brought on he's been able to focus R&D properly and actually has technical background and makes decisions that engineers are able to get behind on. Some say they're hoping he'll replace Krzanich as CEO once they hope he'll get the boot from the board.“

Reuter schrieb:
Wie kommst du momentan zu dieser Weisheit? Intels Vorsprung in Sachen Fertigungstechnik dank der In-House Foundry scheinen der Vergangenheit anzugehören, der 7 nm Prozess von Globalfoundries befindet sich bereits im Tape-Out.
Nichts neues. Das sagen Branchenkenner seit wenigstens zwei Jahren, daß Intels Vorsprung der Fertigung praktisch nicht mehr existent ist und sie nunmehr nur noch wenigstens gleichauf mit GloFo, TSMC, Samsung & Co sind.

Sie scheinen nicht nur der Vergangenheit anzugehören, sondern tun es seit geraumer Zeit, siehe neuerlich GloFo's 7 nm, wo Intel nicht einmal ihre 10 nm-Fertigung gebacken bekommt, seit Jahren bitteschön. Deswegen produziert man ja auch notgedrungen im x-ten Aufguß in 14 nm …

Reuter schrieb:
Darüber hinaus ist der Standpunkt jetzt, dass Intel nicht die geringste Chance hat einen Preiskampf zu gewinnen. Der Yield ist bei AMD unglaublich hoch, da sie im Consumer-Markt derzeit genau einen einzigen Chip herstellen. Und dieser 4-Core Cluster wird je nach Defektrate einfach mittels Infinity Fabric zusammengeklebt und als 6- oder 4-Kerner weiterverwurstet. Dafür hat Intel derzeit kein Gegenmittel.
Einen nicht unerheblichen Anteil an den Kosten hatte jahrelang die iGPU genannte Krücke, welche die Yields künstlich drückte für ein Produkt, was Keiner braucht noch Wer nach gefragt hatte.


In diesem Sinne

Smartcom
 
Smartcom
so würde ich jetzt nicht argumentieren. Im Portable Bereich wie Notebooks und Convertible ist die IGPU schon absolut notwendig. Im Desktop Bereich bei Low End Geräten auch.
 
das aber OT und es ist auch nicht so als hätte zb AMD keine Entlassungswellen hinter sich. Zudem ist AMD zwischenzeitlich ja eher ne kleine Klitsche. Viele vergessen oft dass Fertigung selbst längst nicht mehr AMDs Baustelle ist. Ergo kann man auch schlecht von "AMDs überlegener Fertigung" reden.

Das Konstrukt GoFo und AMD ist natürlich eng verbunden, aber löst sich doch zunehmen und wird eigenständig. Ich hatte die Jahre oft den Eindruck als ob GoFo, auf welches wohl weniger Augen ausgerichtet sind, teils AMDs Zahlen ausbügeln muss, indem zb Chips erst quasi verschenkt werden und später dann hohe Nachzahlungen gefordert werden, eben um AMDs Aktionäre da etwas den ruhigeren Kurs präsentieren zu können.
Ergänzung ()

Raucherdackel! schrieb:
Smartcom
so würde ich jetzt nicht argumentieren. Im Portable Bereich wie Notebooks und Convertible ist die IGPU schon absolut notwendig. Im Desktop Bereich bei Low End Geräten auch.

in der Tat. Für die allermeisten PCs reicht die iGPU absolut aus und wird gern unterschlagen wenn man zb die 1151 Plattform mit den Aktuellen Ryzens vergleicht. Klar, bei Gaming ist sie keine Option, aber ich wüsste zb nicht weshalb ich meinen Ellis, meiner Sis oder Freundin ne dickere GPU einbauen sollte.

Aber Raven Ridge wird auch sehr interessant, ich hoffe AMD bringt auch 2C+4T auf hohem Takt bis ins Niedrigpreis Segment quasi also Pentium Konkurrenz.
 
Raven Ridge braucht aus meiner Sicht keine so hohen Taktraten, die Grundleistung ist ja sowieso recht hoch. Allerdings gewinnt Raven Ridge mit 3,2GHz bestimmt keinen Blumentopf gegen hochtaktende Pentiums.

Ich halte 2 Kerne, Vier Threads bei ~3GHz und großer IGPU für absolut ausreichend, auch was Spiele betrifft.
 
Krautmaster schrieb:
Schwer zu testen wird es allemal. Benchmarks wie Cinebench und viele andere machen greifen auf 1 Problem zurück und lösen das einfach X mal parallel auf Anzahl der Threads. Zwischen diesen sind dann gegen 0 Abhängigkeiten. Viel Ram brauchen die auch selten.

Das ist so eine Frage die mich generell umtreibt. Mir kommt das alles nicht allzu Praxisrelevant vor.
Es ist doch so, dass nur noch die wenigsten direkt auf Blech werkeln. Man mag mich gerne korrigieren wenn ich mich irre.
Die allermeisten von uns sind doch wohl auf virtuellen Umgebungen unterwegs. Bei uns (und in einigen Firmen in denen ich vorher unterwegs war), ist es so, dass sich 2-4 Entwickler ein Blech teilen und dort ihre eigenen Umgebungen haben.
Auf diesen laufen dann, je nachdem 2-6 IDE + SQL / oder LAMP Stack right away zuzüglich diverser Helferlein.
Wäre es da nicht angebracht auch mal die Leistung dieser Systeme im Kontext von virtuellen Systemen zu betrachten?
 
hm ja, tendenziell schon. APU mit derart großen GPU machen in meinen Augen aber nach wie vor fast nur Sinn wenn man auch zockt + wenig Platz hat. Sonst weniger. Für den typischen HeimPC für Ü40 ist IPC / Takt (meist) wichtiger als 3D Leistung. (so meine Erfahrung)

Das war mal anders als AMD mit der iGPU die besseren Multimedia Fähigkeiten hatte, Schnittstellen, Multi Head usw... Gerade was HW Encode / Decode angeht. Sollte Raven Ridge dann zb NVENC ebenwürdiges Encode bieten wäre das schon eher nen Argument. Dahingehend ist der AMD Support leider noch hinter Nvidia und Intel. Aber vielleicht hat sich die letzten Monate auch viel getan. AMD arbeitet ja mein ich an etwas.

Hat jemand Erfahrung mit den aktuellen AMD Karten und Lightroom, tut da die Hardware Beschleunigung zwischenzeitlich problemlos? 3 Jahre her dass ich das angeschaut hatte. An meinem 4K Monitor merke ich das Abschalten der Beschleunigung via GTX 980 TI schon deutlich.
 
Raucherdackel! schrieb:
Smartcom
so würde ich jetzt nicht argumentieren. Im Portable Bereich wie Notebooks und Convertible ist die IGPU schon absolut notwendig. Im Desktop Bereich bei Low End Geräten auch.

Mir ging es eher darum aufzuzeigen, daß die iGPU durch Einbettung innerhalb der Die den Yield jahrelang nach unten gedrückt und so zu erheblichen Mehrkosten beigetragen hat, anstatt es als MCM auszuführen …
… und wieso unterschlägt eigentlich jeder ständig meine fünf?! arrgw15x18.gif


In diesem Sinne

Smartcom
 
Unnu schrieb:
Wäre es da nicht angebracht auch mal die Leistung dieser Systeme im Kontext von virtuellen Systemen zu betrachten?

ja, die Frage ist wie man sowas testen soll? Dass dasslebe wie "Teillast" zu testen. Eigentlich müsste man dazu mal zb ESX installieren, einfach ne VM mit 8 Kernen und 16Gb Ram machen + DB drauf, dann mal nen Datenbank Bench laufen lassen. (oder den ganzen Parcour in Vm)

Gerade bei dem niedrigen Basetakt und immer granularerer Staffellung bei wenig Threads bis hin zu 4,5 Ghz bei 2 Threads macht dann einen riesigen Unterschied aus.

Bei einem 18 Kern Skylake SP kann das ja schnell von 2,5 Ghz bis 4,5 Ghz skalieren, also Jobs die 2 Threads erfordern ggf schneller laufen als eine 18 Kern CPU die einen Baseclock von 3 Ghz aber einen kleinen Turbo hat.
 
Krautmaster schrieb:
Für den typischen HeimPC für Ü40 ist IPC / Takt (meist) wichtiger als 3D Leistung. (so meine Erfahrung.
OT: Äh, nö. Ich bin so einer Ü40 und zocke nach wie vor. :)
Wie so viel der 1st Gen-Zocker, die sich alle so um die Ü40 ansiedeln dürften mittlerweile.
Mir ist die GPU wichtiger.

Davon ab, finde ich die HEDT spannend, denn da könnte ich dann für jedes Familien-Mitglied einen eigenen virtuellen Rechner aufbauen UND trotzdem nebenher zocken. Das müsste ja möglich sein. Und es scheint, dass so etwas mit diesen neuen CPUs auch für Normalos erschwinglich(er) wird.
Ergänzung ()

@Krautmaster: Ja, das meine ich ja, diese ganzen Anwendungen die viele Threads nutzen. Alles gut und schön, nur die Wenigsten arbeiten so heutzutage. Deine Gedanken gehen schon in die richtige Richtung.
Man muss halt mal "über den Tellerrand gucken" in den Redaktionen. ;)

Ich bin hier auf einer VM mit 8GB RAM und 2 CPU Der ist für alltägliches.
Die 2te VM hat 16GB und 4 CPU a 2GHz. Dort läuft die Entwicklung.

Es müsste doch Möglich sein sich einen "Programmers delight" Workflow zusammenzustellen und diesen dann auf einer VM entsprechend laufen zu lassen.

Und ich bin mir recht sicher, dass viele Admins in größeren Firmen, die Server-Farmen und VMs betreuen, soetwas schon haben.
​Oder wie wollen die sonst die Leistung von anzuschaffender HW beurteilen?
 
Zurück
Oben