News Ryzen Threadripper: Drei Modelle mit 16, 12 und 8 Kernen offiziell vorgestellt

S1l3nt schrieb:
Kann mir mal einer erklären warum AMD einen Ryzen Threadripper 1900X mit 8 Kernen macht und einer TDP von 180W wenn es die Ryzen 7 mit 8 Kernen gibt und einer viel geringeren TDP ?

Vielen Leuten reichen 8 Kerne locker. Ryzen 7 Check.
Diese Leute wollen viele Lanes, Anschlüsse und Quad Channel. Ryzen 7 Nope.

Da kommt TR daher und bietet eben diese Möglichkeit.

Für mich der interessanteste TR, denn 12 Kerne+ könnte ich nicht wirklich sinnvoll nutzen z. B.

Bin gespannt was da taktmäßig gehen wirs. Lucky Noob sprach von 4.2ghz mit XFR. Vllt. ist da mehr drinnen, Tests abwarten^^
 
Zuletzt bearbeitet:
Chismon schrieb:
Naja, Du führst hier praktisch das AMD Pendant zu Intels Xeon Prozessoren an, nur dass kleine Intel Xeons mittlerweile auch nicht mehr so populär sind wie noch vor einigen Jahren und mit 2.7 Ghz Turbotakt beim 7281 taugen die Epyc Prozessoren eben nicht zum anspruchsvollen spielen im Gegensatz zu Threadripper etwa.

Das ist nun 'mal der Knackpunkt einer Epyc CPU für Leute die gleichermaßen sehr hohe Ansprüche bei Anwendungen und Spielen haben, was nur passende HEDT-Plattformen (also AMDs Threadripper und Intels Broadwell/Skylake X) bieten und das kannst Du leider nicht weg diskutieren.

Knackpunkt ist also das Nutzerprofil, welches für die o.g. HEDT-Plattformen nicht Epyc oder Xeon CPUs entspricht und daher nicht das gleiche/passende ist ;).

Würden wir im Jahr 2014 sein, wo es Ryzen noch nicht gab, dann würde ich dir zustimmen. Die Situation ist jetzt eine komplett andere. Was "gestern" noch absolute Monsterklasse war, ist heute Mainstream.
Der Vorteil von HEDT zum Server ist die bessere Single Core-Leistung und die Möglichkeit, den Takt anheben zu können, also das beste aus beiden Welten (Single Core und Multi Core). Dieser "Taktvorteil" verschwindet nun aber mehr und mehr.
Der Grund dahinter ist, wir reden nicht mehr von bis zu 8 Kernen HEDT, sondern locker das doppelte, nämlich 16-18. Nie zuvor war die Kernzahl von HEDT so Serverähnlich wie heute, und das macht sich auf die Taktraten bemerkbar. Sieht man hervorragend bei Skylake X. Der 18 Kerner hat nur noch einen lächerlichen (Xeon-ähnlichen)Standardtakt von 2,6Ghz, da können auch die Turbos nix mehr retten. Auch übertakten kann man kaum noch, da die Hitzeentwicklung und der Stromverbrauch schon jetzt durch die Decke geht. Gleichzeitig hat Intel den Takt von den Xeons etwas angehoben.
Sollte AMD in den nächsten Jahren die Taktbarkeit von Ryzen anheben können, werden wir dort etwas ähnliches beobachten können. Die Consumer-Ryzen werden taktmäßig davonziehen können, während Threadripper und EPYC kaum höher takten werden können.
Der einzige Existenzgrund von HEDT war bessere Singlecoreleistung mit mehr Kernen, was die Server nicht bieten konnten. Da dieser Grund jetzt wegfällt, entfällt auch ein "Existenzgrund" der HEDT, da man beim Server grundsätzlich gleiche/mehr Leistung mit mehr Features bekommt, sei es ECC, mehr IO oder einfach mehr Kerne.

Nein, das HEDT "billiger" ist, ist kein Argument.
Wir reden hier von einer Enthusiast-Premium-Plattform, bei der Preis/Leistung keine Rolle spielt und bei der man das beste vom besten haben will und HEDT diese hohe Consumer pro Kern-Leistung gegenüber den Servern nicht mehr halten kann. Daher geht man mit HEDT nun auch Kompromise ein, was für eine solche Plattform ein absolutes No-Go ist. HEDT hat jetzt keine Existenzberechtigung mehr.

Ich hoffe, ich konnte das verständlich darstellen.
 
Zuletzt bearbeitet:
@Gschwenni
Ich lauf ja auch mit Gerald durch die Wälder und hab aber pro logischem thread nie eine grosse Auslastung auf meinem 6 Core 6800K.
Schau i auf deine Bilder, dann zeigt bei ist bei mir die Auslastung auf meinem Prozessor ganz anderst.

Genau-
Bei dem von mir gezeigten Szenen muss der Prozessor einen 1080SLI Verbund befeuern- also weit mehr Drawcalls absetzen (ich kenne Diene Konfiguration nicht, gehe aber davon aus, dass Du keinen 1080 SLI Verbund betreibst).

Und da liegt des Pudels Kern, was auch die ganze 720P Diskussion angeht. Wenn eine CPU auf 720P (gleichzusetzen mit einem Entfernen des GPU Limits) 170 FPS schafft, so ist dies ein Indikator (nicht der allein gültige), der aufzeigt, welche Bildwiederholrate die CPU bei der getesteten Software maximal auf den Monitor stemmen kann. Unabhängig von Auflösung und sonstigen Bildverbesserern, da diese weitestegehend nur die GPU belasten.

Somit kann man das Potenzial der CPU ausloten. Du siehst bei Witcher 3 auf Deiner CPU an Stellen an denen nichts los ist, z.B. auf den Hyperthreading-Kernen genau deshalb wenig Last, weil die Software/der Scheduler eben mutlicoretechnisch alles richtig macht und anfangs aus Latenzgründen versucht die Berechnungen auf Hyperthreadingkernen zu vermeiden.

Irgendwann wird es zu viel der Berechnung (Stadtszene) und er nimmt alle Kerne in Beschlag. Das ist an sich der Inbegriff einer Top multicore- optimierten Software.

Für die Engine spricht, dass sie auch mit 2 Kernen bereits gut umgehen kann und lt. der Aussagen der Mitdiskutanten bereits flüssig läuft (wobei flüssig laufen ja immer im Auge des Betrachters liegt).
Das ändert aber nichts daran, dass ich mit den heutzutage erhältlichen Zweikernen garnicht erst versuchen brauche, 2x 1080 TI im SLI Verbund für Witcher zu befeuern. Das schafft die CPU nicht.

Der 720P Test ist also ein Indikator dafür, wie vieviel Potenzial eine CPU hat, auch nochfolgende Generationen an GPUs ausreichend mit Daten zu versorgen.

Von Flaschenhälsen rede ich hier immer, weil z.B. eine CPU die weniger Gesamtrechenleistung zur Verfügung stellt (Intel 7700K) in der potenziellen maximalen und minimalen FPS Generierung in mindestens 98% aller erhältlichen Titel einen Vorsprung hält.

Diesen Vorsprung hält die CPU auch bei Spielen, die in der Blütezeit von AMD (Athlon etc.) entstanden sind, in der auch für diesen Hersteller ausgiebig optimiert wurde, weil der Verbreitungsgrad der CPUs hoch war.

Somit scheint die Intel Architektur Dinge richtig zu machen, die bei der Konkurrenz nicht ganz so optimal laufen.
Wo der Flaschenhals liegt ist erstmal zweitrangig, da der Konsument in erster Instanz einfach nur die schlechtere Nutzererfahrung hat.

Mit Programmierung und Optimierung kann man auf diesem Sektor viel erreichen. Allerdings muss man sich realistischer Weise ein für allemal davon verabschieden, dass Spieleproduktionen Optimierungen wie zu C64 oder Amiga Zeiten oder der Anfangszeit von MS-DOS Spielen einfliessen lassen, wo Routinen, wenn sie zu langsam waren, per Hand in Maschinensprache angepasst wurden.

Viel zu teuer, viel zu aufwendig.

Auch die Optimierung von Programmen auf Multicoresysteme ist alles andere als einfach. Die einzelnen Subroutinen sollen am besten in beliebig viele Einzelaufgaben unterteilt werden, um auf die Kerne verteilt werden zu können.
Nur ergibt sich logisch bei der gestellten Aufgabe eine Schwierigkeit: Alle Threads müssen auf ein gemeinsames Ziel hinarbeiten (das fertig gerenderte Bild).
Somit ist es schonmal Essig hier, groß mit Asynchroner und unabhängiger Abarbeitung von Teilaufgaben arbeiten zu können.
Dies wäre aber genau das Szenario, wo die Multicore- CPUs ihre Muskeln spielen lassen können (siehe z.B. Cinebench).

Beim Verteilen von Aufgaben muss es bei der Spieleprogrammierung immer einen Kontrollthread geben, der dann entsprechend die Aufgaben verteilt und dann zum Schluss die verteilten Gesamtinformationen einsammelt, auswertet und zu einem Frame macht (der Renderthread).

Wenn dieser eine Thread überlastet ist, spricht man bereits von einem CPU Limit. Sieht man bei den Spieletiteln sehr oft, dass bei einem Spiel bei Teillast ein Thread immer 20% und mehr über die Masse heraussticht.

Was bedeutet dies nun in der Endkonsequenz?

Multicore- Optimierung hat in Spielen seine Grenzen.

Es gibt Architekturen, die ihr maximales Potenzial in Spielen abrufen können und andere, die das nicht tun.
Plattformen, die es nicht schaffen, die GPU auszulasten, obwohl der Prozessor "Reserven" bietet, haben irgendwo einen Flaschenhals.

Sei es:
-Datenträger
-Speicherbandbreite/Speicherlatenz
-CPU
-Software
oder oder oder....

Und das ist es, was ich hier (erfolglos) zu vermitteln versuche, unabhängig von der Marke des Prozessors.

Und zu Deiner Frage:
Ich geh stark davo aus, daß die CPU die 80 FPD schafft die bessere ist. Oder?

Es ist immer die CPU für ein Spiel die Bessere, die die besten Frametimes, die höchsten minimum FPS und die höchsten maximalen FPS bietet.

Hier hört man aber immer, dass die CPU am besten ist, die derzeit nicht ganz so gute Spieleleistung bietet, aber in Zukunft "vielleicht" dann höhere Leistung erzielen könnte, als ob es die Problematik der Multicore- Optimierung und der Skalierungseffizienz überhaupt nicht geben würde....

@rg88
Die Bilder zeigen gar nichts, außer, dass sich die GPU im Limit befindet und die CPU nicht

Die Bilder zeigen, dass Witcher 3 Multicore- optimiert ist und mehr als 8 Threads nutzt.
Und, dass die CPU Last mit steigender Anforderung der Grafikkarte steigt und die GPU nicht limitiert wird=Gute Skalierung=Kein Flaschenhals

Grüße
Zero
 
Zuletzt bearbeitet:
@Zero:

Das Traurige ist, dass keiner deinen Post lesen wird und beim nächsten CPU Test wieder anfängt von "720p nutzt doch keiner" zu reden =)

Man kann das auch auf die nächste oder auch übernächste Gen der Grakas ziehen.
Hier reden ja immer alle von 3-7 Jahren CPU behalten. In der Zeit wechselt man ~2x die Graka und erhält weit mehr Leistung.

Wenn in 2 Gens die "GTX 1260" (also heute GTX 1060 nur eben 2 Gen älter) mehr Leistung hat als eine heutige 1080ti hat man evtl. das 720p Szenario auf seinem eigenen Bildschirm, auch wenn man in 1080p spielt..
Und man stelle sich vor, dann kauft sich jemand eine 1280ti! ;-)

@Gschwenni:
Wie sieht deine Konfig aus? Vsync und Cap auf 60fps?
CPU ist halt weit "komplizierter" zu vergleichen als eine Grafikkarte.
 
@ZeroZerp: Ich gebe Dir in vielen Dingen recht und behaupte, dass weite Bereiche deines Posts stimmen. Ich war bis vor kurzem auch von den 720p überzeugt, aber....
Man nehme je einen 720p Parcours der 5 Jahre alt ist und einen bei dem Top-aktuelle MultiCore optimierte Spiele zur Verwendung kommen. Plötzlich verliert der 720p Test an Glaubwürdigkeit, weil in dem 5 Jahre alten ein R5 1600 sehr viel schlechter gegen einen i7 7700K abschneiden wird als im neuen. Somit ist die Aussagekraft/Leistungsindex für zukünftiges Gelumpe mit Vorsicht zu genießen. Keiner weiß wie sich die MultiCore Unterstützung in 5 Jahren entwickelt hat, vielleicht liegt ja dann plötzlich ein r5 1600 in jedem neuen Game über einem i7 7700K, obwohl er heute in 720p drunter liegt...Die Unwahrscheinlichkeit ist mir klar, aber ich hoffe man versteht worauf ich hin aus will.
 
Zuletzt bearbeitet:
Ich wundere mich auch, dass die Gamer begeistert sind. Die Musik spielt doch bei der Grafikkarte und da bekommt man für jedes versenktes EUR einen Gegenwert. Im Zweifelsfall würde ich das Geld lieber in die zweite, dritte, vierte Grafikkarte stecken als in eine CPU mit mehr Kernen.

Oder sind die Gamer-PCs hier schon mit High-End Grafikkarten vollgestopft?
 
@Wattwanderer

Nein. Die nennen sich nur "Enthusiasten" und hauen hunderte von Euros für eine beschnittene Serverplattform raus, weil sie sich einreden, Quad Channel und 1000 Lanes haben zu müssen, die sie nie wirklich nutzen werden, und selbst wenn sie das einen Nutzen hätten, würden sie zu einer normalen Consumerplattform kaum einen Unterschied sehen. Ach ja, und nicht zu vergessen, viel RGB, noch einen coolen Namen und die "GamerXXX" (je mehr "X" umso besser) Bezeichnung für die Mainboards, und du hast erwachsene Leute im Sack, wie Verkäufer kleine Kinder, die ganz wild auf den großen, tollen Bulldog sind.
 
Zuletzt bearbeitet:
Der_Unbekannte:

Nett, wie du von dir selbst, auf alle HEDT-Käufer schließt. Du weißt natürlich viel besser was diese Käufer brauchen oder nicht und wie sie es nutzen oder nicht. Respekt, bist echt n toller und schlauer Typ.

@Wattwanderer:

Kommt immer auf das Anwendungsgebiet an.
Wenn du BF1 mit 144 FPS spielen willst brauchst du eine gute Grafikkarte und dazu eine CPU die 144 FPS befeuern kann.
Das geht nicht mit einem i3 oder i5, die brechen ein.

Wenn man dauerhaft nur 60FPS Gaming betreibt wird es mit der CPU viel einfacher.
 
@Caramelito

Hallo? Ich bin nicht derjenige, der den 1900X oder eine HEDt Plattform in irgendeiner Form in Erwägung zieht. Wenn ich die Leistung bräuchte, würde ich immer auf EPYC zurückgreifen. Außerdem sagt mir das, das du scheinbar meine Argumente nicht gelesen oder verstanden hast. Deinen ironischen Unterton kannst du dir übrigens sparen.
 
Der_Unbekannte schrieb:
@Caramelito

Hallo? Ich bin nicht derjenige, der den 1900X oder eine HEDt Plattform in irgendeiner Form in Erwägung zieht. Wenn ich die Leistung bräuchte, würde ich immer auf EPYC zurückgreifen. Außerdem sagt mir das, das du scheinbar meine Argumente nicht gelesen oder verstanden hast. Deinen ironischen Unterton kannst du dir übrigens sparen.

HEDT hat 2 Arten von Käufern: Private und Gewerbliche. Wer Privat so ein Ding kauft, der "will" es halt haben. Um den vielgehassten Autovergleich zu ziehen: Ein Golf 3 Kombi bringt dich genau so überall hin wie ein BMW 5er Touring. Man will es halt haben.

Der gewerbliche käufer hat ein genaues Anforderungsprofil und wird schauen dass er keinen Cent zu viel bezahlt. Da upgradet man nicht einfach mal auf epyc wenns TR auch tut. Return Of Investment
 
Der_Unbekannte schrieb:
Wenn ich die Leistung bräuchte, würde ich immer auf EPYC zurückgreifen.

Welche EPYC-CPUs können denn mit dem Threadripper mithalten bezüglich Takt?
 
@unbekannte
Was du machen oder kaufen würdest, ist ungefähr 100% der User hier herzlich egal, also lass du lieber deinen "Unterton" ggü. den Leuten, die eben mehr Geld ausgeben als andere.
Es gibt ein Anwendungsgebiet für den 1900x. Damit hat diese CPU seine Daseinsberechtigung, ob es dir passt oder nicht.

Schau über den Tellerrand. Es gibt User für einen 2, 4, 6, 8, 12, 16 oder 18 und mehr Kerne.
Genau so gibt es User für 16 28 44 und 64 PCIe Lanes oder Dual/Quad Channel Ram.

Da brauchst du nicht so heuchlerisch rumschimpfen über diese Gruppen, nur weil sie nicht das verwenden, was du verwendest.
Oder geht dich hier jemand an wegen 3600er Ram und 700W Netzteilen in einem Consumer Rechner, von beidem merkst du auch nichts ;-)
 
Caramelito schrieb:
Es gibt ein Anwendungsgebiet für den 1900x. Damit hat diese CPU seine Daseinsberechtigung, ob es dir passt oder nicht.

Abgesehen davon ist der 1900x der am schnellsten taktende Ryzen-Prozessor. In einem professionellen Umfeld übertaktet man in der Regel nicht. Da wird benutzt was @Stock vom Werk eingestellt ist. Insofern ergibt sich allein daraus schon seine Daseinsberechtigung ;)
 
Der_Unbekannte schrieb:
Sieht man hervorragend bei Skylake X. Der 18 Kerner hat nur noch einen lächerlichen (Xeon-ähnlichen)Standardtakt von 2,6Ghz, da können auch die Turbos nix mehr retten. Auch übertakten kann man kaum noch, da die Hitzeentwicklung und der Stromverbrauch schon jetzt durch die Decke geht.

Wie kommst du drauf das Turbo/OC hier nichts mehr retten kann ? Genau das Gegenteil ist der Fall. HEDT hat offene Multiplikatoren. Du kannst auch 18C für beispielsweise 4,5 Ghz konfigurieren und parallel ein hartes TDP Limit von meinetwegen 240W setzen (bei 473mm² nicht so problematisch wie bei 308 mm², 10C). Die tatsächlich anliegende Frequenz ist dann (dynamisch) abhängig von der Last (Code und Anzahl der genutzten Kerne). Alternativ sind die Turbo Multiplikatoren (n Cores) sowie AVX Offsets frei definierbar.

Da Skylake-SP / X im Gegensatz zu Broadwell-EP grundsätzlich deutlich höhere Frequenzen erreichen kann ist bei Teillast entsprechend mehr möglich. Das Power Budget richtet sich schließlich immer nach Vollast auf allen Kernen. Da dieses bei HEDT auch noch höher konfigurierbar ist als bei den Xeons gibt es bei Turbo/Teillast im Endeffekt grob 1Ghz mehr.
 
Zuletzt bearbeitet:
Eure ganze 7700k vs Ryzen 7 Diskussion ist doch einfach mal wieder für die Katz, was liegt denn so an Unterschied zwischen den von euch verteidigten CPUs in aktuellen Games bei 720p vor? 5%? 10%? Mal ist AMD vorne, meist Intel. Und? Wer hat jetzt gerade ein Setup wo man auch nur irgendwie bei einem Blindtest merken würde welche CPU im Rechner steckt?
Es gibt genau 2 Situationen:
1. Shooter und anspruchslose Spiele: vollkommen egal ob man jetzt 100 oder 110, 200 oder 220 FPS hat, merkt kein Mensch wenn er kein anatomisches Wunder ist.
2. Spiele die jede CPU zum kotzen bringen: ebenso egal, wenn man mit der einen CPU 30 und mit der anderen 33 FPS hat, beides grausig für den Spieler.
Dazwischen sind dann allerlei Spiele die sowieso auch mit einer Titan Xp noch extrem GPU limitiert sind und in 720p dann vielleicht mal ins CPU Limit kommen, ebenfalls deutlich über der Refreshrate eines normalen Monitors.

Was kotzt ihr euch eigentlich immer so an? Es ist derzeit (sorry für den Ausdruck) scheißegal ob man einen 7700k oder einen 1700/1700X/1800X für Games nutzt, den Unterschied kann man gerade mal messen, aber mit Sicherheit nicht spüren. Welche der beiden man kauft ist doch jedem selbst überlassen, dieses ständige Madig-machen des "gegnerischen" Produkts geht mir so auf des Sack. Bla der 7700k ist derzeit die Referenz hier, Bla der 1800X wird bestimmt länger halten da: das Thema hatten wir jetzt schon bestimmt 20 Mal in sämtlichen Ryzen und Intel Themen der letzten 6 Monate, es langt langsam. Merkt ihr eigentlich nicht dass ihr die andere Seite im letzten halben Jahr nicht umstimmen konntet?
 
Zuletzt bearbeitet:
Jetzt komm ihnen aber nicht mit Vernunft ;) - zu dem entziehst du ihnen damit die Grundlage für ständige Wasserstandsmeldungen was sie kaufen oder nicht kaufen wollen und was andere kaufen dürfen und was auf keinen Fall.

Ich lese hier ja meist nur mit aber wenn das sich so weiter entwickelt wird der Infogehalt immer geringer.
 
@immortuos
Die Markendiskussion ist für die Katz- Stimmt.
Jeder wählt das, was am besten zu ihm passt. Da ist mir jeder Grund recht (und sei es die Verpackung der CPU).

Die Diskussion über Hintergründe, Zukunftsaussichten, Mehrkernpotenzial, die realistischer Weise zu erwartende Entwiclung etc. eben nicht.

Caramelito hat weiter oben nochmal schön dargestellt, dass die Erwartungshaltung bezüglich der Langlebigkeit einer CPU zum Befeuern einer GPU eben auch eine Rolle spielt und deswegen setzen wir uns hier mit den technischen Möglichkeiten und auch Einschränkungen der verschiedenen Architekturen auseinander.

Eben auch, dass es eben nicht so ist, dass mann die Spiele mit Kernen bewirft, der Programmierer seine Magie wirkt und dann plötzlich immer etwas schnellerers dabei herauskommen muss.

Programmier von 4A Games (Metro Reihe):
For us, quad-core/eight-thread i7 is probably the sweet spot on PC. Mostly because we can be sometimes bound by D3D submission thread, so more threads barely help.

Quelle (die zudem interessante Hintergrundinformationen liefert und vielleicht hier das Vertändnis des einen oder anderen anregt):
http://www.tomshardware.com/reviews/multi-core-cpu-scaling-directx-11,4768-4.html

Es in diversen Benchmarkparcours eben auch genügend Beispiele, wo eine Reduzierung der Threads Geschwindigkeitsvorteile bringt bzw. mit steigender Anzahl der Threads die FPS Leistung sinkt.

Gerade eben, weil dort mit Biegen und brechen versucht wird, Routinen in Teilaufgaben in einem Maß zu zerlegen, dass der Verwaltungsaufwand den Geschwindigkeitszuwachs übersteigt...

Das muss man halt alles in seine eigenen Überlegungen miteinbeziehen, wenn man eine CPU bewerten will.

Hier noch einmal eine Quelle für die, die das Thema Multithreading, Zerlagbarkeit von Aufgaben etc. sehr anschaulich darstellt:
https://scalibq.wordpress.com/2012/06/01/multi-core-and-multi-threading/

Grüße
Zero
 
Zuletzt bearbeitet:
S1l3nt schrieb:
Kann mir mal einer erklären warum AMD einen Ryzen Threadripper 1900X mit 8 Kernen macht und einer TDP von 180W wenn es die Ryzen 7 mit 8 Kernen gibt und einer viel geringeren TDP ?
TDP ist nicht gleich Verbrauch. Der 1950X hat genau die gleiche TDP wie der 1900X, aber sicher nicht den gleichen Vebrauch.

Und die Leistungsaufnahme ist sicher höher als die eines Ryzen 7, wenn man die zusätzlichen PCIe-Lanes und Speicherkanäle tatsächlich auch nutzt. Maximal wird sie wohl auf dem Niveau von 2x 1500X (65 W TDP) oder so liegen.
 
Caramelito schrieb:
@unbekannte
Was du machen oder kaufen würdest, ist ungefähr 100% der User hier herzlich egal, also lass du lieber deinen "Unterton" ggü. den Leuten, die eben mehr Geld ausgeben als andere.
Es gibt ein Anwendungsgebiet für den 1900x. Damit hat diese CPU seine Daseinsberechtigung, ob es dir passt oder nicht.

Schau über den Tellerrand. Es gibt User für einen 2, 4, 6, 8, 12, 16 oder 18 und mehr Kerne.
Genau so gibt es User für 16 28 44 und 64 PCIe Lanes oder Dual/Quad Channel Ram.

Da brauchst du nicht so heuchlerisch rumschimpfen über diese Gruppen, nur weil sie nicht das verwenden, was du verwendest.
Oder geht dich hier jemand an wegen 3600er Ram und 700W Netzteilen in einem Consumer Rechner, von beidem merkst du auch nichts ;-)

Der 1900X ist in meinen Augen so sinnvoll, wie Kaby Lake X auf Sockel 2066. Oder um es realistischer zu machen: i7 2600K auf 1155 gegen i7 3820 auf 2011. Letzteres lohnte sich trotz mehr Lanes überhaupt nicht. Wer auf Sockel 2011 ging, ging mindestens auf den 3930K.

Der Vergleich von etwas schnelleren Modulen und einem stärkerem Netzteil mit dem HEDt Problem hinkt gewaltig. Erstens kosten mich diese beiden Dinge relativ wenig Aufpreis, und 2. kann ich aus diesen einen EFEKTIVEN Nutzen ziehen (schneller Ram für Ryzen und eine eventuelle CF oder SLI Möglichkeit), während der 1900X und X399 jede Menge Aufpreis für keinen/geringen Nutzen bedeutet. Ich habe effektiv gesehen die selbe Leistung mit X370 / Ryzen7 und X399 / TR 8 Kerner.

@YforU

Dir ist schon klar, das die Xeons auch einen Turbo haben? Es spielt keine Rolle, ob du die TDP konfigureren kannst, oder nicht. Die Xeons haben bereits eine TDP von 200W und takten sehr hoch, je nach Modell. Bei noch höherem Takt, kannst du das kaum noch kühlen. Ganz besonders mit 10+ Kernen. wo soll sich ein "HEDT" SKL-X von einem Xeon unterscheiden? Abgesehen, von den beschnittenen Features und das Fehlen von ECC-Ram. Die Physik gilt auch für diese CPUs. Daher sind deine 1 Ghz mehr absoluter Wunschtraum. Das war mal so, bei BW-E.

Das eigentliche Problem ist aber folgendes, wenn wir Threadripper nehmen: Jede einzelne Threadripper CPU wird von einem preislich ähnlichen EPYC einfach zerstört, und liefert doppeltes IO und Octachannel. Während der 1900X von den Ryzen 7 faktisch kanibalisiert wird, wird der 12 Kern-TR von einem um 150 Euro billigeren 16 Kern-EPYC vernichtet. Der 16 Kerner TR wird von einem 24 Kerner EPYC vernichtet. Klar, die Taktraten sind bei EPYC niedriger, aber trotzdem ist die Gesamtleistung wesentlich höher und mit mehr IO bekommt man noch dazu. Würde man anstatt diese Threadripper Dinger, einfach die EPYC auf X399 setzen können, mit einem freien Multi natürlich, dann würde ich sagen, das ist wirklich HEDT. So eher nicht.
 
Zuletzt bearbeitet:
Zurück
Oben