Test Ryzen Threadripper 2000 im Test: 32 Kerne sind verrückt, 16 sehr gut nutzbar

@Wolfgang, @Volker, @Jan et al.
Es hat sich binnen kürzester Zeit bereits herausgestellt, daß das schlechte Abschneiden des 2990WX im Vergleich zum 2950X sehr wahrscheinlich einzig an den verwendeten nVidia-Karten und deren Treiber liegt – und damit sämtliche Reviews für die Katz sind.

Es scheint offensichtlich wohl daran zu liegen, daß nVidia's Treiber-seitiges Thread-Scheduling für entsprechendes Multi-Threading mit allem über 32 Kerne und 64 Threads extreme Probleme hat und die Leistung (mit nVidia-Karten) vollkommen einbricht.

Deaktiviert man nur einen einzigen Kern, rennt alles wieder. Nimmt man stattdessen eine AMD-Grafikkarte, erreicht man mit einer Radeon RX Vega 64 plötzlich gar doppelte Frame-Zahlen wie mit einer GTX 1080 Ti, selbst mit +32 Kernen.

Offensichtlich sorgt der auf AMD-Karten in Hardware vorhandene GCN Command Processor (der ja bei AMD übrigens auch für Asynchronous Computing zuständig ist …) beim Scheduling der Threads auf die jeweiligen Kerne für deutlich aufgeräumtere Verhältnisse, als es nVidia's Implementierung des Software-Schedulers gelingt.

Es ändert zwar nichts an der Tatsache, da kaum Irgendwer nachtesten wird und der 2990WX für immer als „Bandbreiten-Krüppel“ in den Köpfen der Leute wird hängen bleiben (ist die identische Problematik wie seinerzeit beim Start der X299-Plattform, wo die Boards allesamt dank unlocked Core-Boost die Verbrauchswerte in die Höhe getrieben haben; die Reviews sind nichts wert) …

Darf man daher von ComputerBase trotzdem hier zumindest ein (aufklärendes) Update des Artikels erwarten, vielleicht gar einen Nach-Test mit einer Vega oder anderen Karten?

Lektüre:
Golem.de • 32-Kern-CPU –
Threadripper 2990WX läuft mit Radeons besser
AMD.com • Developer Resources – White Paper · AMD GRAPHICS CORES NEXT ARCHITECTURE


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: knoxxi
Einen kurzen Check gabs ja schon, siehe
Volker schrieb:
....
Habs mal bei uns kurz gegengetestet. Unterschied: Golem testet zudem nur in 720p, wir machen 1080p.

Kingdom Come habe ich auch einen Unterschied, von 41,7 auf 45,6 FPS (1080 Ti zu Vega 64)
Project Cars 2 von 52,3 auf 58,1
Warhammer von 9,9 auf 10,1 ^^

...

Allerdings gabs bei anderen Seiten auch bei 1080p sehr starke einbrüche. Ist die Frage woran das jetzt hier genau liegt, dass es selbst mit Vega 64 nicht besser wurde.
 
oldmanhunting schrieb:
Wenn beim Mediamarkt am Tag 90% der Kunden einen Intel Rechner kaufen und 10% einen AMD Rechner, dann wirkt sich das darauf aus, was im Regal steht.
Reicht halt nicht, wenn man ein Produkt auf den Markt bringt und dann dafür keine Werbung macht.

Bei Mediamarkt steht im Regal nicht was sich verkauft, sondern wofür auch immer der Regalplatz bezahlt wurde. Am besten mit Promotoren der entsprechenden Marke, weil so hat man wenigstens irgendwem zum Kunden "beraten" im Geschäft. ;-)
 
  • Gefällt mir
Reaktionen: Smartcom5, HaZweiOh und -Ps-Y-cO-
Junge Junge was die amd Fraktion wieder durch die Decke geht wegen der vega , hateed ihr jetzt schon den eigenen thread kaputt ?

Warten was Treiber Updates bringen und wenn nv dann wieder vorne liegt geht das gleiche von vorne los

Und jetzt verstecke ich mich unter einem Stein so das man mich nicht findet oder warte bis der Post im Aquarium landet
 
@scryed

Die Leute die heulen kaufen sich eh nie so ne Plattform... Ist doch immer so das die lautesten Stimmen die sind die es überhaupt nicht betrifft.
 
  • Gefällt mir
Reaktionen: frank00000 und .Sentinel.
Interessant wäre mal zu sehen was der Treiber bei 720p macht. Multithreaded eher der Nvidia Treiber oder der AMD Treiber in DX11?

Ich meine gerade unter DX11 hat Nvidia die Last da besser auf mehrere Kerne bekommen, wenn die natürlich über die ganze CPU und 4 Die hüpfen, dabei ggf auch extrem latenzanfällig sind, wäre hier ggf auch das TR Design Schuld? Natürlich in Kombination mit dem Nvidia Treiber.

Edit:
https://forums.anandtech.com/threads/nvidia-vs-amds-driver-approach-in-dx11.2502940/
DX11 puts draw calls on a single thread. Nvidia's DX11 driver uses a software schedule to take a game's single threaded DX11 draw calls and splits the draw calls across multiple cores. This incurs a higher CPU overhead hit across all cores but oftentimes results in improved performance due to not running into a single threaded bottleneck.

AMD GCN architecture uses a hardware scheduler and can not take a game's single threaded DX11 draw calls and split them across multiple cores.

Die meisten Games sind nach wie vor DX11 und gerade in Low Res und Drawcall Limit wohl eher Single Thread limitiert.

Nvidia splittet das aber wohl auf mehrere Threads und hat deswegen auch oft einen DX11 Vorteil.

Auch wenn TR nun massive Multi Thread Leistung hat, so kann es hier ggf auch ein IO Limit geben oder Latenzanfälligkeiten.

Würde aber nicht erklären weshalb es mit einem deaktivierten Core besser sein soll.

Edit: Ich geh mal wieder 2 Kerne deaktivieren, sonst rennt mein Anno 2205 nicht ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartcom5
Einfach genial. Und das mit dem Budget und so wenig Mitarbeitern.
Man muss da nur mal die Wikipedia Artikel von AMD und Intel aufmachen.
Für mich weit weg von selbstverständlich und eine enorme Leistung.
Da kann jetzt gefeiert werden :)
Der 16 Core ist schon sehr interessant...
32 Core würde ich derzeit nur im Business einsetzen.
 
die Technik bricht aber dermaßen mit Bestehendem dass es für AMD gar nicht funktionieren dürfte , zumindest nicht sinnvoll. Genauso wenig wie für ältere Geforce GPU.
 
VelleX schrieb:
Schlechter Vergleich, da der 18-Kerner von Intel einen ähnlichen Verbrauch hat wie der 10-Kerner.
https://www.computerbase.de/2017-09/intel-core-i9-7980xe-7960x-cpu-test/5/

Hast du auch den Takt bei Vollast berücksichtigt? Der ist mit hoher Wahrscheinlichkeit um einiger höher beim 2950X (Basistakt: 3,5 GHz, Turbo bis zu 4,4 GHz) als beim i7-7980XE (Basistakt: 2,6 GHz, Turbo bis zu 4,2 GHz). Der höhere Takt gleicht die fehlenden Kerne mit Sicherheit aus und damit fällt die Leistung des 2950X höher aus.
 
Der Ryzen reift mit der Zeit , hab mal nen CPU - Z Benchmark gemacht um zu sehen ob meine Optimierungen was bringen und sie tun es , lag ich bisher ber 3,725 GHZ auf 1800X Niveau @ stock , lieg ich jetzt drüber
https://valid.x86.fr/8vi40p sind zwar nur 2- 3 % aber immerhin , der Single core mit 7 %
2018-08-18.png
2018-08-18 (1).png

mit v 1,86 ist er nen tick schneller

ups hab grad gesehn , die 1.86 hat den 8700 K drin

2018-08-18 (2).png

wie nicht anders zu erwarten bei 3,725 Ghz bei meinem Ryzen 1700x ist der 8700 K bei der Single Core Leistung vorn , aber Multicoremässig haut der 1700x den 8700 K ( @ stock ) immer noch in die Pfanne und ja , es ist mir klar , den 8700 K kann man mit Köpfen auf 4,8 - 5,0 GHZ bringen , nur verbraucht er dann wesentlich mehr als mein auf 1,225 statt 1,35 v undervolteter Ryzen und ganz kommt er trotzdem nicht ran
 
Zuletzt bearbeitet:
schon peinlich für die Server Edition
am aufschlussreichsten finde ich das x264 encoding , weil ich selbst hin und wieder encode
2018-08-19.png

man beachte , 32 Kerne SMT Disabled = fast gleichauf , Win Server nur 2 - 3 % hinten
mit SMT = 64 Threads und Bumm , Win Server verliert 40 % während bei Linux es egal ist ob mit oder ohne SMT , was nicht weiter verwundert da HT Kerne ja keine echten Kerne sind die encodieren können

AMD s SMT ist nicht neu , gab es schon beim Ryzen 1 , offenbar hat es Microsoft nicht fertiggebracht Windows Server 2019 beizubringen was bei AMD echte und was SMT Kerne sind
 
Zuletzt bearbeitet:
MK one schrieb:
schon peinlich für die Server Edition

Da es bisher nicht ein einziges Serverboard für den TR gibt, dürfte es verschmerzbar sein. Peinlich wäre es , wenn das Verhalten auch mit einem EPYC reproduzierbar wäre.

Wie viele Clickbait Artikel will der Typ noch produzieren? Der Kern vom Server und Windows 10 unterschiedet sich kaum, was sollte denn hier für ein Ergebnis herauskommen?
 
xexex schrieb:
Der Kern vom Server und Windows 10 unterschiedet sich kaum, was sollte denn hier für ein Ergebnis herauskommen?
Es gab einige Leute, die behauptet hatten, dass Windows 10 Pro nicht auf 32C/64T ausgelegt ist, und Windows Server 2019 doch besser damit zurecht kommen sollte. Dies wurde aber mit diesem und einem weiteren Artikel widerlegt.
 
Dafür hätte man kein Benchmark benötigt oder hätte direkt Windows 10 gegen Server 2019 testen sollen. Es ist ja nicht einmal die gleiche Testsuite wie beim Windows 10 Test.
 
Ja, am besten gar nichts testen. Dann ist alles in Butter, die Welt im Lot und AMD baut einfach miese Prozessoren.
xexex schrieb:
Dafür hätte man kein Benchmark benötigt oder hätte direkt Windows 10 gegen Server 2019 testen sollen. Es ist ja nicht einmal die gleiche Testsuite wie beim Windows 10 Test.
Ich wüsste nicht das Phoronix mehrere Testsuits unterhält. Die Benchmarks variieren aber je nach Szenario, das meinst du wohl.
xexex schrieb:
Wie viele Clickbait Artikel will der Typ noch produzieren?
Warum stört es dich, das Phoronix zu ergründen versucht, was genau das Problem ist? Nur so wird es evtl. behoben und das kommt möglicherweise Allen zugute. Vllt auch Intel mit zukünftigen Architekturen. Dass nenne ich guten Journalismus eines Technikportals, im Gegensatz zu den unhinterfragten "Ist halt so" Tests zahlloser anderer Portale. Was dich persönlich daran so furchtbar wütend macht ist mir ein Rätsel. Windows hat ein Problem, nicht AMD. Das ist mittlerweile Fakt. Und da kannst du noch so drüber wettern, geehrter Herr xexex.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ottoman und Smartcom5
Danke für den Link , und auch in dem Artikel gibt es x264 encoding
Win 10 Pro ist 27 % schneller als Win Server
Clear Linux allerdings gleich 63 % , das ist schon ne Hausnummer und zeigt klar das Win Server 2016/2019 mit irgendwas nicht klarkommt , ich denke mal SMT , da mit SMT deaktiviert Win Server 2019 ( 141 FPS ) mit Ubuntu ( 137 Fps ) auf einer höhe liegt und dann schneller ist als Win 10
2018-08-19 (1).png

Vielleicht könnte Computer Base ja mal nen Run mit deaktiviertem SMT machen um zu sehen ob Win 10 Pro dann auch auf 140 FPS bei X264 kommt ( falls Hardware noch vorhanden )
 
Zuletzt bearbeitet:
Zurück
Oben