News Ryzen Threadripper: 1950X und 1920X zu Preisen von 999 und 799 US-Dollar

@XEDOS: ich frag mich viel mehr, warum man einen DDR3-Slot benutzt für Zusatzkarten. :freak: Sowas verführt doch gerade zu dazu da einen RAM-Riegel reinzustecken. Hoffentlich ist dem Board das egal und es kommt nicht zur lustigen Funkenbildung wenn man das macht.
 
rg88 schrieb:
reiner Vermutung meinerseits:
große Probleme teil man in viele kleine auf. In diesem Fall: Viele Threads müssen befüttert werden, also teilt man die Aufgabe eben in viele kleine Teilaufgaben. Je mehr Threads, desto kleiner die Teilaufgaben.

Ja hast recht. Gibt auch ein 72Kerne Test mit Einer Xeon Plattform, da sind nur sehr kleine Renderfenster zu sehn.
https://www.youtube.com/watch?v=mm0sOVE_8Kw
 
Der Intel Marketing Spruch das epyc nur zusammen geklebt dies sind, tut wahrscheinlich gerade heftig weh wenn man sieht was TR schon kann.

Wir halten fest: es gibt wieder Konkurrenz, Intel schießt den Bock ab mit skylake und die Leute kriegen mal handfeste Beweise das AMD eben nicht "scheiße" ist.

Hoffe das nur halb soviel Leute ne AMD CPU kaufen wie hier geschrieben wird. Dann ist schön Geld für Entwicklung da und der Konkurrenzkampf geht weiter :king:
 
Ich muss meine Wakü eh mal wieder warten. Da käme Threadripper und VEGA ganz gelegen. Ich warte mal die Tests von beidem + SLX 12C ab und dann schau ich weiter. Allerdings würde ich nach Möglichkeit auch die VRMs unter Wasser setzen wie damals bei X58. Glaub der Clawhammer Athlon 4000+ war der letzte AMD in meiner Workstation, und meine is erste unter Wasser. :)
Etwas jucken tuts mich schon.
 
Caramelito schrieb:
Als Kunde, vergleiche ich Preis/Leistung und nicht die Kerneanzahl.
Die wenigsten Privatleute werden sich diese CPUs zulegen. Das ist wohl eher was für die Geschäftswelt.

Und hier muß Software oft pro Core lizensiert werden. Wenn da je Core noch ein paar Tausend Euro Aufpreis hinzukommen, wähle ich lieber schnellere Cores, als für die seltenen Momente der Volllast gleich voll in die Kasse zu greifen. Was kostet denn derzeit eine 16-Core Lizenz für Weblogic oder Oracle?
 
@Kowa
Nach deiner Logik wäre ein übertakteter i7 7700K die ultimative Lizenzpreisleistungshammer server CPU :)
 
Kowa schrieb:
Die wenigsten Privatleute werden sich diese CPUs zulegen. Das ist wohl eher was für die Geschäftswelt.

Die wenigsten Privatleute legen sich überaupt eine CPU im Preisbereich über 200 Euro an. Alles oberhalb des Massenmarkts ist ein Nischenmarkt, aber die Margen sind dort einfach um einiges besser.
Mal angenommen AMD hat die selbe Marge bei einem 8-Kernen wie bei einem 16 Kerner prozentual, dann nimmt man trotzdem das doppelte ein, weil man sonst nur einen Die verkauft hätte (oder gar keinen, wenn man eben kein passendes Produkt für den Kunden anbieten kann).

Kowa schrieb:
Und hier muß Software oft pro Core lizensiert werden. Wenn da je Core noch ein paar Tausend Euro Aufpreis hinzukommen, wähle ich lieber schnellere Cores, als für die seltenen Momente der Volllast gleich voll in die Kasse zu greifen. Was kostet denn derzeit eine 16-Core Lizenz für Weblogic oder Oracle?

1. "Weblogic oder Oracle?" Das ergibt keinen Sinn. Weblogic ist von Oracle
2. Was hat Serversoftware auf einem Client verloren? Hier handelt es sich um eine High-End-Desktop-Umgebung/Workstation-CPU, nicht um einen Server.
3. In Workstations geht es darum, dass unter Volllast die Arbeit möglichst schnell abgearbeitet wird. Die Leerlaufzeiten sind uninteressant, aber wielange man auf ein Ergebnis/Rendering/Whatever wartet ist extrem wichtig. Dauert es 5 Minuten ist der Mitarbeiter 5 Minuten zum nichts tun verdonnert. Dauert es 10 Minuten dann ist er 10 Minuten zum nichts tun verdonnert und wird die Zeit wohl eher für einen Kaffeetratsch verwenden oder wird genervt und unmotiviert wegen der Unterbrechung. Das geht in der Summe wirklich ins Geld.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Auf ein Bier, gern :D

Muss dann aber Ned zahlen? Wenn du dir nen 16c kaufst bleibt kein Geld mehr für Bier über :)
 
Da mach dir mal kein Kopf dass da nix mehr über bleibt. Die Studienzeiten sind vorbei. Da bekomm ich hier keine 3 Quadratmeter Land von. :-/ das macht mir mehr Sorgen.

AMD wird an den Käufern der 16C Consumer Produkte kaum was haben, das ist eher was fürs Image. Wichtiger wäre dass Ryzen 4-8C in guten OEM Produkten zu guten Preisen an die Unternehmen gehen und dass auch die Raven R Modelle zeitnahe und überzeugnd ausfallen. Da macht man das Geld mit.
 
Das sind gute Neuigkeiten, wenn es noch B1 Stepping ist kaufe ich mir den 12er und Rüste dann auf den 16er Ripper mit B2 auf <3

Wenn die Ripper schon das neue Stepping haben sollten dann gleich die dicke Hummel. Was die TDP angeht abwarten, mit neuem Stepping hat der sicher keine 180w. Wobei Intel mit 140w ja auch geschummelt hat ;)

Passe schon mal meine x264 Befehlszeile an :king:
program --level 4.1 --crf 19.0 --keyint 240 --min-keyint 25 --bframes 5 --ref 5 --vbv-bufsize 62500 --vbv-maxrate 50000 --merange 21 --me esa --trellis 1 --level 4.1 --preset veryslow --tune film --stats ".stats" --threads 32 --scenecut 50 --rc-lookahead 50 --subme 9 --no-fast-pskip --analyse=0x3:0x113 --me=umh --trellis=1 --output "output" "input" --sar 1:1 --output "output" "input"

mfg
 
bringt dieser Threads Param was? Ich mein... würde meinen das findet x264 selber raus. X265 skaliert meiner Erfahrung nach weniger gut mit Threads.

edit:

Eigentlich müsste das (X265 / X264) doch auch gegen linear skalieren können. Also den Film den man wandeln will "einfach" an Szene Cuts splitten und dann jeweils zb nur mit 4 oder gar 1 Threads abfackeln. Bei nem 2h Film kann ich diesen doch theoretisch bei Constant Quality Modes problemlos splitten, zb in 64 Teile und die nachher zusammenschustern.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Wichtiger wäre dass Ryzen 4-8C in guten OEM Produkten zu guten Preisen an die Unternehmen gehen und dass auch die Raven R Modelle zeitnahe und überzeugnd ausfallen. Da macht man das Geld mit.

Nö, damit macht man Umsatz und Marktanteile. Die Margen sind dabei aber weitaus schlechter.
Die Mischung machts und da kann man nur sagen "Respekt, Hut ab": Von Mittelklasse bis 2-Sockel-Highend-Server alles mit dem selben Die ist schon mehr als genial. Man merkt wie Not erfinderisch macht. Jim Keller hat hier wirklich ein Meisterwerk hingelegt. Vorallem wenn man das Budget und Größe der Firma sieht und dass die Sache quasi von Null auf konstruiert wurde.

Nur für das untere Segment und für Kombilösungen brauchts einen eigenen Chip, sprich 4 Kerne + GPU & trotzdem billig in der Herstellung. Aber auch dieser könnte wieder vom Desktop-Einstieg/Business- bis gehobenes Notebook-Mainstream-Segment alles abdecken. Maximal braucht AMD da zwei Masken, würde mich aber nicht wundern, wenn sie das sogar über einen Chip realisieren. Sprich nur die selbe APU und je nach Segment GPU abschalten oder Teile davon, ebenso bei den Kernen des CCX.
 
Krautmaster schrieb:
bringt dieser Threads Param was? Ich mein... würde meinen das findet x264 selber raus. X265 skaliert meiner Erfahrung nach weniger gut mit Threads.

edit:

Eigentlich müsste das (X265 / X264) doch auch gegen linear skalieren können. Also den Film den man wandeln will "einfach" an Szene Cuts splitten und dann jeweils zb nur mit 4 oder gar 1 Threads abfackeln. Bei nem 2h Film kann ich diesen doch theoretisch bei Constant Quality Modes problemlos splitten, zb in 64 Teile und die nachher zusammenschustern.

Klar bringt es was, du kannst auch noch mehr Threads einstellen, glaube 1/3 drauf, aber ich habe lieber immer 1zu1.
Ich nutze keine gui (Util) dafür, da wird nix Erkannt ;) x265 mag ich nicht, die Bildqualität ist nicht so gut wie bei x264, da braucht es noch einiges an Optimierungen, einzig die Dateigröße ist relevant.

Scenecut? lol neh, Szenenwechselerkennung ist das, da wird nix Geschnitten (hat was mit den I-Frames zutun) ;)

mfg


NT: Du sparst hat viel Encodingzeit. Gerade wenn du sehr hohe Qualität willst, einige Einstellungen M.E. exhausive und Subpixel usw je nach Material (grain etc.) wenn du 2pass VBR nimmst/musst dann kann da schon einiges an Zeit ins Land gehen.
 
Zuletzt bearbeitet:
tmkoeln schrieb:
Auch wenn der 18 Kerner bei Skylake-X bislang ein paperlaunch ist, so ein Riesen Vorsprung ist das jetzt nicht vorm 10 Kerner für 20% bzw 60% mehr kerne. Klar Singlecore reist beim 10 Kerner vieles raus evtl. aber das vollständige Bild haben wir erst wenn tatsächlich der Platzhirsch sein Starpferd aus dem Stall lässt.

Aber dieser wird locker den Preis des alten 10 Kerner einnehmen oder sogar überschreiten (evtl 1999€ ?!). Das wären dann 16/32 für 999$ vs 18/36 für locker das 1,5x - 2x.

Wenn man Geld hätte wäre das schon ein feines Teil :D... Multitasking vom allerfeinsten!
 
ich gehe felsenfest davon aus, dass Intel ein Performancemonster hinlegen wird. Das wäre ein zu große Schmach nicht das schnellste Pferd auf dem Markt zu haben. Ich denke, da wird auch jeder Verlust ignoriert, sprich: Verbrauch extrem, Hitze extrem, Preis jenseits von Gut und Böse, lieferbar in homöpatischen Mengen, wenn nicht sogar nur auf dem Papier. Hauptsache irgendwas theoretisch auf dem Markt, auch wenns keiner kauft. Wichtig ist nur, dass man die Benchmarkbalken anführt. Koste es was es wolle.

Die berühmte Schublade von Intel wird nämlich aufgemacht. Dies enthält aber nicht wie von Fanboys prognostiziert zig neue, weitaus schnellere Architekturen und Wundertechniken, sondern. GELD. Entweder wird dies in sinnlose Prestige-Produkte gepumpt wie oben schon vermutet oder eben wieder in Rabatt-Schlachten. Dieses mal dann offizieller durch Preissenkungen anstatt durch illegale Werbezuschüße wie beim letzten Mal als AMD fast die Marktführerschaft übernommen hätte.

Im Grunde gilt:
Geschichte wiederholt sich. AMD ist wieder voll da. Wenn dieses mal auch nicht mit einer weitaus besseren IPC wie damals, dafür aber zumindest mit mehr Kernen und einer überraschenden Effizienz.
Wenn Intel nicht wie damals eine zweites Entwicklerteam an einer anderen Architektur beschäftigt hat (Nehalem vs. Core war das damals), dann wird das ein echter Durchmarsch.

Klar, keine Frage, Intel wird sicherlich schon lange an einer neuen Architektur arbeiten. Aber wie weit die ist weiß niemand. Bei so eher sinnlosen Konzepten wie Phi und Rohrkrepierern wie Optane, kombiniert mit Maßenentlassungen, stell ich mir aber nicht vor, dass das groß Wunder zu erwarten sind. Die wurden eiskalt überrumpelt. Nicht mal die größten AMD-Fanboys hätten sich zu träumen gewagt, dass AMD so eine krasses Comeback erlebt. Realistisch war die Annahme, dass man auf Sichtweite aufschließt. Nicht, dass man fast auf Augenhöhe mit dieser ersten Zen-Generation daherkommt.
Das schlimmste für Intel sind aber ganz einfach die Selbstkosten von AMD. Das Baukastenprinzip ist so billig wie genial. Man muss nicht die letzen 5-10% an Leistung liefern, wenn man 50% günstiger sein kann und trotzdem noch gut verdient.
 
Zuletzt bearbeitet:
Das wird eh ein hin und her. Intel zieht nach, danach Zen2 7nm... da werden sich hoffentlich beide so richtig fetzen müssen - win win für den Kunden - sofern Intel nicht wieder Schmutzige Dinge vor hat und ihre Portokasse etwas entschlacken wollen - nichts anderes war die Strafe damals.
 
Zurück
Oben