News AMD Ryzen: 12-Kern-Variante begleitet 16-Kern-CPU im Desktop

wird es nicht geben weil es einfach keinen Sinn macht 2 Vierkerner zusammenzupeppen um dieselbe Leistung wie bei der Ryzen R7 Reihe zu bekommen auf einem Board das vermutlich doppelt - 3X eines Normalen Ryzen Boards kosten wird

ausserdem glaube ich nicht das es eine derart hohe Menge an teildefekten CPU s gibt , vielleicht in den ersten 3 -6 Monaten bis das fertigungsverfahren perfektioniert wurde aber danach ...

in 9 Monaten soll ja schon Zen + oder meinetwegen Ryzen v2 kommen , bis dahin werden sie wohl echte 6 kerner rausbringen , ob auch echte 4 Kerner wird letztens von den Verkaufszahlen des R3 abhängen schätz ich mal . Ich glaub nicht das sie grosse Mengen voll funktionsfähiger 8 Kerner künstlich beschneiden nur um 6 oder 4 Kerner zu erhalten , da würden sie wohl eher noch etwas im Preis runtergehen
 
Loopman schrieb:
Die Qualität beim encoden über Grafikkarten (egal ob Intel oder Nvidia) ist BEI WEITEM schlechter, als wenn ich x264/x265 per CPU verwende. Alleine die Möglichkeiten der Features und Settings ist dort viel umfangreicher. Die Grakas beherrschen sozusagen nur die absoluten Grundfunktionen. K.A. woher du deine 2-3% her nimmst (Bildqualität misst man nicht in %), aber ein Blinder würde den Unterschied erkennen.

das ist Quatsch. Ich hab die letzten Monate mal HEVC über meine GTX 980 TI und CPU versucht, FFMPEG mit NVENC über CPU und GPU verglichen. Es gibt einen Unterschied ja, aber den erkennt man fast nur im Standbild. CPU reproduziert etwas mehr Details, aber es liegt auch ein Faktor von 2 zu 150 FPS /s dazwischen. Über die CPU macht ja auch nicht jedes Preset Sinn, außer du hast wirklich 1 Tag / Film Zeit zum Encoden.

Slow vs Slow was mein ich bei Nvenc das max is is brauchbar und wirklich schon sehr brauchbar. Bei der Geschwindigkeit auf GPU Seite auch unschlagbar.

Klar, mit 16 Kernen wird die CPU Seite auch wieder interessanter. Dennoch noch unglaublich langsam gegen GPU. Gerade was Realtime angeht als Streaming Server in 4K kannste nur noch über GPU gehen.

Edit: hier ein Vergleich (von mir)
CPU Slow HEVC
slow preset hevc cpu.png

NVENC Slow
slow preset hevc nvenc.png

bei gleicher Zieldatei Größe. Bei der Wiedergabe geht der Unterschied schon direkt gegen 0. Würde wetten dass kaum einer den Unterschied sehen kann, schon garnicht auf 3m am Full HD TV ;)

Edit: welche "nicht Grundfunktionen" nutzt du den so exzessiv?

Edit2: ich baue hier übrigens regelmäßig Libreeelc und ffmpeg ink NVENC
https://1drv.ms/f/s!Ar_eIBtD4lGqg85_iDGvRCjP6xkc7g
 
Zuletzt bearbeitet:
Also ich codiere meine Fotos und Videos nur mit der GPU seit der HD6850, es geht einfach schneller und mir persönlich reicht die Qualität auf mein FHD TV völlig aus.

Naja jeder hat da vielleicht andere Ansichten nur kaufe ich mir doch keine 1000€ CPU nur für Video und Foto Bearbeitung, dann lieber eine vernünftige GPU.
 
MK one schrieb:
Unsinn , wenn die Wettbewerbshüter meinen das es Hinweise

Ich wiederhole mich nochmal: eine Meinung reicht hier nicht. Kein Kartellwächter wird auf eine bloße Meinung hin eine Strafe verhängen. Das sind alles Juristen, die da tätig sind. Die wissen schon, wie das laufen muss.
 
D708 schrieb:
Intel hat damals zu Athlonzeiten verbotene Mittel in einer Marktwirtschaft eingesetzt und hat dafür auch die Strafe gezahlt. Wobei man den Schaden nicht richtig beziffern kann, da er bis heute Wirkung zeigt.
Allerdings muss man auch sagen, an Faildozer hat Intel keine Schuld. Damals hat AMD die falsche Entscheidung(Fred Weber Geschichte)getroffen und so haben sie deshalb an Marktrelevanz verloren.

Heute glaube ich nicht dran, dass Intel wieder zu solchen Maßnahmen greifen wird, ihre Architektur ist der Ryzen Architektur nicht unterlegen. Zumindestens nicht entscheidend.
Maximal werden sie sich auf einen Preiskampf einlassen, der aber vollkommen legitim ist.

Tatsächlich, wegen der Behinderung von Wettbewerbern muss der Chiphersteller Intel eine Geldbuße von 1,06 Milliarden Euro zahlen. Das gab die EU-Kommission in Brüssel bekannt.
Die Strafe wurde 2009 verhängt, Intel hat dagegen geklagt und erst 2014 gab es dazu ein Urteil, nämlich dass sie wirklich Zahlen müssen und die Strafe rechtens ist. Im Handelsblatt etwa lautete 2014 der Titel: "EU-Gericht bestätigt Strafe
Intel muss Milliarde wegen Media-Saturn-Deal zahlen
"
Ich finde derzeit keinen passenden Link, jedoch ist mein letzter Stand der Dinge, dass Intel diese Summe immernoch nicht gezahlt haben soll.
 
mad-onion schrieb:
Intel muss Milliarde wegen Media-Saturn-Deal zahlen[/URL]"
Ich finde derzeit keinen passenden Link, jedoch ist mein letzter Stand der Dinge, dass Intel diese Summe immernoch nicht gezahlt haben soll.

Davon ist nicht auszugehen, weil sie im Q2/2009 in den Quartalszahlen verbucht wurden:
https://s21.q4cdn.com/600692695/files/doc_news/archive/INTC_News_2009_7_14_Earnings.pdf

Siehe auch: https://www.computerbase.de/2009-07/intels-quartalszahlen-besser-als-erwartet/
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Edit: hier ein Vergleich (von mir)
CPU Slow HEVC
Anhang anzeigen 614616

NVENC Slow
Anhang anzeigen 614617

bei gleicher Zieldatei Größe. Bei der Wiedergabe geht der Unterschied schon direkt gegen 0. Würde wetten dass kaum einer den Unterschied sehen kann, schon garnicht auf 3m am Full HD TV ;)

Tut mir leid dir das sagen zu müssen, aber ich erkenne ganz deutlich einen Unterschied. Bei der GPU-Berechnung sind starke Fragmentierungen zu erkennen. Die GPU kann es eben nicht so gut wie der CPU.
Besonders zu erkennen an dem Geländer rechts. Es wirkt bei der CPU-Berechnung deutlich besser.
Alles im Allen wirkt das Bild von der GPU deutlich ausgefranster und weniger homogen.
Auch werden oft Falschfarben dargestellt. So werden oft Pixel dargestellt, die da einfach nicht rein gehören.
Ebenfalls zu erkennen am Gesicht Links. Achte mal auf die Nasenspitze. Nein, das ist kein Pickel. ;)
So versaut man sich jedes Urlaubsfoto.

Ja, auf der GPU geht es wesentlich schneller. Aber die CPU ist dafür deutlich gründlicher.
Und am Ende zählt die Qualität.
 
Zuletzt bearbeitet:
Richtig - cpu Encoder sind flexibeler mit mehr Funktionen

und wenn man 2 Pass anwendet auch mit höherer Qualität = längere Encodierzeit

AMD hat auf der RX 480 nen H265 Encoder eingebaut und A s Video Converter http://bluesky23.yukishigure.com/en/AsVideoConv.html ist einer der ersten der H265 Hardwareencoding mit einer RX 480 ermöglicht

Der haut 100 fps bei Blue ray Quellmaterial raus bei einer erstaunlich hohen Qualität - nur bei grossen , sich schnell durchs Bild Bewegenden OBjekten kommt es zur Artefaktbildung .

Zum Vergleich - mein Ryzen schaft 25 - 30 FPS mit Handbrake

leider wird der Ton etwas stiefmütterlich behandelt - den würd ich nämlich gern 1:1 übernehmen aber dazu müsste man demuxen und dann den Ton wieder muxen (reinmischen ) - ist mir zuviel arbeit

und h265 ist noch nicht sehr verbreitet , die Media Player von 4K Fernsehern werden es können aber sonst ist eigentlich nur der PC dazu in der Lage
 
Zuletzt bearbeitet:
Also die 2 Bilder könnten als Paradebeispiel für deutlich schlechtere Qualität der GPU-Berechnung dienen.
 
MK one schrieb:
Zum Vergleich - mein Ryzen schaft 25 - 30 FPS mit Handbrake
Das ist aber weinen auf hohem Niveau. ;)
Ich hab zu A64/Pentium4-Zeiten nicht selten über nen Tag, manchmal auch 2 für nen Film gebraucht.
 
kisser schrieb:
Ich wiederhole mich nochmal: eine Meinung reicht hier nicht. Kein Kartellwächter wird auf eine bloße Meinung hin eine Strafe verhängen. Das sind alles Juristen, die da tätig sind. Die wissen schon, wie das laufen muss.
Ist Ihnen der Unterschied zwischen Ordnungswidrigkeit und Strafgesetzgebung bekannt. Ordnungsgeld kann die Kartellbehörde verhängen, wie sie will. Natürlich machen die das nicht "einfach so". Jedes Unternehmen klagt gegen sowas sofort. Die bezahlen Heerscharen an Anwälten dafür, die sowieso in den lohnkosten mit drin sind. Deshalb verhängt die Behörde das Ordnungsgeld nur, wenn es eindeutige Beweise gibt, die vor einem Gerichtsverfahren standhalten.
Dennoch könnte der Kartellwächter nur auf Gutdünken Ordnungsgelder verhängen, genauso wie eine Politesse.

Ist das selbe Verfahren, wenn man falsch geparkt hat. Entweder man zahlt das Ordnungsgeld oder man klagt dagegen. Bei 5€ sind die Gerichtskosten natürlich Prozentual schwerwiegender als bei 1 Millarde.

Edit:
Und zum Preiskampf:
Damals musste Intel zu solchen Mitteln greifen. Der P4 war dermaßen schlecht gegenüber den Athlons, dass Intel wirklich befürchten musste umzufallen. Der Blaue Riese war damals schon der Blaue Riese. Der P4 hätte der Sarg werden können.

Zum Bulli:
Hey, ich habe ihn oft genug verteidigt, aber jetzt sollten AMDler auch mal ehrlich mit sich sein. Der Bulldozer war eine Katastrophe. Gleiche Leistung bei mehr als doppelten Verbrauch. Niemand würde einen Fiat 500 kaufen, wenn der dasselbe frisst, wie ein 5er BMW.
An dem Bulldozer war nur ein Schuldiger und das war AMD selber. Die Architektur musste floppen. Selbst mir als Laie wa klar, dass das bei dem DIE Bulli scheitern musst. Der geteilte Cache der Kerne war der Sargnagel. Der Grund dürfte wohl profan der Platz gewesen sein.
 
Zuletzt bearbeitet:
issenia schrieb:
Also die 2 Bilder könnten als Paradebeispiel für deutlich schlechtere Qualität der GPU-Berechnung dienen.

wie gesagt. Standbild. :) Man sieht hier einen Unterschied ja, aber selbst wenn ich Test FHD Streifen auf meinem 40" 4 K Monitor laufen lasse tu ich mir schwer das Nvenec / CPU Material zu unterscheiden. Und darauf kommts an.

Würde man wohl den Test anhand eines Samples machen ohne offenzulegen was GPU was CPU würden sich viele sehr schwer tun. Und wie gesagt, der Unterschied in Sachen Performance ist > Faktor 20. Hat man die Zeit -> CPU.

Aber NVenc ist auch noch der bessere GPU Encoder...
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Würde man wohl den Test anhand eines Samples machen ohne offenzulegen was GPU was CPU würden sich viele sehr schwer tun.
Ist dieselbe Diskussion, wie in der "Soundwelt".
Es stimmt, CPU ist besser.
Flac ist auch besser.
Ob man den Unterschied zu GPU/MP3 seiht/hört muss jeder selber entscheiden. Ich sehe/höre nichts aber ich bin auch kein "Experte".
 
ich hab mal kurz 2 Samples angelegt. NVENC und libX265, also GPU / CPU. 2 pass preset slow und Target Bitrate 2600k, 1 Video Spur, 1 Audio Spur 7.1 Opus.
2 min Länge.

https://1drv.ms/f/s!Ar_eIBtD4lGqhMxyuCDO6PsdGqDnCw

Welche is nun CPU , welche GPU? Man kommt sicher drauf wenn man draufkommen will, aber "überdeutlich" ist der Unterschied nicht wie ich finde. Nichts was

Edit: Commandline war

Code:
ffmpeg -y -i "input.mkv" -ss 00:05:00 -t 00:2:00 -map 0:0 -map 0:1 -c:a libopus -c:v libx265 -preset slow -b:v 2600k -pass 1 output.mkv && ffmpeg -y -i "input.mkv" -ss 00:05:00 -t 00:2:00 -map 0:0 -map 0:1 -c:a libopus -c:v libx265 -preset slow -b:v 2600k -pass 2 output.mkv

bzw -c:v hevc_nvenc bei Nvenc

-> bei kleineren Bitraten wird der Unterschied sichbarer btw.

P.S.: AMDs Encoding ist aktuell kein Vergleich dagegen - soweit ich weiß. Sie arbeiten wohl an was neuem, was da genau der Stand ist wäre auch interessant zu sehen.

Edit2:
Audio 1:1 mitzunehmen finde ich auch nicht mehr zeitgemäß. Die Spuren sind schnell größer als Video. Ein anständig komprimierter 2 h Film in 1080p muss nicht größer als 5-10Gb sein. Opus / Vorbis / ACC, alles purzelt wunderbar mit gutem 7.1 Sound (Denon 7.1 Receiver + Canton Chrono) wenn ich via Kodi / Librerelec und Passthrough abspiele -> dazu braucht es kein DTS HD.

Edit3: CPU -> 12.5 FPS (je Pass)


GPU -> 144 FPS (je Pass)


Edit: noch ein 1000kb/s Sample hinzugefügt. Da ist der Unterschied CPu -> GPU größer. Allerdings nicht die ersten Sekunden anschauen, eher mal richtung 1-2 min reinspulen. Scheint als ist die Anfangsbitrate hier sehr gering.

Eher erstaunlich wie gut noch 10 Min Film in 1080p ink 7.1 Sound bei 92 MB aussehen können. Das wären bei 2 Stunden ja gradmal 1,1 GB.
 
Zuletzt bearbeitet:
Hmmm Milkyway@Home und dad ding ist ausgelastet... wäre nice zu sehen, gegen en Dual X5670 sys.
 
Raucherdackel! schrieb:
Na, da werden bei Intel einige Är***e auf Grundeis gehen :lol:

Muss wirklich unter jedem Ryzen Post so ein Kommentar stehen? :rolleyes:

Wenn Intel wollte, könnten sie z.B. jeden Prozessor zum Selbstkostenpreis
anbieten für die nächsten Jahre und langsam dabei zusehen, wie AMD zugrunde
geht.Wem geht hier bitte der Arsch auf Grundeis?

Und warum überlegt keiner, dass Intel sowas schon lange kann und auch im
Desktop machen könnten, wenn sie den Eindruck hätten, dass das irgend
eine Art von Sinn ergibt? Stichwort Abwärme und Kühlung. Auch für 1000€
wäre das für 99% aller User keine Option. So wie die Pentium G4560 weg
gehen, dürfte relativ schnell klar sein, wohin der Trend geht.
 
Zuletzt bearbeitet:
Zebrahead schrieb:
Anzunehmen, dass die 12 / 16-Coremodelle sich auf die gleiche Taktrate übertakten lassen wie die 8-Core-Modelle, ist pure Spekulation. Und zumindest bei Intel ist das definitiv nicht der Fall.
Das werden MCM mit zwei der gleichen Dies wie sie in den RYZEN 7 stecken, die kommen auch in RYZEN 5, Naples (dort dann 4 Dies als MCM) und überall sonst zum Einsatz, erst für Raven Ridge gibt es einen neuen Die.

Zebrahead schrieb:
Es ist anzunehmen, dass sich diese Modelle nur für Leute lohnen, die Programme benutzen, die von der hohen Core-Anzahl profitieren können. Spieler fahren mit Ryzen 7 vermutlich besser.
Genau, denn schon bei RYZEN 7 leiden die Spiele unter der hohen Latenz bei der Kommunikation zwischen Kernen auf unterschiedlichen CCX. Deshalb bringt schnelles RAM auch so viel bei RYZEN, weniger wegen dem RAM Durchsatz selbst, sondern weil der Takt der Fabric daran gebunden ist und die ist eben auch für die Kommunikation zwischen den CCX zuständig. Nur werden es bei den MCM CPUs dann eben zwei Dies sein, zwischen den CCX der unterschiedlichen Dies dürfte die Latenz eher noch höher als zwischen den CCX auf dem gleichen Die sein. Und dann sind bei 16 Kernen auf 2 Dies statistisch 75% der Kerne auf anderen CCX, bei 8 Kernen in 2 CCX nur 50%, es passiert also viel öfter das die Kommunikation zwischen zwei Kernen über die Grenzen des CCX hinaus geht.

RYZEN ist ja schon jetzt nur wirklich sehr schnell, wenn jeder SW Thread weitgehend unabhängig von den anderen auf einem Teil der Daten rechnen kann, wie es eben Cinebench passiert und überhaupt beim Rendern und Medienbearbeitung üblich ist. Bei Games und nicht wenigen anderen Anwendungen aber eben nicht und da schwächelt RYZEN eben. Dies kann man eben durch einen hohen RAM Takt mildern und AMD hätte es besser gleich mit einem höheren Takt der Fabric unabhängig vom RAM Takt tun sollen.

ZuseZ3 schrieb:
Der Vorteil von Prozessoren mit einem high core count ist prinzipiell auch der größere Cache, selbst auf cb gab es mal ein paar Spielebenches wo die 8/10c trotz geringeren Taktes mit kleineren Prozessoren gleichauf bzw. z.T. sogar vorne lagen.
Nur haben bei den getesten Intel CPU alle Kerne einen gleich guten Zugriff auf den L3 Cache, bei RYZEN hat jedes CCX einen eigenen L3 Cache, damit gewinnt man hier also nicht so viel, weil eben der Zugriff auf andere CCX sehr lahm ist. Die CCX verhalten sich ähnlich wie NUMA Nodes, auch wenn jedes Die einen gemeinsamen RAM Controller hat (die beiden Dies des MCM sind dann echte NUMA Nodes) und eine SW Optimierung müsste auch wie bei NUMA aussehen, nämlich alle SW Threads die viel miteinander interagieren auf einem CCX zu konzentrieren. Nur hätten man dann für solche SW wieder nur einen 4 Kerner, viele Programme und vor allem Spiele würden dann nur maximal die 4 Kerne einer CCX auslasten. Wohl um das zu verhindern werden vom BIOS alle Kerne als der gleiche NUMA Node deklariert, eine SW weiß also nichts darüber zu welchem CCX ein Kern gehört, weshalb auf der Scheduler von Windows korrekt arbeitet, er kann ja auch nicht feststellen zu welchem CCX ein Kern nun gehört. Technisch ist das ja auch richtig alle als einen NUMA Node zu betrachten, nur wären mit der Deklaration der CCX als zwei NUMA Nodes eben das Problem mit dem ständigen Verschieben von Threads über die CCX hinweg sofort beseitigt. Das ist eben der Preis für die Architektur die jeweils 4 Kerne zu einem CCX bündelt.
ZuseZ3 schrieb:
Nichtsdestotrotz, genutzt werden sie wohl eh nur sekundär zum zocken, v.d.h. dürfte das eh vernachlässigbar sein.
Hoffentlich, denn ich fürchte die werden die Gamer enttäuschen, denn entweder sind die ganzen 16 Kerne nur als ein NUMA Node deklariert, dann hat man wie gesagt bei SW wo die Threads viel interagieren noch mehr Latenz und damit noch weniger Performance oder es wird pro Die ein NUMA Node vom BIOS angegeben, dann laufen die Games wohl sowieso alle nur auf einem Die und damit 8 Kernen. Der Zugriff auf RAM oder PCIe Karten (die Graka) die am anderen Kern hängen, wird aber auch dann langsamer sein als wenn sie am gleichen Die hängen auf dem das Game läuft.

Das kann man also drehen und wenden wie man will, als Gamingplattform dürfte AM44 nicht wirklich taugen. Auch wenn mich nun wieder einige für den Kommentar hassen, aber so sieht es aus, da braucht man das Teil noch gar nicht vor sich zu haben um das sagen zu können.
BlackWidowmaker schrieb:
Scheiß auf die CPU - der Chipsatz ist wirklich interessante.
Was ist an dem Interessant? Die ganzen PCIe Lanes kommen von der CPU, nämlich vom zweiten Die. Das sieht man auch an der Zahl, jedes Die hat doch 16 PCIe Lanes die für die Graka sind und in x8/x8 aufgeteilt werden können. Dazu kommen noch 8 Lanes die als x4/x4 aufgeteilt werden, die erste 4 werden meist auf den Boards für den M.2 Slot verwenden, die anderen 4 für die Anbindung des Chipsatzes, macht als 24 PCIe 3.0 Lanes. Verdoppelt man das, sind es 48 und da es nur einen Chipsatz gibt, werden nur 4 davon für dessen Anbindung benötigt, bleiben 44 und genau so viele hat AM44. Jedes Die hat auch ein Dual Channel RAM Interface, zwei zusammen haben also 4 RAM Kanäle und die 4 Dies in Naples dann eben 8.
BlackWidowmaker schrieb:
Wichtig wäre zu wissen ob man den neuen High-End-Chipsatz auch mit 8-Kernern betreiben könnte. Das wäre eine interessante Kombination - gerade für Gamer.
Du redest vom Chipsatz, meinst aber wohl den Sockel und der braucht aber eine CPU mit zwei Dies um mehr als AM4 bieten zu können, die Kosten für die CPU sind also doppelt so hoch wie bei den AM4 CPUs und um einen 8 Kerner dafür zu bringen, müssten pro CCX 2 der 4 Kerne deaktiviert werden, was dann wie bei den 4 Kernern wäre. Möglich wäre es, die Frage ist ob es für AMD wirtschaftlich sinnvoll wäre, denn viel mehr als für den R7-1800X kann man dafür dann wohl kaum verlangen.

OmaKuschel schrieb:
Naja, wie beim RyZen 4 Kerner müssten halt 4 Kerne pro Die deaktiviert werden. Rauskommen würde ein (2x4=)8-Kerne der in den AM44 (X390) passt und ein Quad-Channel Speicherinterface samt 44 PCIe3 Lanes aufweist.
Eben, aber die doppelten Herstellungskosten hat.

OmaKuschel schrieb:
Und was ist für Dich beim AM4 eine Katastrophe? Der X370 bietet mehr oder weniger das gleich wie der Z270 bei Intel.
Nein, wirklich nicht, der Z270 hat 24 PCIe 3.0 Lanes, der X370 8 PCIe 2.0 Lanes und offenbar 4 PCIe 3.0 Lanes die aber gerüchteweise nicht dem Standard entsprechen und daher allenfalls bei ganz wenigen Boards für Onboard Controller genutzt, nicht ab an Slot geführt werden wo es dann deswegen Probleme geben könnte, weil der User da dann ja alles möglich anschließen könnte. Damit sind diese PCIe 3.0 Lanes nutzlos und es bleiben 8 PCIe 2.0 Lanes und die 4 PCIe 3.0 Lanes die direkt auf dem Die sind und nicht für die Anbindung des Chipsatzes benötigt werden.
OmaKuschel schrieb:
Einzig die jetzt angefangene Beta-Test-Phase beim Endkunden hinterlässt einen faden Beigeschmack. Die jährlich neuen Intel-Plattformen laufen halt meistens immer ohne Probleme, auch wenn sie neu auf den Markt kommen.
Die großen Skylake Xeons sind schon fertig und bei Google im Einsatz. Intel hat da viel mehr Vorlaufzeit und kann es sich bei den Resourcen auch leisten, die geben mehr als 10 mal so viel Geld für R&D aus als AMD.

OmaKuschel schrieb:
Ich geb die Hoffnung noch nicht auf, dass sich das auch beim AM4 einspielt, spätestens mit dem ZEN+ und der zweiten Chipsatz/Board Generation Anfang 2018.
Vorher dürfte es auch keine neuen Dies geben, denn die Kosten dafür sind mit jedem Shrink der Fertigung überproportional gestiegen und gehen schon bei 14nm in die Hunderte Millionen Dollar! Da müssen erst einige Millionen Dies verkauft werden, bevor man die wieder drin hat. Deshalb verwendet AMD ja auch die gleichen Dies vom kleinen 4 Kerner bis zum 32 Kern Naples, denn das spart gewaltige Kosten, erlaubt es aber eben schnell CPUs für unterschiedliche Anwendungen auf den Markt zu werfen, auch wenn diese natürlich mit Kompromissen behaftet sind.

wunschiwunsch schrieb:
ISt es wirklich nicht möglich oder wird es bisher nur nicht exzessiv gemacht?
Es ist nur in Grenzen möglich Spiele parallel zu programmieren, denn wenn einer schießt, muss der andere umfallen wenn er in der Schußbahn stand oder wenn Autos ein Rennen fahren, dann muss man die Kollision sehen, wenn zwei versuchen zur gleichen Zeit den gleichen Platz einzunehmen. Man kann für jedes Auto oder jeden Spieler einen Thread aufmachen, die müssen sich aber ständig austauschen und diese Synchronisation kosten eben gerade bei RZYEN dann viel Zeit, wenn die Threads auf Kernen laufen die nicht auf dem gleichen CCX liegen. Das ist der Nachteil der Architektur mit den CCX. Intels verwendet bisher bei den großen Dies aufwendige Doppelringe um genau dies zu vermeiden, bei kleinen 4 Kernern braucht man ja nur 3 Links um jedem Kern mit jedem anderen zu verbinden, aber ab einer bestimmten Anzahl an Kernen muss man was anderes finden um diese miteinander zu verbinden, da kann man nicht mehr jeden direkt mit jedem anderen verbinden und dann steigt zwangsläufig die Latenz der Verbindung. Zwischen den Kernen eines CCX von RYZEN ist die Latenz sogar etwas geringer als bei Intels 6 und 8 Kernern mit ihren Doppelringen. Aber zwischen den Kernen unterschiedlicher CCX ist sie eben sehr viel höher als zwischen jedem Kern einer Intel 10 Kern CPU und einem beliebigen anderen Kern dieser CPU, da ist Intels Voreil und die Achillesferse von RYZEN.

Nur muss man auch den Nachteil sehen den Intel dafür hat, denn die Dies sind sehr viel größter, für die Xeon E5/E7 gibt es 3 verschiedene Dies je nach Anzahl der Kerne was gewaltige Kosten verursacht. weshalb auch Intel schon über ein ähnliches MCM Konzept nachdenkt um die Kosten im Griff zu halten (es sind locker Hunderte Millionen für ein solches Die), zumal auch die Fertigung solche großen Chips nicht gerade billig ist und man irgendwo bei 600mm² dann an die wirtschaftlich vertretbare Grenze kommt.

Mcr-King schrieb:
ÄHM nee nicht wirklich auch Intel hat seine Probleme mit neuen Platformen TSX Bug
TSX war eine Neuerung und daher war die Folge des Bugs nur die Verschiebung der Einführung von TSX. Aber gerade TSX zeigt wie intensiv sich Intel mit dem Thema der Skalierung von SW über viele Kerne befasst hat, wenn diese Kerne eben nicht so unabhängig voneinander arbeiten können, also gerade bei Anwendungen wo RYZEN schwächelt, hat Intel in den letzten Jahren sehr massiv in seine Technologie investiert. Intel hat da viel mehr Aufwand betrieben als den meisten Usern bewusst ist, zumal dies abseits des Mainstream passierte.

Mcr-King schrieb:
wer weiß vielleicht ändert sich dass ja noch in zukunft, wenn sich erstmal mehr Kerne durchgesetzt haben.
Man kann nicht jede Aufgabe parallel lösen, die Aufgabe gibt immer die Grenzen dafür vor. Außerdem kostet es auch Zeit Threads zu starten und zu Synchronisieren, die Teilaufgabe die man parallel erledigen möchte, muss also auch immer groß genug sein um aus der Multithreadinglösung dann auch Nutzen ziehen zu können. Für einmal A*B+C*D lohnt es sich nicht einen zweiten Thread zu starten nur um C*D berechnen zu lassen.

T3Kila schrieb:
Dann mit ECC und schönen Server Boards (optional in mATX oder optimal ITX)
RYZEN unterstützt doch schon ECC RAM, nur unterstützen das viele Board nicht und die Kommunikation welches Board es unterstützt ist mies. Vermutlich auch, weil es laut AMD nicht offiziell validiert wurde, da wird sich kein Mainboardhersteller aus dem Fenster lehnen und dann wegen falscher Versprechen in Haftung genommen werden wollen. mATX kann man erwarten, auch Mini-ITX würde ich nicht hoffen, der Sockel dürfte dafür zu groß werden und die vielen PCIe Lanes kann man auf den kleinen Boards sowieso nicht nutzen.

andr_gin schrieb:
Als Workstation für gewisse Multimdiaaufgaben mag das zwar interessant sein, aber ansonsten sehe ich ehrlich gesagt den Sinn von 32 Threads nicht ganz, wenn die Leistung eines Kerns ziemlich schwach aussieht.
Dann hast Du dafür keine Anwendung und braucht so ein System auch nicht.
andr_gin schrieb:
in der Praxis hat man genügend Fälle wo nur 1 Kern ausgelastet wird.
Für solche Anwendungen sind derartige CPUs auch nicht optimal, da nimmt man besser einen hoch getakteten 2 oder 4 Kerner, deshalb gibt es die ja auch noch. Die universell schnellste CPU gibt es eben nicht, damit muss man sich abfinden, jede hat in einigen Bereichen Stärke und in anderen Schwächen und sei es nur beim Preis oder der Leistungsaufnahme. Der RYZEN 9 wird auch wenn man ihn auf den gleichen Takt wie den RYZEN 7 übertaktet, diesen nicht bei allen Anwendungen / Spiele schlagen, bei anderen die gut parallelisiert sind dann aber im Regen stehen lassen. Daher gilt es immer die entsprechend der Anwendung passende CPU zu wählen, wie es bei Serveranwendungen schon lange üblich ist und damit dies möglichst gut gelingt, hat Intel ja z.B. auch so viele verschiedene Xeon E5 Modelle im Programm.

stoneeh schrieb:
und man noch dazu den Vorteil eines doppelten L3 Caches im Vergleich zum 8Kerner hat, auf den auch ein einzelner Kern komplett zugreifen kann, kann der durchaus auch im Gaming recht potent sein.
Genau das mit dem Cache, was für die Intel 6, 8 und 10 Kerner gilt, würde ich mir bei der CPU abschminken, da dies bei MCM und CCX Konzept eben ganz anderes aussieht. Der L3 Cache ist eben pro CCX und nicht global.

HominiLupus schrieb:
Man sollte eigentlich jede Spielfigur in einem eigenen Thread laufen lassen können. Jedes Geschoßpartikel wenn man will, jedes Raumschiff, jeden Panzer auf dem Schlachtfeld, etc.
Aber das kostet natürlich Unmengen an Entwicklerzeit die niemand aufbringen und bezahlen will.
Nicht nur das, es würde auch unendlich viel Synchronisierung zwischen den Threads erfolgen, die einzelnen Spielfiguren agieren je bei Spielen eben nicht unabhängig voneinander, sondern formen ein gemeinsames Szenario in dem alles voneinander abhängt. Das ist eben gerade das Gegenteil von dem was z.B. bei Cinebench passiert, wo jeder Threads auf einem Teil der Daten rechnet ohne sich darum kümmern zu müssen was die anderen Threads machen. Die Art von Aufgabe wo RYZEN super performt, die hohe Latenz der Kommunikation von Kernen unterschiedlicher CCX ist nämlich dabei egal.

russianinvasion schrieb:
AMD: 700 Euro für 16 Kerne und ich bin dabei, nach gefühlten 100 Jahren Intel Stillstand mit 4 Kernen.
Den Stillstand gab es doch nur auf dem Mainstream S. 115x, die Xeon Server CPUs haben mit jeder Generation mehr Kerne bekommen und sogar die großen i7 für Enthusiasten.

DarkInterceptor schrieb:
alleine um die entwicklungsgeschwindigkeit für software für den mainstream anzukurbeln
Erstens ist nicht jedes Problem parallel lösbar und zweitens ist das sehr viel mehr Arbeit und es gibt nicht so viele SW Entwickler die wirklich gut parallel programmieren können. Der Aufwand ist auch viel höher, hast Du mal ein maasiv parallel laufendes Programm debuggt? Wenn ja, dann weißt Du wovon ich rede, wenn nicht wirst Du es nicht verstehen. Nur mal am Rande; Die hochauflösenden Timer sind zwischen den Kernen einer CPU nicht synchronisierst, im ms Bereich ist es für jeden Kern unterschiedlich spät und wenn der Task Scheduler den Thread auf einen anderen Kern verschiebt, kann eine Zeitmessung sogar negativ sein, man muss die SW Treads also fest an einen HW Kern binden, wenn man die Zeit mit hoher Auflösung halbwegs genau messen will. Halbwegs genau, weil diese Timer noch ungenauer sind als die Clock auf dem Mainboard.
DarkInterceptor schrieb:
man kann ja die nutzungsdauer bei so einem teil weit ausdehnen
HW ist üblicherweise auf eine Nutzungsdauer von 5 Jahren ausgelegt, nur im Embedded und Automotiv Bereuch auch auf mehr.
DarkInterceptor schrieb:
bin jedenfalls gespannt ob man bei den quadchannel interface auch auf SR und DR speicher aufpassen muss. weil das stört mich aktuell gewaltig was da mit R7 im Desktop markt abgeht.
Da die Dies die gleichen sind, wird es wohl wie bei RYZEN 7 sein bzw. eher schlechter, denn das Problem dürfte sein, dass sich bei allem was in den OC Bereich geht, der kleinste gemeinsame Nenner zwischen beiden Dies durchsetzen wird, daman CPU und RAM takte kaum für jedes Die getrennt wählen können wird.

D708 schrieb:
Heute glaube ich nicht dran, dass Intel wieder zu solchen Maßnahmen greifen wird, ihre Architektur ist der Ryzen Architektur nicht unterlegen. Zumindestens nicht entscheidend.
Die ist in einigen Punkten sogar deutlich überlegen. Es gilt daher aufgrund der Anwendungen zu entscheiden welche CPU besser geeignet ist.
D708 schrieb:
Maximal werden sie sich auf einen Preiskampf einlassen
Auch nur in Grenzen, man wird mehr Kerne bieten ohne wie zuletzt bei Broadwell-E dafür deutlich höhere Preise zu verlangen. Wir werden bei Skylake-X sehen, wie Intel reagiert. An den Gerüchten von Preissenkungen bei Intel war jedenfalls nicht viel dran und das die Preise für die Broadwell-E im Handel fallen bevor die Skylake-X in die Regale kommen, sollte nicht wirklich überraschen.
MK one schrieb:
Allerdings glaube ich auch nicht daran - Intel wird so lange wie möglich seine CPU s überteuert verscherbeln wie s geht = 10 % Mehrleistung - 30 % Preissaufschlag .. und von seinem Nimbus als Anbieter der schnellsten Cpu s zehren
Die letzten Prozent an Leistung waren schon immer am teuersten und wenn man sie die Preise der R7 1700X und R7 1800X ansieht, ist es bei AMD dich auch nicht anderes.

oldmanhunting schrieb:
Zumindest ich wäre da angefressen, wenn sich meine Neue Ryzen Render Plattform evtl. schon dieses Jahr als billig Eimer herausstellt und der erwachsene Ryzen (so ganz ohne RoadMap) erst noch kommt.
Roadmaps sind doch fast immer nur Leaks und die Informationen kommen nicht offiziell von den Herstellern. Es gibt keinen Anspruch auf Vorabinformationen und das zwischen den 8 Kerner für dem AM4 und den 32 Kerner Naples eine gewaltige Lücke klafft die früher oder später geschlossen werden würde, konnte ein Blinder mit dem Rückstock sehen.

Tiu schrieb:
Finde es schade, dass es für die kleineren Modelle keine Dual CPU Boards gibt.
Hier geht es doch im Grund genau um diese Dual-CPUs, auch wenn beide Dies im gleichen Gehäuse stecken.

DarkInterceptor schrieb:
intel kann sich das schon leisten alleine für die unterhaltskosten der firma an sich die preise so weit zu senken das sie in augenhöhe wie amd sind
Nein, die Umsatzrendite bei Intel war im letzten Jahr so etwa bei 17%, würde man die Preise senken, wären weniger Steuern zu zahlen, aber so bei 20% auf alles wäre der Gewnn dann wohl bei 0.
DarkInterceptor schrieb:
die aktionäre steigen denen aufs dach.
Das sind ja auch die Eigentümer der Firma, wer wenn nicht die Eigentümer sollten denn Deiner Meinung nach das Sagen in einer Firma haben, oder war Dir das nicht bekannt, dass es die Aktionäre sind, denen eine Firma gehört? Wären Dir VEBs lieben? Die waren ja damals so innovativ, dass sie Trabi und Wartburg Jahrzehntelang unverändert weitergebaut haben, da wüsste dann der Kunden wenigstens schon bei der Bestellung, welches Auto er nach fast 20 Jahren Lieferzeit dann auch wirklich bekommt. :evillol:
DarkInterceptor schrieb:
also werden sie nie billiger als amd weil zu viel geld durch aktien dahinter steckt.
Von Wirtschaft hast Du so wenig Ahnung wie von Computern, denn das Geld der Aktionäre steckt schon in der Firma, das kann die nicht einfach ausgeben, außer sie führt ständig KEs durch, wirft also neue Aktien auf den Markt um an frischen Geld zu kommen.
DarkInterceptor schrieb:
weil von den geldgeilen aktionären (ich mein die großaktionäre
Es ist ja auch eine Frechheit, wenn Leute für ihr investiertes Geld auch noch eine Rendite sehen wollen, Du bist bestimmt auch froh das die Zinsen für solide Anleihen, Sparbücher, Tagesgeld etc. praktisch abgeschafft wurden. Wäre ja noch schöner wenn man Geld bekommen würde, nur weil man anderen Geld leiht und dafür das Risiko eingeht es nicht zurück zu bekommen. :freak: Das die Großaktionäre fast immer Invenstmentfonds sind die das Geld vieler kleiner Leute gebündelt anlegen, wird bei der Schimpfe über diese Blutsauger gerne vergessen, Hauptsache meine Altersversorung ist gesichert und die Beiträge meiner Versicherungen steigen nicht, weil diese die Überschüsse ja gur angelegt haben, wo eigentlich, ach in Aktien......
DarkInterceptor schrieb:
amd hat auch aktien auf dem markt aber wesentlich weniger davon also ist es nicht schlimm wenn die weniger gewinn/umsatz haben.
Die entscheidenden Größen zur Bewertung von Aktienkursen sind der Gewinn pro Aktie, also das KGV und das KBV, die sind alle unabhängig von der Marktkapitalisierung.
 
Zurück
Oben