News AMD Ryzen: 12-Kern-Variante begleitet 16-Kern-CPU im Desktop

Wolfsrabe schrieb:
Daß Parallelisierbarkeit hier beschränkt ist, sollte mittlerweile jedem "Gamer" klar sein.

ISt es wirklich nicht möglich oder wird es bisher nur nicht exzessiv gemacht?
 
ÄHM nee nicht wirklich auch Intel hat seine Probleme mit neuen Platformen TSX Bug und Mem Probleme nur bei Intel vergessen dass immer alle schneller. 😅

Aber warum nicht wird mit Sicherheit Leute geben die gerne einen X390 haben möchten. Mir Persönlich würde ein ITX mit Ryzen R5 6/12 oder 4/8 völlig ausreichen. Nur gibt's noch keine ITX Boards, aber mir reicht mein i5 erstmal eine weile.
Ergänzung ()

Es wird nur nicht gemacht weil aufwendig ist aber wer weiß vielleicht ändert sich dass ja noch in zukunft, wenn sich erstmal mehr Kerne durchgesetzt haben.
 
Snowiron schrieb:
Wieso ist da eigentlich so ein Qualitätsunterschied? Ich habe dazu schon viel gegoogelt, aber nie eine passende Antwort erhalten. Ist das einfach technik bedingt und man kann das nicht ändern oder wäre es auch möglich, Software Encoder so zu prgorammieren, dass sie die gleiche Qualität wie die hardwareencoder hinbekommen?

Normalerweise sind Hardwareencoder ineffizienter, weil diese Encoder häufig Echtzeit Encoder sind. Ein Echtzeit Encoder arbeitet deshalb ineffizienter, weil er eben keine Zeit hat, erstmal die nächsten 5 Sekunden (oder wieviel auch immer) zu analysieren, um das bestmögliche Ergebis hinzubekommen. Ergo brauchen diese Hardware Encoder entweder mehr Bitrate oder ihre Qualität ist eben schlechter. Der typische Softwareencoder hat alle Zeit der Welt, um das Filmmaterial zu analysieren, weil der Output nicht direkt verwendet (also z.B. gestreamt) wird.
 
Zuletzt bearbeitet:
Das hört sich ganz schwer nach Kandidaten für meinen neuen VM Host an.
Dann mit ECC und schönen Server Boards (optional in mATX oder optimal ITX)
 
Area 51 R3 .? Nice 😎Das heißt,AMD löst Intel da ab.Wer hätte das vor einem Jahr für möglich gehalten? Bin Mal gespannt,wie lange Intel
die eigenen Preise noch auf dem aktuellen Niveau halten kann. Aber wie ich die kenne,bis der Absatz spürbar zurück geht -eher wohl nicht.
Damit das AMD ne Core Flood veranstaltet,haben die sicher nicht gerechnet.;)
Denkbar wäre auch noch ein 10 Kerner.Damit wären dann alle Segmente bedient.
 
Zuletzt bearbeitet:
Das wäre eine interessante Kombination - gerade für Gamer

Warum muss in jedem CPU Thema immer es sich um GAMER drehen? Was jucken mich die Gamer die ihr halbes Leben nur vom PC verbringen? :freak:

Als Apple-Freak kann ich mir dann endlich einen wahrscheinlich bezahlbareren Numbercruncher in die Ecke stellen und meinem Hobby mit deutlich mehr Leistung und weit weniger €-Einsatz fröhnen.

Versteh das jetzt richtig? Du willst dir ne Ryzen anschaffen für MacOS aka Hackintosh?
 
D0m1n4t0r schrieb:
Für den Heimanwender bringts nichts.
Für Workstations hingegen durchaus interessant.

Jeder Hobbyfilmer schreit grade "Shut the fuck up and take my money!". Auch jeder der irgendwas rendert (Leute mit Blender, etc.)
Natürlich ist das für Heimanwender interessant.
serveimage.jpg

Selbst Gamer mögen diese CPU wenn sie Streamen wollen und keine Elgato.
Ergänzung ()

wunschiwunsch schrieb:
ISt es wirklich nicht möglich oder wird es bisher nur nicht exzessiv gemacht?

Es wäre möglich aber die Kosten steigen natürlich auch exponentiell, mindestens aber linear.
Spielecode ist Wegwerfcode. So billig wie möglich produziert. Nächstes Jahr gibts ne 50% schnellere GPU. Das Spiel muss als AAA Game komplett in 18 Monaten fertig sein und wird danach nie wieder angeschaut, etc.

Das Ende von Moore's Law pro Kern, dessen Transistormenge und indirekt eben auch Geschwindigkeit und vor allem Takt könnte aber auch hier ein bisschen eine Umkehr erzwingen.
 
OmaKuschel schrieb:
Ich geb die Hoffnung noch nicht auf, dass sich das auch beim AM4 einspielt, spätestens mit dem ZEN+ und der zweiten Chipsatz/Board Generation Anfang 2018.

Naja, ob die überarbeitete Zen-Architektur, also Zen+, schon Pinnacle Ridge/Zen 2 sein wird, das wissen wir noch nicht ;).

Nun, ich habe da eher meine Zweifel, denn Zen+ soll ja in 7 nm kommen, was GF bis Anfang 2018 noch nicht packen dürfte und wofür sich eigentlich erst Zen 3 (Ende 2018/Anfang 2019) anbieten würde (oder eine komplett neue Zen+ (Premium-)Generation, die neben der Zen-Generation noch mitläuft).

Vielleicht schafft es Anfang 2018 aber schon PCIe 4.0 auf Intels Cannon Lake und AMDs Pinnacle Ridge Mainboards, zumindest gehe ich davon aus, da ja Mitte 2017 endgültig PCIe 4.0 offiziell verabschiedet werden soll.

mcasd schrieb:
Hoffe also auf 16 Kerne und max 1000€

Mit viel Glück wird es vielleicht etwas unter der 1000 Euro Marke (für den 16K32T), ein R9 mit 12K24T könnte sich ja so bei 700-800 Euro einpendeln (aber das ist natürlich nur reiner Spekulatius, zumal es eigentlich immer noch ein von AMD unbestätigtes Gerücht ist, welches noch nicht in trockenen Tüchern steckt), aber die Boards dürften gehörig teurer werden (als die X370er).
 
Zuletzt bearbeitet:
Als Workstation für gewisse Multimdiaaufgaben mag das zwar interessant sein, aber ansonsten sehe ich ehrlich gesagt den Sinn von 32 Threads nicht ganz, wenn die Leistung eines Kerns ziemlich schwach aussieht. Benchmarks sind eine Sache aber in der Praxis hat man genügend Fälle wo nur 1 Kern ausgelastet wird. Ich denke es wäre schön langsam Zeit für ein big/little Konzept mit 1-2 starke Kerne für single threaded Aufgaben und viele kleine Kerne für Anwendungen mit vernünftiger Multithreading Unterstützung.
 
Einige dürften es wirklich nicht checken. Ich mach ja nur ab und zu Videobearbeitung in Premiere. Meine derzeitigen 4 Kerne werden sowohl bei der Bearbeitung im Programm, als auch beim encoden, 100% ausgelastet. Und das dauert dann auch bei nem übertakteten 6600K ne Weile. Auch wenn der 16er bei Last auf allen Threads nur mit 2,5 GHz taktet, wenn ich 16 Kerne habe, bin ich trotzdem bei weitem schneller.

Wenn bei Games der Prozessor dann bei Last auf wenigen Kernen auf knappe 4 GHz rauftaktet, und man noch dazu den Vorteil eines doppelten L3 Caches im Vergleich zum 8Kerner hat, auf den auch ein einzelner Kern komplett zugreifen kann, kann der durchaus auch im Gaming recht potent sein.
 
Raucherdackel! schrieb:
Na, da werden bei Intel einige Är***e auf Grundeis gehen :lol:
Das bezweifle ich.
Nicht weil ich AMD nicht zutraue in der Nische kurzzeitig das Topmodell zu stellen, sondern weil es nichts dran ändern wird, dass kaum ein namhafter Hersteller ernsthaft AMD CPUs in seinen PCs anbietet.
Das hat damals beim Opteron und A64 damals nicht funktioniert, und die waren wirklich ne gewisse Zeit besser als das was Intel am Start gehabt hat (also nicht wie beim Ryzen gerade mal Region gleichauf).

@Topic: Jetzt wäre noch der Preis interessant.
Das Problem ist ja nicht an CPUs mit >8 Kernen zu kommen sondern der exorbitante Aufschlag, den man auf die Rechenleistung umgelegt dafür bezahlt.
 
andr_gin schrieb:
Als Workstation für gewisse Multimdiaaufgaben mag das zwar interessant sein, aber ansonsten sehe ich ehrlich gesagt den Sinn von 32 Threads nicht ganz, wenn die Leistung eines Kerns ziemlich schwach aussieht. Benchmarks sind eine Sache aber in der Praxis hat man genügend Fälle wo nur 1 Kern ausgelastet wird. Ich denke es wäre schön langsam Zeit für ein big/little Konzept mit 1-2 starke Kerne für single threaded Aufgaben und viele kleine Kerne für Anwendungen mit vernünftiger Multithreading Unterstützung.

Ich glaube du hast den Sinn von Workstation/Server CPUs nicht verstanden.
 
HominiLupus schrieb:
Es wäre möglich aber die Kosten steigen natürlich auch exponentiell, mindestens aber linear.
Spielecode ist Wegwerfcode. So billig wie möglich produziert. Nächstes Jahr gibts ne 50% schnellere GPU. Das Spiel muss als AAA Game komplett in 18 Monaten fertig sein und wird danach nie wieder angeschaut, etc.

Das ist Unfug:
1. Gamelogik lässt sich in vielen Fällen nicht parallelisieren. Du kannst die Asset-Loader und die Audio-Engine auf einem anderen Thread laufen lassen ja, aber viel ist da nicht zu holen. Das Einzige was wirklich sehr gut skaliert sind Physik-Berechnungen, aber so Spiele die Physik (wie Half Life 2) richtig ausreizen haben wir auch fast nicht mehr.

Wenn du erst das Ei aufschlagen musst, dann das Ei braten, und das Ei essen kannst, bringt dir auch kein Geld der Welt was. Der Vorgang ist nicht parallelisierbar.

2. Spiele Code ist kein Wegwerf Code. :rolleyes: . Im Gegenteil ... wie du selber schon sagst, hier muss so effizient gearbeitet werden wie möglich, damit der Titel in 18 Monaten fertig ist. Da benutzt du so viel alten Code wie du kannst. Und da man das nicht erst seit Gestern weiß, produziert man soviel wiederverwendbaren Code wie möglich.
 
Ach ja, hat es seitens AMD nicht geheissen, alle Desktop CPUs auf einem Sockel (AM4) für mindestens die nächsten 4 Jahre unterzubringen?
Und nur einen Monat nach dem Launch des AM4 Ryzen liest man also von einer neuen Plattform samt neuem Sockel?
Ich als Gamer will mehr GHz, seit dem PhenomII eiere ich auf 3-3.5 GHz rum.
Gut, die Eckdaten der neuen Plattform klingen deutlich verlockender als AM4, seien es die PCIe-Lanes oder die Ramanbindung..
Allerdings würde mir da ein 8 Kerner völlig reichen. Naja.. ich schau mir mal an wie es so weitergeht. Noch rennt ja alles wie es soll..
 
Piranha771 schrieb:
2. Spiele Code ist kein Wegwerf Code. :rolleyes: . Im Gegenteil ... wie du selber schon sagst, hier muss so effizient gearbeitet werden wie möglich, damit der Titel in 18 Monaten fertig ist. Da benutzt du so viel alten Code wie du kannst. Und da man das nicht erst seit Gestern weiß, produziert man soviel wiederverwendbaren Code wie möglich.

Gamelogik wird billig in Skriptsprachen gebaut. Lua, Python, etc. Das ist nur deshalb nicht parallelisierbar weil die Sprachen selber das nicht können. Ja in der Engine benutzt man alten Code und die ist auch besser optimiert als jede Businessanwendung dieser Welt. Aber die Gamelogik ist es eben nicht: das ist der Wegwerfcode weil der eben nur für dieses eine Spiel und vielleicht einen Nachfolger genutzt wird.
Es gibt sehr hoch parallelisierte Spiele: Crysis 3, BF1, etc. die gut auf vielen Kernen skalieren. Und es gibt noch viel mehr Spiele die das nicht tun.
D.h. es ist offensichtlich machbar und wird offensichtlich trotzdem nicht gemacht. Warum wohl?

Man sollte eigentlich jede Spielfigur in einem eigenen Thread laufen lassen können. Jedes Geschoßpartikel wenn man will, jedes Raumschiff, jeden Panzer auf dem Schlachtfeld, etc.
Aber das kostet natürlich Unmengen an Entwicklerzeit die niemand aufbringen und bezahlen will.
 
Nein, nicht als Hackintosh, nur zum Rendern als Rechenknecht.

Das Thema Hackintosh werde ich wohl in jedem Fall vermeiden. Das wäre mir zu viel Arbeit am System oder den Komponenten damit alles läuft - wenn es denn laufen könnte. Ich benutze den Mac wie einen Fernseher oder eine elektrische Zahnbürste - muss eben einfach funktionieren ohne dass ich mich mit dem Betriebssystem auseinandersetzen muss.


PsychoPC schrieb:
Warum muss in jedem CPU Thema immer es sich um GAMER drehen? Was jucken mich die Gamer die ihr halbes Leben nur vom PC verbringen? :freak:



Versteh das jetzt richtig? Du willst dir ne Ryzen anschaffen für MacOS aka Hackintosh?
 
Genau dass macht den unterschied aus nur macht es fast keiner da es einfach zu aufwendig ist Scripting ist billiger und schneller.

Wenn ich mir so HL2 oder Crysis ansehe denke ich mir manchmal irgendwie komisch dass da die Ki und Physik bei solchen alten Games so gut und bei den neuen nicht. Ganz einfach weil es aufwendig ist Zeit kostet, aber genau da könnte man gut Parallelisieren.

Ironisch ist auch dass Zelda BotW eine viel lebendigere Welt hat als das HZD von Sony, okay HZD sieht besser aus aber dass wars auch schon, aber die Welt ist trotzdem irgendwie nicht lebendig finde ich.
 
Für die Arbeit interessant. Unsere Tester haben ja mit ihren (ineffizienten) Matlab Umgebungen so einige Probleme. Da läuft ein Test schon mal mehrere Tage. Eigentlich ist das ja nur ein Backbox-Test, sprich man stimuliert den Eingang und schaut sich den Ausgang an. Solche Aufgaben lassen sich perfekt parallelisieren. Da wir aber nur mit Workstation Notebooks arbeiten und dort aktuell ein Core i7 das höchste der Gefühle ist, wird das uns aktuell nichts bringen :(
 
derbe schrieb:
Das stimmt so nicht, wenn man sich Informiert wird man feststellen das man z.B mit FFMPEG und NVenc nah zu gleich Qualität erhalten kann. Und Kodiert 10x so schnell. Man brauch auch keine teurer Karte die 1050 2GB macht es genauso gut wie ne Titan Pascal, die Reihe ist entscheiden.

@Snowiron

Lass dich nicht beirren! Klar wenn man die letzten 2-3% mehr Qualität unbedingt braucht nutze man die CPU, aber als Privater völlig uninteressant, vor allem bei den Kosten absolutes K.O.


Bitte schreib keinen Unsinn und tu so, als wären alle anderen doof!

Die Qualität beim encoden über Grafikkarten (egal ob Intel oder Nvidia) ist BEI WEITEM schlechter, als wenn ich x264/x265 per CPU verwende. Alleine die Möglichkeiten der Features und Settings ist dort viel umfangreicher. Die Grakas beherrschen sozusagen nur die absoluten Grundfunktionen. K.A. woher du deine 2-3% her nimmst (Bildqualität misst man nicht in %), aber ein Blinder würde den Unterschied erkennen.

Klar, die benötigte Zeit ist enorm, aber wenn man HD oder UHD Material wirklich in bester Qualität encoden will, dann führt kein Weg an der CPU vorbei.
Wenn ich nur schnell ein Video für mein iPad codieren will, ok, aber ich archiviere hier z.B. Videos in bestmöglicher Qualität.
 
Zurück
Oben