News AMD Engineering Samples: Ryzen mit 12 und 16 Kernen sowie mehrere Raven Ridge

Das Mediamarkt jetzt noch keine Ryzen-Systeme im Portfolio hat, liegt wohl eher daran, dass es noch kaum OEM-Systeme mit Ryzen gibt. Mediamarkt kann ja schlecht verkaufen, was sie noch nicht erhalten haben.
 
berkeley schrieb:
Was ist das denn für ein Schwachsinn? Eine R7 1700 verbraucht unter Prime Vollast lt. TH etwa 20W mehr als ein i5 7400 oder i5 7500 (...) kommt kein einziger Intel bei der Effizienz hinterher, egal wie man es dreht.

Und wieder, absolut betrachtet kann man den vebrauch durchaus als hoch ansehen, kommt auf die Bezugsgröße an! Warum immer diese dämlichen intel vergleiche? Außerdem betrachtest du wieder die Effizienz und nicht den absoluten verbrauch. Anderes beispiel, findest du, dass die GTX 1080Ti eine sparsame grafikkarte ist? Ich meine die leistung z.B. im bezug auf eine Fiji oder Fermi Grafikkarte ist schon enorm. Aber nein, es ändert nichts daram, dass sie absolut betrachtet viel Strom für eine Grafikkarte schluckt. und nichts anderes ist es mit den ryzen Octacores. natürlich sind sie effizient, dass hat auch keiner bestritten, aber am Ende sind es trotzdem keine sparsamen CPUs!

Aber es ist hier im Forum ja sowieso so, alles was AMD nicht in den Himmel lobt (wobei die Aussage nicht negativ für AMD war) wird gleich zu tode diskutiert. Ist ja schlimm hier. Da werden einfachste Aussagen so oft rumgedreht und mit etwas verglichen, bis am Pro AMD argumentieren kann, obwohl die grundaussage nicht mal ein vergleich war.
 
16 physische Kerne, Quad-Channel Interface, konkurrenzfähiger Verbrauch. Was kann da noch schief gehen? Intel geht es gut an den Kragen und ich werde wahrscheinlich dann auch vom LGA2011 wechseln. Vorausgesetzt der Start verläuft nicht so holprig wie aktuell mit Ryzen (wobei sich die Wogen glätten).
 
@Neronomicon

Warum sollte man das machen? Am besten takten wir ein Intel Xeon E7-8890 v4 auf 1 GHz herunter und vergleichen ihn dann mit einem 7700K...
 
Cool Master schrieb:
Unterschreibe ich aber erneut, der Mainstream Markt spielt keine hochkomplexen 3D Spiele sondern Browser Games auf Facebook.

Nö sehe ich nicht so. Ich hab meiner Mutter erst ein Skylake Celeron gekauft der für sie völlig aussreicht

Dein Argument ist, mit Verlaub, blödsinnig. Zu behaupten, alles >QuadCores ist für die breite Masse nicht nötig, hatten wir schon so ähnlich. Vor der Zukunft die Augen zu verschließen, nützt niemandem etwas.

Vor 15 Jahren hat man auch schon gesagt, wer braucht schon nen DualCores. SingleCore & hoher Takt ist wichtiger.
Dasselbe damals bei Sandy, "wozu der I7, der I5 reicht vollkommen" und heute sind sie am schreien,"hätte ich nur".

Natürlich reicht Stand heute ein Celeron. Reicht er in 10 Jahren, ich bezweifle es.
(8k Inhalte, neue Codierungen)

Die Ryzen "9" sind doch nicht am Mainstreammarkt gesetzt, wenn man AMD selbst vertraut. Diese CPUs sind für den Nerd mit ein bisschen Geld. Ryzen 9 ist quasi die CPU der Zukunft, die man dann erhalten könnte. Dasselbe mit den Skyleake E's.


Die Entwicklung mehr Kerne ist ,Stand der bekannten Technik ,die einzige Möglichkeit, die Leistung Signifikant zu steigern und der(bis jetzt) einzige gangbare Weg.
 
D708 schrieb:
Dein Argument ist, mit Verlaub, blödsinnig. Zu behaupten, alles >QuadCores ist für die breite Masse nicht nötig, hatten wir schon so ähnlich. Vor der Zukunft die Augen zu verschließen, nützt niemandem etwas.

Warum ist es Blödsin? Damals war die IPC unter aller Sau was heute einfach nicht mehr der Fall ist. In einem Blindtest würdest du mit 100% kein Unterschied zwischen einem Celeron und i7 feststellen, bei gleichwertiger HW (8 GB Ram, SSD, iGPU), wenn es um einfache Office arbeit geht.

D708 schrieb:
Vor 15 Jahren hat man auch schon gesagt, wer braucht schon nen DualCores. SingleCore & hoher Takt ist wichtiger. Dasselbe damals bei Sandy, "wozu der I7, der I5 reicht vollkommen" und heute sind sie am schreien,"hätte ich nur".

Wer ist am schreien? Richtig die Gamer. Sprich die Leute über die wir hier nicht sprechen. Einige wollen das wohl nicht kapieren das dies nicht der Nabel der Welt ist. Der Großteil der Computer welche verkauft werden sind OEM Rechner ausm Media Markt oder Aldi und keine Selbstbau Rechner mit i7 und 1080 Ti.

Wie gesagt einige Leute fahren noch mit einem Core2Duo ohne Probleme. Beste Beispiel mein Vater an seinem Laptop. Dem habe ich meine alte Samsung 840er eingebaut und für den langt das Teil ohne Probleme für Skype, Office und Browser und genau diese Aufgaben gehören zu dem Mainstream Consumer. Es bringt also nichts dort mit Quad, Hexa oder Octacore dran zu gehen die CPUs sind völlig obersized und bringen außer höhere Kosten nichts.

D708 schrieb:
Natürlich reicht Stand heute ein Celeron. Reicht er in 10 Jahren, ich bezweifle es.
(8k Inhalte, neue Codierungen)

Klar tut er das. Es geht NICHT um Spieler wie oft muss man das noch sagen? Der 0815 Mainstream User ist einfach kein Zocker. Den Leuten langt eine CPU mit iGPU und 1080p Display die nächsten 10 Jahre ohne Probleme. Warum sollte sich daran was ändern? Der Mac in meiner Signatur geht ja heute auch noch ohne Probleme (hat ne 850 Evo drin).

D708 schrieb:
Die Ryzen "9" sind doch nicht am Mainstreammarkt gesetzt, wenn man AMD selbst vertraut. Diese CPUs sind für den Nerd mit ein bisschen Geld. Ryzen 9 ist quasi die CPU der Zukunft, die man dann erhalten könnte. Dasselbe mit den Skyleake E's.

Korrekt Ryzen 3, 5, 7 und 9 und was es noch alles gibt ist nicht für den Mainstream da. Der Mainstream sind die APUs und die werden auch noch in 10 Jahren ohne Probleme laufen.

D708 schrieb:
Die Entwicklung mehr Kerne ist ,Stand der bekannten Technik ,die einzige Möglichkeit, die Leistung Signifikant zu steigern und der(bis jetzt) einzige gangbare Weg.

Streitet ja auch niemand ab! Aber mehr Kerne sind nicht für jeden wichtig!
 
digitalangel18 schrieb:
Da das Design scheinbar nicht schneller geht müssen mehr Kerne dazu. Bringt für den Großteil der privaten Endkunden ab 6 oder 8 Kernen aber nicht mehr viel. Ich bin da aktuell eher auf den 6 Kern Coffee-Lake gespannt, wenn der mit 7700K Taktraten an den Start geht wird er in der gefühlten alltäglichen Performance meist die Ryzens stehen lassen, und trotzdem noch ein paar Threads "in Reserve" haben um neben dem Gaming zu Streamen o.ä.

Wird er aber nicht. Der 7700k kommt ja jetzt schon an die 80C. 2kerne mehr und du kannst darauf kochen. Sieht man doch schon am 6900k der Takt kommt auch nicht in die Nähe des 7700k.
 
Shoryuken94 schrieb:
Und wieder, absolut betrachtet kann man den vebrauch durchaus als hoch ansehen, kommt auf die Bezugsgröße an! Warum immer diese dämlichen intel vergleiche? Außerdem betrachtest du wieder die Effizienz und nicht den absoluten verbrauch. Anderes beispiel, findest du, dass die GTX 1080Ti eine sparsame grafikkarte ist? Ich meine die leistung z.B. im bezug auf eine Fiji oder Fermi Grafikkarte ist schon enorm. Aber nein, es ändert nichts daram, dass sie absolut betrachtet viel Strom für eine Grafikkarte schluckt. und nichts anderes ist es mit den ryzen Octacores. natürlich sind sie effizient, dass hat auch keiner bestritten, aber am Ende sind es trotzdem keine sparsamen CPUs!.

Abenteuerliche Argumentation! Der Idle-Verbrauch von Ryzen ist ja ebenfalls nicht hoch und wenn er gefordert wird, verbraucht er im Bezug auf die Arbeit die er leistet ebenfalls wenig und ist damit effizient, wie du selbst festgestellt hast.

Sieh´s mal so rum: Unabhängig vom Workload würden andere Prozessoren MEHR Energie verbrauchen, um die gleichen Aufgaben zu bewältigen und damit ist Ryzen auch absolut gesehen sparsam.

Cool Master schrieb:
Wie gesagt einige Leute fahren noch mit einem Core2Duo ohne Probleme. Beste Beispiel mein Vater an seinem Laptop. Dem habe ich meine alte Samsung 840er eingebaut und für den langt das Teil ohne Probleme für Skype, Office und Browser und genau diese Aufgaben gehören zu dem Mainstream Consumer. Es bringt also nichts dort mit Quad, Hexa oder Octacore dran zu gehen die CPUs sind völlig obersized und bringen außer höhere Kosten nichts.

Da widerspreche ich dir! Ein C2D Notebook ist zwischenzeitlich bisweilen auch mit alltäglichen Aufgaben überfordert. Netflix läuft z.B. auf einem T9500(!) nicht flüssig. Es ist nur eine Frage der Zeit, bis der ganz normale Wahnsinn in Form von Flash etc. auf normalen Websites die DualCores dieser Prozessorgeneration überfordert. Die Quads dieser Generation halten dagegen deutlich länger durch.

Unterm Strich kann ich nur feststellen, dass sich die Diskussionen mit jedem Fortschritt im PC Markt wiederholen. Im Jahre 2009 war auch der DualCore E8600 dank hoher Taktfrequenz die schnellste CPU zum Spielen. Retrospektiv betrachtet hatten die QuadCores aber den bedeutend längeren Atem und zwischenzeitlich gibt es ja eine ganze Reihe von Spielen, die auf weniger als 4 Threads nicht lauffähig sind. In Anbetracht der aktuellen Konsolen und deren Hardwareausstattung, muss man nun wirklich kein Prophet sein, um die genau identische Entwicklung zu prognostizieren.
 
emulbetsup schrieb:
Da widerspreche ich dir! Ein C2D Notebook ist zwischenzeitlich bisweilen auch mit alltäglichen Aufgaben überfordert. Netflix läuft z.B. auf einem T9500(!) nicht flüssig.

Und ich widerspreche dir und sage mit dem Mac aus meiner Sig läuft youtube in FHD ohne Probleme und das ist noch nen Core Duo also nicht mal ein Core 2 Duo.

emulbetsup schrieb:
Es ist nur eine Frage der Zeit, bis der ganz normale Wahnsinn in Form von Flash etc. auf normalen Websites die DualCores dieser Prozessorgeneration überfordert. Die Quads dieser Generation halten dagegen deutlich länger durch.

Was für Flash? Flash ist Tot und das schon seit einigen Jahren. Das gleiche gilt für Silverlight.

emulbetsup schrieb:
Unterm Strich kann ich nur feststellen, dass sich die Diskussionen mit jedem Fortschritt im PC Markt wiederholen. Im Jahre 2009 war auch der DualCore E8600 dank hoher Taktfrequenz die schnellste CPU zum Spielen.

Und erneut ES GEHT NICHT UM SPIELEN!
 
Cool Master schrieb:
Wer ist am schreien? Richtig die Gamer. Sprich die Leute über die wir hier nicht sprechen. Einige wollen das wohl nicht kapieren das dies nicht der Nabel der Welt ist. Der Großteil der Computer welche verkauft werden sind OEM Rechner ausm Media Markt oder Aldi und keine Selbstbau Rechner mit i7 und 1080 Ti.

Wie gesagt einige Leute fahren noch mit einem Core2Duo ohne Probleme. Beste Beispiel mein Vater an seinem Laptop. Dem habe ich meine alte Samsung 840er eingebaut und für den langt das Teil ohne Probleme für Skype, Office und Browser und genau diese Aufgaben gehören zu dem Mainstream Consumer. Es bringt also nichts dort mit Quad, Hexa oder Octacore dran zu gehen die CPUs sind völlig obersized und bringen außer höhere Kosten nichts.

Wenn jemand außschließlich im Internet surft, FHD Video´s anschaut und ab und zu ein Briefchen schreibt gebe ich Dir vollkommen Recht.

Aber ich denke wir sind hier in einem Land, dass nicht ausschließlich aus Technikverweigerern besteht.

Es gibt auch im Mainstream Anwendungen die schon heute eine gewisse CPU Leistung voraussetzen.
Der Trend der letzten Jahre geht eindeutig Richtung 4K, sei es Fernsehen oder selbst Filmen.
In in den letzten Jahren wurden z.B. überproportional viele Systemkameras verkauft. Diese Geräte Filmen in 4K und machen RAW Fotos welche noch entwickelt werden müssen, denn man will seine Urlaubsfotos und Videos ja schließlich auf seinem brandneuen 4k Fernseher betrachten.
Versuch mal Deine Fotos mit einem Core2Duo in Lightroom zu entwickeln, es ist eine Qual, 4K Videoschnitt kannst Du ganz vergessen.
 
cookie_dent schrieb:
Aber ich denke wir sind hier in einem Land, dass nicht ausschließlich aus Technikverweigerern besteht.

Jetzt mus ich mal nachhaken... Du willst doch nicht sagen, daß ein heutiger CoreDuo Nutzer ein Technik-Verweiger ist!?:o
 
cookie_dent schrieb:
Wenn jemand außschließlich im Internet surft, FHD Video´s anschaut und ab und zu ein Briefchen schreibt gebe ich Dir vollkommen Recht.

Danke, mal jemand der lesen kann! Genau auf das wollte ich hinaus weil genau das der Mainstream Consumer ist.

cookie_dent schrieb:
Aber ich denke wir sind hier in einem Land, dass nicht ausschließlich aus Technikverweigerern besteht.

Technikverweigerern würde ich nicht sagen aber realisten. Warum auf etwas neues umsteigen wenn das alte noch geht und das auch noch recht gut bis perfekt mit einem kleinen Upgrade ergo SSD, Ram etc.?

cookie_dent schrieb:
Es gibt auch im Mainstream Anwendungen die schon heute eine gewisse CPU Leistung voraussetzen.

Da es bei den Leuten aber nicht um Geld verdienen geht spielt es keine Rolle ob das Gaze 10 Min oder 15 Min brauch.

cookie_dent schrieb:
Der Trend der letzten Jahre geht eindeutig Richtung 4K, sei es Fernsehen oder selbst Filmen.

Nicht wirklich. Das meint man nur. Warum ist das so? Ganz einfach:

1. Preis --> Der geht immer weiter runter
2. Gute Verkäufer --> Dadurch das Preis immer weiter runter geht sagt der Veräufer natürlich eher kaufen Sie den 4K TV der ist besser. Obwohl das FHD Pannel welches gleich viel kostet deutlich besser ist. Aber ey ist ja ne grüßere Zahl also muss es besser sein.

cookie_dent schrieb:
In in den letzten Jahren wurden z.B. überproportional viele Systemkameras verkauft. Diese Geräte Filmen in 4K und machen RAW Fotos welche noch entwickelt werden müssen, denn man will seine Urlaubsfotos und Videos ja schließlich auf seinem brandneuen 4k Fernseher betrachten.
Versuch mal Deine Fotos mit einem Core2Duo in Lightroom zu entwickeln, es ist eine Qual, 4K Videoschnitt kannst Du ganz vergessen.

Komm sei ehrlich wer macht das? Zu 99% sind bei den Kameras jpg eingestellt weil die Leute nicht mal wissen was RAW ist. Ich bezweifel mal ganz stark das der Mainstream Consumer so vorgeht.

Das wären meiner Meinung nach eher Prosumer und kein Mainstream Consumer mehr.
 
4K ist ein klasse Werbetrick, selbst die meisten Käufer eines 4K-Fernsehers habe nichts oder wenigstens nicht viel davon. Der Ottonormalbürger guckt überwiegend normales TV, ab und an mal ein Film, welcher dann zum größten Teil nicht mal in 4K ist sondern höchstens in FHD. Dazu brauchen sie keinen Computer, der an einen Fernseher hängt, auf die Idee kommen die wenigsten. Und statt mehr CPU-Kerne, werden die Embeded-SoCs in Fernseher, Playern und Mediaboxen eher auf die IGP setzen. 4K können ja bereits so einige Geräte mit ihren Winz-SoCs decodieren. Fotobearbeitung gehört auch nicht gerade zum Mainstream, selbst mit DSLR macht nicht jeder eine Fotobearbeitung draus, Fotos können auch ohne Bearbeitung Erinnerungen in guter Qualität festhalten, früher wurde ja auch nur der Film belichtet und zum Entwickeln geschickt. Großartig Videos aufnehmen und dann noch schneiden ist auch sehr selten, eher gibt´s ein kurzen Clip, der meist unbearbeitet auf der Platte landet.
Tatsächlich wird wohl im privaten Umfeld die Gruppe der Spieler immer noch die Größte sein, die von mehr Rechenleistung profitiert, und die ist schon nicht gerade riesig. Foto- und Videobearbeitung ist deutlich dahinter. Dazu geht der Trend bei den Konsumenten immer weiter vom stationären Rechner weg zu Laptop oder sogar nur Tablet. Nicht selten findet man in einem Familienhaushalt nur einen einzigen Rechner/Laptop, kenne ich zu genüge. Während hier im Forum sich so Bekloppte wie mich tummeln, die fast in jedem Raum ein Rechner stehen haben und dazu noch Laptop und Tablet.
Aber das wird langsam alles zu sehr Off-Topic.

BTT: Mit Zen hat AMD insbesondere im Multicore-Bereich das Zeug mit Intel in Konkurrenz zu gehen. Ryzen hat ja eine schon beachtliche Leistung in Multicore-Anwendungen, wenn dann noch die neue Architektur mehr berücksichtigt wird, werden auch einige schwächelnde Anwendungen nachrücken. Gerade im Pro-Bereich kann man sich über Konkurrenz freuen, immerhin braucht man die Leistung für sein täglich Brot, wenn der Wettbewerb für bessere Preise sorgt, ist das definitiv ein Gewinn. Auch wenn einige sagen, das der Preis da keine Rolle spielt, das ist mit Nichten so, günstiger wird da auch gerne hingenommen. Nur wenn man die Leistung woanders nicht bekommt, muss man eben den Preis bezahlen. Das AMD sich mit Zen so breit aufstellt, ist für die ganze Branche gut, wir können uns glücklich schätzen, dass AMD bisher überlebt hat und wieder voll mitmischt. Zen ist ein sehr guter Wurf von AMD, so dicht wieder an Intel aufzuschließen bei deren Größe... Hätte ich nicht unbedingt mit gerechnet, nur gehofft.
Jetzt liegt es an den Kunden, dass sie auch AMD in Betracht ziehen, damit es nicht irgendwann doch noch zum Monopol kommt. Man kann auch einfach mal Überlegen, was reicht mir für welche Anwendung. Ich habe meinem Onkel eine A4-APU verpasst, auch wenn man ein besseres Preis-/Leistungs-Verhältnis bekommen könnte, nur war mehr Leistung einfach nicht nötig und auch in 4-5 Jahren wird der kleine A4 noch reichen.
 
Fragger911 schrieb:
Ich kann nur hoffen das die Software Schritt halten kann... also besser als bisher.
Wie meinst Du das, besser als bisher?
So a la Bill Gates, 640k sollten eigentlich für jeden reichen?

Die allergrößte Bloatware ist doch moderne Software an sich.
Die hält schon sehr lange nicht mehr "Schritt". Die ist der Grund warum wir 4GHz 4C/8T Monster (und jetzt noch mehr) überhaupt benötigen!

Browser bspw. sind mittlerweile Komplexitätsmomster, die es locker mit dem eigentlichen Betriebssystem aufnehmen können.

Kaum mehr ein Programm ist schlank, sauber und schnell.

Einer meiner absoluten Favoriten ist 13% CPU Last fürs Cursorblinken!

Damals wurden Hardwaregrenzen in dem Sinne gesprengt, als dass mittels Software Dinge ermöglicht wurden, die die HW eigentlich gar nicht her gab.
Heutzutage musst Du halt "nachrüsten", wenn die SW deine HW sprengt.

Sry. für den Rant, das musste mal sein.

BTT: Unter Berücksichtigung oben gesagtem sehe ich durchaus Vorteile auch Ottilie Normalo. Studies und Entwickler nehmen die Mehrleistung bestimmt gerne mit.
Twitch, FB, andere Chat prgs. Browser und evtl. eine IDE. Von dieser dann mehrere Inszanzen. Da helfen mehr Kerne schon enorm.

Oder ich habe gleich eine VM auf meinem Laptop und darin dann eine komplette Umgebung.
Alles machbar und da helfen mehr Kerne mit Sicherheit auch.

Und wenn man den Normalos mal zeigt, was die so alles anstellen können, dann Nutzen die das dann auch.
... war ja mit den Entwicklern nicht anders. ;)
 
EchoeZ schrieb:
Jetzt mus ich mal nachhaken... Du willst doch nicht sagen, daß ein heutiger CoreDuo Nutzer ein Technik-Verweiger ist!?:o

Stimmt,war evtl. etwas spitz formuliert, ein Technikverweigerer hätte erst gar keinen PC, Smartphone, usw.
Gibt ja auch Leute die noch mit nem alten Golf 1 unterwegs sind und nen Röhrenfernseher haben ;)

@Cool Master
a es bei den Leuten aber nicht um Geld verdienen geht spielt es keine Rolle ob das Gaze 10 Min oder 15 Min brauch.

Meine vor Ryzen CPU war ein PhenomII 965 @3,6GHz, sicherlich konnte ich auch mit dem 4K Material rendern.
Allerdings war der PC dann mal gerne 3-4 Stunden blockiert weil er am Anschlag arbeitete, den selben Workflow arbeite ich jetzt in ca. 30 Minuten ab und kann nebenbei noch im Netz surfen, das füllt zwar nicht meinen Geldbeutel, schont aber meine Nerven.

Komm sei ehrlich wer macht das? Zu 99% sind bei den Kameras jpg eingestellt weil die Leute nicht mal wissen was RAW ist. Ich bezweifel mal ganz stark das der Mainstream Consumer so vorgeht.

Da gebe ich Dir teilweise Recht, aber zumindest in meinem Bekanntenkreis sind Leute die die Möglichkeiten der erworbenen Kamera auch ausnutzen wollen, sonst hätte man sich den Kauf sparen können und würde weiterhin mit dem Handy knipsen.

@Ozmog
4K ist ein klasse Werbetrick, selbst die meisten Käufer eines 4K-Fernsehers habe nichts oder wenigstens nicht viel davon. Der Ottonormalbürger guckt überwiegend normales TV, ab und an mal ein Film, welcher dann zum größten Teil nicht mal in 4K ist sondern höchstens in FHD. Dazu brauchen sie keinen Computer, der an einen Fernseher hängt, auf die Idee kommen die wenigsten


Ist schon klar, auch wenn es heute noch kaum 4K Material gibt sind die Weichen aber schon dort hin gestellt.
Auch der Wechsel von SD nach Full HD hat seine Zeit gebraucht.
 
4k mag lange Zeit ein Werbemittel gewesen sein, aber jedem hier empfehle ich mal auf einem guten 1080p Panel 50 Zöller die BluRay Iron Man 1-3 einzulegen. Und direkt danach auf einem guten 4k Panel 50 Zöller mal die 4k Version des Films zu schauen.

Ob Werbemittel oder nicht, die Qualität ist überzeugend. Aber ich stimme zu, dass auf dem PC 4k noch lange nicht angekommen ist. Dazu sind die Monitore noch teilweise einfach zu teuer, geschweige denn die Hardware/Software weit genug um Spiele eben durchweg flüssig auf dieser Auflösung zu fahren. Das kann sich da erst durchsetzen, wenn die Hardware die das schafft in der oberen Mittelklasse angekommen ist, erst dann kann es zu einer höheren Verbreitung kommen.
 
Zurück
Oben