News AMD Tech Day: Ryzen-2000-CPUs ab April, Threadripper 2000 ab Sommer

Smartcom5 schrieb:
Zumal ja mit dem Prozesswechsel die omnipräsente und so bekannte 4-GHz-Schallmauer wegfällt, aber daß kann man gebetsmühlenartig wiederholen – begreifen werden es die Wenigsten.

woran machst du das aktuell fest? Sowas könnte man schreiben wenn es ES mit Turbo 4,5 Ghz gäbe oder Modelle und Taktraten bekannt werden. Bisher spricht aber wenig dafür dass sich an der 4 Ghz Mauer viel tut.
 
Es spricht allerdings genauso wenig dagegen. Wir haben es immerhin mit einem neuen, erweiterten Prozess zu tun. Low Power Plus gegen Leading Performance. LPP war ja nun ein Prozess, der vornehmlich für mobile Anwendungen gedacht war/ist.
Ein ES ist auch ein schlechtes Mittel um auf die Fähigkeiten des Serienproduktes zu schließen, insbesondere, da es sich um ein 2600 handelt, der sowieso keine hohen Taktraten erhält, daher wird da auch kein Turbo von 4+GHz sein.
Der Turbo muss dann auch nicht die Grenze bei der Taktung sein, ganz im Gegenteil insbesondere bei solch einem "kleinen" Modell.

Ohne Tests des Serienproduktes kann man eigentlich auf fast nichts schließen.
Wunder erwarte ich nicht, ein Plus von 10% sollten aber tatsächlich drin sein, bei 4,1-4,2GHz (TR) geht es schon steil nach 4,5 GHz mit diesen 10%.
Wir werden sehen....
Interessanter wird es mit Zen 2 nächstes Jahr, Verbesserungen der Architektur, völlig anderer Prozess in 7nm (LP?)...mit mehr IPC ist da schon zu rechnen und wie sich Zen dann mit diesem Prozess im Takt und Effizienz verhält, ist soweit noch unbekannt.
 
Krautmaster schrieb:
Bisher spricht aber wenig dafür dass sich an der 4 Ghz Mauer viel tut.

Ich wette mal ein virtuelles Bier drauf, dass sich die durchschnittliche OC Ergebnis im Mittel mit Einfuehrung der neuen Serie um 10%+ nach oben verschiebt. Du schreibst es spraeche wenig dafuer... korrekt. Es spricht aber auch garnichts dagegegen.
 
Zuletzt bearbeitet von einem Moderator:
Krautmaster schrieb:
woran machst du das aktuell fest? Sowas könnte man schreiben wenn es ES mit Turbo 4,5 Ghz gäbe oder Modelle und Taktraten bekannt werden. Bisher spricht aber wenig dafür dass sich an der 4 Ghz Mauer viel tut.

Doch es spricht sogar alles dafür: GF-Pressematerial, AMD-Pressematerial. Nur du sprichst dagegen.
 
Also wenn nicht mehr Takt rauskommt, was soll dann der Wechsel überhaupt für einen Sinn machen? Nur die Freigabe für 2933er RAM? Das wäre zu wenig, zumal AMD ja offenbar die Preise der aktuellen RYZEN CPUs schon gesenkt, also deren Abverkauft betreibt, was dann auch die Gewinne mindert und wenn man nichts neues bietet, wie es sich ja nun für die 400er Chipsätze abzeichnet, warum sollte dann überhaupt jemand zu den neuen CPUs greifen wollen? Die müssen die Kunden mit mehr Leistung von den neuen Modellen überzeugen, da es keine großen Überarbeitungen bei der Architektur gegeben zu haben scheint, kann dies nur über mehr Takt erfolgen und die Fertigung spart nur 15% Fläche ein, bis die Kosten für die neuen Masken (mit Validierung etc.) alleine damit wieder drin wären, müssten sehr viele CPU verkauft werden, wenn da nicht auch noch mehr Leistung durch mehr Takt rauskommt, würde sich der Umstieg auf 12nm wohl kaum lohnen.
 
Krautmaster schrieb:
Smartcom5 schrieb:
Zumal ja mit dem Prozesswechsel die omnipräsente und so bekannte 4-GHz-Schallmauer wegfällt, aber daß kann man gebetsmühlenartig wiederholen – begreifen werden es die Wenigsten.
woran machst du das aktuell fest? […] Bisher spricht aber wenig dafür dass sich an der 4 Ghz Mauer viel tut.
Mhm … Möglicherweise am … Prozess|wechsel?
Eigentlich sollte man ja annehmen, daß das vorausschicken der Antwort (Beitrag #420) auf etwaige später aufkommende Fragen (Beitrag #423) einen auflösenden Effekt haben sollte, aber nun ja.

Ist ja nicht so, daß man die präzise Erklärung für meine Hypothese lediglich drei Beiträge vorher eruieren konnte … blinz15x18.gif
Smartcom5 schrieb:
Der Grund der harten Takt-Mauer war ja der bisherige Fertigungsprozess, welcher ursprünglich ausschließlich für Mobil-SoCs und Ultra-portables entwickelt wurde. Ich denke er wird 'weicher' und wird die Grenze auf jeden Fall nach oben hin verschieben – wenngleich bei verringerter Effizienz.

Ich habe das alles schon vor über einem halben Jahr versucht aufzuzeigen (da warst Du in den jeweiligen Themen übrigens dabei) – wenngleich leider etliche Beiträge davon aus unerfindlichen Gründen (und für mich nicht nachvollziehbar und daher grundlos) baden gegangen sind (Beispiel);
Smartcom5 schrieb:
Du scheinst zu vergessen, daß Globalfoundries‘ 14 nm Prozess-Derivat von Samsung ein 14nm LPP (Low-Power Plus) und der LPP+ – indem anzunehmenderweise sehr wahrscheinlich Zen+ gefertigt werden wird – ein Prozess explizit für mo·bi·le und hocheffiziente Ultra-portable SoCs ist, welcher in ganz überwiegendem Maße auf Effizienz zuungunsten des Taktes getrimmt ist.

Das ist der einzige Grund, weswegen Ryzen keine hohen Takte fahren kann;
Der Prozess erlaubt es schlicht nicht und ist auch in überhaupt keinem Maße dafür geeignet, aber daß wußte man bereits zuvor. AMD hat halt Effizienz für wichtiger gehalten – was im Hinblick auf Skylake-X ja nun wirklich keine schlechte Option gewesen zu sein scheint.

GloFo‘s 14 nm LPP ist kaum vergleichbar mit einem Prozess für ausgewachsene, große oder hochtaktende Prozessoren wie Intel's aktueller 14nm es ist. Dafür gibt es dann Samsung's LPH, Advanced & LPC als nächste Generationen des 14-nm-Prozesses während Globalfoundries an HP's SOI High Performance tüftelt und ihre eigene Weiterentwicklung 14 nm LPP+ vorantreibt – wobei man diesen Prozess dann variabel entweder als hocheffizient (Super Low Power) oder auf hohen Takt (High Performance) auflegen kann.

Wenn Zen+ in diesen skalierenden Hochtakt-Prozessen aufgelegt wird, dürfte eine Steigerung von +25% als Basis auf dem Weg nach oben angesehen werden …
Smartcom5 schrieb:
Ein Wechsel auf 14nm LPP+ ist doch keine „Optimierung des Fertigungsprozesses“?!
Und das ist auch keine dubiose Spekulation sondern schlichter Fakt.
Der bisher und aktuell für Ryzen, Threadripper & Epyc verwendete 14nm LPP ist ein mo·bi·ler Prozess explizit für Ultra-portable SoCs wie Apple's A10, Qualcomm‘s Snapdragon oder MediaTek‘s Helio – eben auf extremste Effizienz aber niedrige Taktraten getrimmt. Das ist eigentlich kein Prozess für Desktop-Prozessoren – er ist de facto dafür eigentlich gänzlich ungeeignet oder zumindest deutlich weniger gut geeignet, da man damit po·ten·tiell das Hochtakt-Potential von Desktop-CPUs vernichtet oder wenigstens nicht ausschöpfen kann.

… und daß AMD mit Ryzen auf einem mobilen Prozess trotzdem noch immer extrem effizient die 3,6-4 GHz fahren kann, läßt ziemlich tief auf die Effizienz und grandiose Architektur von Ryzen blicken.

Würde man Ryzen vollkommen unverändert in Intel's 14 nm++ auflegen, würde ein solcher, dieser Ryzen mit geradezu erschreckender Leichtigkeit lachend die 5 GHz-Hürde nehmen.

Vergleiche diesen Prozess einmal mit Bulldozer‘s 5, 6, 7 oder 8 GHz. Das war ein High Performance-Prozess für Prozessoren, der 32 nm damals. Sollte man Ryzen, wiederum architektonisch vollkommen unverändert, im High-Performance-Schema des 14nm LPP+ auflegen, würde er ebenfalls deutlich höher takten können und eine deutlich gesteigerte IPS liefern.

Bei der Entwicklung [von Ryzen] standen drei Aspekte im Vordergrund: Performance, Durchsatz und Effizienz
Ryzen ist doch so schon geradezu erschreckend und für Intel ganz bestimmt angsteinflößend effizient. Nicht nur, weil es eine vollkommen bestialisch auf Durchsatz, Effizienz und Leistung getriebene Prozessor-Architektur ist, sondern weil AMD sich auch noch unverschämterweise angeschickt hat, einen mobilen Fertigungsprozess zu nutzen – und trotzdem Intel in Sachen IPC auf dem Weg und der Treppe nach oben die Hacken eintritt.

Ryzen ist die erste µarch, welche nicht nur erstmals bei AMD durch vollkommen automatische Architektur-Entwicklungs-Umgebungen entwickelt wurde, wie sie seinerzeit durch Zukauf von ATi‘s IPs und deren Erfahrung beim Einsatz solcher bei der Entwicklung von GPUs eingesetzt wurde, sondern auch entsprechende High-Density-Verfahren mitbrachte und diese nun auf Big-x86 appliziert – die schon beim Testlauf bei Excavator +100% Effizienz-Steigerung brachte (das ist übrigens Mehr als von Netburst zu Core 2 …).
Die ganzen Konsolen waren lediglich Spielwiese und Testlabor. Offensichtlich höchst erfolgreich.

Like.no.other™
Setze das bitte einmal in Relation!
Es scheint immer wieder unter zu gehen, aber AMD hat mit Ryzen nicht nur mit einem Bruchteil des Forschungsbudgets von Intel sondern auch praktisch zehn Jahre Entwicklung mit den unbegrenzten Intel'schen Abermilliarden aufgeholt.
Mit einem einzigen Entwurf, und der allerersten Ausbaustufe. Auf einem Fertigungsprozess für Mobil-SoCs und Ultra-portables.

Das ist keine schallende Ohrfeige – und das ist auch keine Beleidigung der Intel-Aktionäre mehr.
Das nennt man Hohn.
Aldaric87 schrieb:

In meinen Augen muss Ryzen auch keinen höheren Takt fahren, wenn die Leistung je Kern gesteigert werden kann. Es gab ja irgendwo im Forum einen Expertenbeitrag zu Ryzen, wo in der Architektur Flaschenhälse sind, die behoben werden können mit einem neuen Stepping. Ich vermute das ist der Hauptgrund für Zen+. Es wird ein neues Stepping und offensichtliche (für die Ingenieure zumindest) Flaschenhälse beseitigt. Ob da nun der Takt oder die IPC steigt ist ja Wurst, solange hinten noch mehr raus kommt. …
… wenn man jedoch die von @Aldaric87 angesprochenen Architektur-Optimierungen einbringt, welche sicherlich 5-7%, möglicherweise gar +10% Prozent Leistung im Sinne von gesteigerter IPC ausmachen können und obendrein diese verbesserte Version aka Zen+ auf einem Hochtakt-Prozess wie dem 14nm LPP+ auflegen würde …

Na, was denkst Du denn, was man dann da heraus bekommt?
Das wird eine Multicore-Bestie mit mindestens gleichwertiger Intel-IPC und wenigstens dem halben Takt-Potential von Bulldozer. Und daß Bulldozer außerordentlich spurtfreudig ist, was das Übertakten angeht, ist denke ich bekannt …


In diesem Sinne

Smartcom
 
Smartcom5 schrieb:
Ryzen ist die erste µarch, welche nicht nur erstmals bei AMD durch vollkommen automatische Architektur-Entwicklungs-Umgebungen entwickelt wurde,...

War das nicht schon bei Bulldozer der Fall? Ich meine mich vage zu erinnern, dass damit zu Phenom-Zeiten groß (vll auch klein) getönt wurde, dass man nun die Entwicklung durch fertige Bausteine automatisiert hat bei der Bulldozer-Architektur.
 
rg88 schrieb:
War das nicht schon bei Bulldozer der Fall? Ich meine mich vage zu erinnern, dass damit zu Phenom-Zeiten groß (vll auch klein) getönt wurde, dass man nun die Entwicklung durch fertige Bausteine automatisiert hat bei der Bulldozer-Architektur.

Durch fertige Bausteine im Sinne von bereits fertig entwickelten Blöcken an IP/Modulen, die dann je nach gewünschtem Schaltungsaufbau zusammengefügt wurden, ja.

Ryzen ist aber die erste Architektur, die nicht händisch von Ingenieuren entworfen wurde, sondern wo dem Rechner respektive einer automatisierten Entwicklungsumgebung (i.S.v. Prozessor-algorithmisch) der eigentliche Entwurf anvertraut wurde. Analog wie dem händischen programmieren Zeile für Zeile und dem 'zusammenschustern' eines Programms mit Hilfe und von einer IDE (deklarativ; bswp. Visual Studio). Soll heißen, die Funktionseinheiten und Anordnung wurde nicht „nach „alter Schule“ händisch von den Entwicklern entworfen, sondern eine Rechner-gestützte Prozess- & Schaltungsoptimierungs-Umgebung fand hier Anwendung.

Salopp gesagt: Das Programm sagt, der Cache oben links an der Äußeren Ecke des Block-Schaltbildes des Prozessors-Layouts ist dort leistungsgünstiger, da es rechnerisch schneller angebunden ist (z.Bsp. hier, näher an einem Ringbus) und eine um 0,02 ns verringerte Latenz ermöglicht – auch wenn bei der Betrachtung der fertigen Zusammenstellung des IP-Blocks dem Chipentwickler graue Haare wachsen und er erstmal logisch betrachtet das Ganze für groben Unfug halten mag. Das ist eigentlich bloß Computer-integrated manufacturing auf Schaltungsebene um um Funktions-Simulationen des Layouts erweitert.

Beispielsweise wenn der Rechner meint, diese und jene Funktionseinheiten sind in der Zusammensetzung dort besser auf gehoben. Das kann auf den eigentlichen Entwickler zwar auf den ersten Blick und selbst bei studieren des Schaltbildes jetzt keinen wirklichen Unterschied ergeben – da eine sehr ähnliche Zusammenstellung logisch betrachtet vom Menschen an anderer Stelle im IP genauso vorhanden gewesen wäre, allerdings erlaubt gerade diese algorithmisch errechnete Konstellation eine erheblich schnellere Befüllung der Pipeline nach einem flush oder Ähnliches.

Das ist wie der 4. Boxenstop in Magny-Cours von Schumacher damals, der schlußendlich zum Sieg geführt hat – entgegen allen Erwartungen. Die Logik spricht dagegen, aber Ross Brawn hatte seinerzit ganz genau nachgerechnet und kam zu dem Ergebnis, daß Schumacher unterm Strich durch die geringe Spritmenge und -Gewicht schneller war, auch wenn er deutlich mehr Zeit als jeder Andere in der Boxengasse 'verbrannt' hat.


In diesem Sinne

Smartcom
 
@Smartcom: ja, das Grundprinzip ist mir schon klar. Aber danke nochmal für die detailierte Ausarbeitung.

Ich bezog mich eher auf das, dass es eben nichts neues ist, sondern schon bei Bulldozer so gemacht wurde. Nur damals halt mit dem gegenteiligen Effekt: Unmengen an Transistoren, höher taktbar (was wohl ein 8-Kerner K10 auch nicht schlechter geschafft hätte bei 32nm statt 45nm), dafür keine IPC-Verbesserungen und miese Effizienz (alles im Vergleich zum Phenom X6).
http://www.gamestar.de/artikel/amd-...ign-an-fehlender-leistung-schuld,2561410.html

Keine Ahnung was du beruflich machst, also ob du wirklich Einblick hast in die (AMD-)Entwicklung hast oder "nur" angesammeltes Wissen gut aufarbeitest.
Aber ich denke du verstehst, auf was ich hinaus will.
 
  • Gefällt mir
Reaktionen: Smartcom5
War bei Bulldozer aber nicht weniger das Design das Problem, sondern der überaus (wenn nicht gar extrem) schlechte Fertigungsprozess ?
 
@Aldaric: Nein, die Grundidee der Architektur war einfach falsch.

Im Endeffekt wollte man in "besseres HT" in Silizium haben. Also 4 Kerne vom Platzbedarf aber dabei 8 Threads ausführen. Das ganze ging halt gewaltig nach hinten los.
Liegt aber mMn auch daran, dass die 8-Kerner niemals als 8-Kerner verkauft werden hätten dürfen. Was bringt es, wenn man 2 Kerne hat aber diese nicht das selbe machen können.
Ganz krass finde ich da die 1-Moduler "Dual-Core"-Modelle. Je nach Art der Aufgabe war es faktisch nur ein Single-Core.

Klar die Fertigung war auch nicht das Gelbe vom Ei, aber bei einer guten Architektur wäre da relativ egal gewesen. Man hat eben die Entwicklungszeit in den falschen Ansatz gesteckt. Ein Phenom II X6 war teilweise schneller als ein 8-Kerner-Bulldozer (Klar, war ja auch nur ein 4 Moduler). Das hätte nicht sein dürfen, dass man Jahre lang eine neue Architektur entwickelt. welche exakt die Fehler des Pentium 4 kopiert (Optimierung auf hohen Takt, miese IPC) und sich dann nicht mal von den eigenen Vormodellen absetzen kann.

Das was Excavator war, also die letzte Ausbaustufe des Bulldozers, hätte am Anfang da sein müssen (nicht von der Fertigung, sondern von der Architektur im Sinne von Transistoren zu Leistung). Und ich glaube auch, dass nach der Markteinführung von Steamroller nur noch ein paar Hansel an der Weiterentwicklung beschäftigt waren. Wenn nicht gar davor schon. Dass die Architektur ein Rohrkrepierer ist, wussten die Leute ja schon zum Release.
Wenn man die ganzen Verzögerungen bedenkt, wüsste ich gerne was da rausgekommen wäre, wenn die pünktlich geliefert hätten. Also wie mies die IPC oder der Takt gewesen wären zu dem anvisierten Zeitpunkt.

Man hat ja bei der Vorstellung von Ryzen gesehen, wie die Entwickler in den Reihen gesessen haben, als Lisa ihnen gedankt hat. Das war eine euphorische Stimmung wie noch nie bei AMD. Die wussten, was die da für eine Machtwerk hingesetzt haben. Nochdazu ist das die erste Iteration ohne große Optimierungen. Da kann noch viel kommen die nächsten Jahre.

Ganz andere Sache:
Die Katzenkerne wurden ja irgendwie "nebenbei" entwickelt. Diese haben eigentlich AMD gerettet durch die Custom-SoCs/APUs.
Ich hätte eigentlich keine Ryzen erwartet, sondern einen enorm geshrinkten 8-Kern-Jaguar.
Der Ryzen mit einer komplett neuen Architektur kam insofern viel überraschender für alle.

Was ich aber bis heute nicht verstehe, warum man nicht die Bulldozer früh genug eingestampft hat und auf der eh schon vorhanden Katzen-Architektur zumindest einen brauchbaren Übergang mit echten Kernen hingestellt hat bei aktueller Fertigung.
Zumindest bis man Ryzen raushaut. Man hatte eigentlich einen guten Pfeil im Köcher, hat ihn aber nicht genutzt. Warum auch immer.
 
rg88 schrieb:
Was ich aber bis heute nicht verstehe

Vermutlich waren die Entwicklungsresourcen zu dem Punkt schon so knapp, dass man wirklich alles in Zen gesteckt hat (was ja eine weitlaeufige Puma Weiterentwicklung ist, zumindest Core seitig). Die Bulldozer derivate haben sich in OEMs ja noch verkauft und viel besser waere es kurzfristig nicht geworden. Es gibt bis heute kein einziges AMD Business Geraet von HP oder DELL mit Ryzen Architektur. Man haette einfach kein vernuenftiges return of investment dafuer erhalten.
 
War das nicht mal eine Ansage von AMD? Vielleicht aber auch ein Gerücht:
Ich habe damals gelesen, dass Zen zwar eine richtige Neuentwicklung ist, jedoch auch von vorherigen Entwicklungen gestützt wurde und dabei mehr von Jaguar/Puma als von Piledriver/Excavator mit drin haben soll.
Das Rad wird auch bei der Prozessorentwicklung ja nicht ständig neu erfunden, es gibt quasi immer Einflüsse von vorangegangenen Entwicklungen.
Bei Zen hat man dann von den Erfahrungen durch Jaguar/Puma mehr profitiert, als von den Erfahrungen aus Bulldozer und dessen Nachfolger (außer natürlich der Erfahrung, dass das CMT mit den Modulen die falsche Richtung ist/war)

Ich habe bei mir HTPC mit Jaguar (Kabini Athlon 5370) als auch Excavator (Kaveri A8-7600 45W cTDP)
Ich werde sukzessive alle meine Geräte auf Ryzen umrüsten und dabei wird definitiv der Kabini als letzter ausgetauscht, der eignet sich als reine HTPC-APU besser als mein Kaveri.
Als erstes muss ich aber eine Lücke schließen und damit ein komplettes System aufbauen. Ich warte also auf den Ryzen 5 2400G (Ja, für einen HTPC oversized aber er wird da nicht auf Dauer bleiben, damit ist ein anderes System geplant, welches aufgebaut wird, wenn Raven-Ridge als "S" -Modelle erhältlich sind, also Low-Voltage-APU mit 35W TDP und diese dann in den HTPCs einziehen)
 
Ozmog schrieb:
War das nicht mal eine Ansage von AMD? Vielleicht aber auch ein Gerücht:
Ich habe damals gelesen, dass Zen zwar eine richtige Neuentwicklung ist, jedoch auch von vorherigen Entwicklungen gestützt wurde und dabei mehr von Jaguar/Puma als von Piledriver/Excavator mit drin haben soll.
Das Rad wird auch bei der Prozessorentwicklung ja nicht ständig neu erfunden, es gibt quasi immer Einflüsse von vorangegangenen Entwicklungen.
Bei Zen hat man dann von den Erfahrungen durch Jaguar/Puma mehr profitiert, als von den Erfahrungen aus Bulldozer und dessen Nachfolger (außer natürlich der Erfahrung, dass das CMT mit den Modulen die falsche Richtung ist/war)

Ich habe bei mir HTPC mit Jaguar (Kabini Athlon 5370) als auch Excavator (Kaveri A8-7600 45W cTDP)
Ich werde sukzessive alle meine Geräte auf Ryzen umrüsten und dabei wird definitiv der Kabini als letzter ausgetauscht, der eignet sich als reine HTPC-APU besser als mein Kaveri.
Als erstes muss ich aber eine Lücke schließen und damit ein komplettes System aufbauen. Ich warte also auf den Ryzen 5 2400G (Ja, für einen HTPC oversized aber er wird da nicht auf Dauer bleiben, damit ist ein anderes System geplant, welches aufgebaut wird, wenn Raven-Ridge als "S" -Modelle erhältlich sind, also Low-Voltage-APU mit 35W TDP und diese dann in den HTPCs einziehen)

Möchte auch meinen HTPC upgraden. Zur Zeit werkelt da noch ein i3-4160. Ist eigendlich auch als Mutimedia CPU overzied aber da ich alles in H265 abspiele und dieser i3 kein HW Decoder hat wird die Rechenleistung gebraucht.

Ich denke ein A6-9500E würde es auch tun. Aber ein 2400G zu nehmen und dann auf 45W cTDP zustellen klingt auch gut. Man weiß ja nie ob man die Mehrleistung irgendwann mal braucht.

Meine Frage: Ist es den ein so großer Unterschied beim Stromverbrauch ob man eine 35W oder 45W CPU nutzt? Gerade bei niedriger Last von Multimedia Anwendungen? Habe diesbezüglich Tests von Bristol Ridge APU gesucht aber nichts gefunden. Außer die Aussage das die GPU braucbar ist aber die CPU Leistung schlecht ist. Naja das wusste ich auch schon.

Das Blöde ist halt das man nicht weiß ob und wann die 35W Desktop Ryzen APU den kommen. Zudem es eigendlich sinnlos ist solange es keine HDMI 2.0 mini-ITX für AM4 gibt. Habe zwar nicht vor in naher Zukunft auf 4k um zusteigen aber jetzt noch ein HTPC zusammen stellen ohne HDMI 2.0 und dann das Board zu tauschen ist auch quatsch.
 
@Peck: Die Watt sind nur für die Dimensionierung der Kühlung relevant. Ansonsten liegt der Verbrauch in der Regel weit darunter, weil du weder die CPU noch die GPU bei deinem Szenario annähernd auslastest, sprich du mehr rum idelst als auf Volllast läufst. Deshalb ist das Vebrauchstechnisch vernachlässigbar.
 
Genau, Raven Ridge ist unter dem Strich deutlich effizienter, IPC ist gegenüber Bristol Ridge um gut 50% höher, dazu wird weniger Energie benötigt und auch die iGPU ist effizienter, gerade auch im Idle, da sie sehr niedrig Takten kann.
Bei gleichen Tätigkeiten schluckt Raven Ridge da locker weniger elektrische Leistung und damit produziert sie auch weniger Abwärme.

Ich hatte auch schon mal überlegt, ob ich mit für den Übergang einen Bristol Ridge hole, brauche ja dann nur die APU wechseln. Aber nun lohnt es sich sowieso nicht mehr.
Auf Bristol Ridge würde ich nicht mehr setzen, die Basis ist veraltet, der Sprung zu Raven Ridge dürfte riesig ausfallen.

Wenn ich mein 2400G habe, werde ich mal einen Direktvergleich zwischen den und meinen Kaveri (beide dann auf 45W cTDP) machen.
 
rg88 schrieb:
@Peck: Die Watt sind nur für die Dimensionierung der Kühlung relevant. Ansonsten liegt der Verbrauch in der Regel weit darunter, weil du weder die CPU noch die GPU bei deinem Szenario annähernd auslastest, sprich du mehr rum idelst als auf Volllast läufst. Deshalb ist das Vebrauchstechnisch vernachlässigbar.

Das TDP nicht gleich der Verbrauch ist, ist mir klar. Wie Ozmog schon schrieb besteht ein Zusammenhang zwischen Abwärme und dem eigendlichen elektrischen Verbrauch. Wenn es so ist das sich die 35W und 45W TDP Varianten im niedrigen CPU Lastbereich beim elektrischen Verbrauch nicht merklich unterscheiden dann kann der 2400G ja kommen.

Gibt es Infos ob es im Zuge der neuen APUs auch neue ITX Boards geben wird mit B350/X370 Cipsatz oder werden erst neue Boards im März/April kommen mit dem neuen X470er Chipsatz?
 
B450 und X470 kommen im März. Klar gibts dann auch neue Boards. ITX denke ich aber erst später, die sind ja aktuell schon rar gesäht. Die Prio liegt wohl zuerst auf mATX und ATX.
Die Unterschiede werden aber nicht wirklich groß sein zu den 300er-Chipsätzen. Kleine Verbesserungen hier und da, aber nicht weltbewegendes
 
Zurück
Oben