News AMD Renoir-APU: Für Notebooks mit 15 bis 45 Watt und im Desktop auf AM4

Mein über 5 Jahre alter Beema (A6-6310) bekommt damit bald endlich einen Nachfolger.
 
Qarrr³ schrieb:
Das Problem der AMD Chips ist nicht deren maximale Leistung, sondern deren Idle Verbrauch. Bei leichter Belastung hält Intel noch immer gut 30% Prozent länger durch und auch wenn Leistung gelegentlich gebraucht wird, ist vor allem Akkulaufzeit wichtig. Und wenn ich die Wahl habe, ob 30% mehr Laufzeit oder doppelte gpu Leistung, nehme ich die Akkulaufzeit.

Falsch, seit dem Refresh in Form der Ryzen 3500U etc wurde der idle Verbrauch deutlich verbessert und befindet sich (fast) auf Intel Niveau.

( Quelle zB der Idle Verbrauch hier: https://www.notebookcheck.com/Lenov...t-bei-den-Business-Subnotebooks.435550.0.html )

Ich freu mich wie irre auf die neuen Ryzen Laptop Modelle, vor allem da jetzt auch namhafte Hersteller sehr gut Laptops auf AMD Basis ohne Schwachstellen bauen.
 
  • Gefällt mir
Reaktionen: Argoth, Colindo, Casillas und 7 andere
Hätte mein E330 doch nur länger durchgehalten, dann könnte ich mich jetzt auf eine Zen2 APU freuen. Stattdessen musste ich mir 2017 ein E470 zulegen. i5 7200U :freak:

Einen schlechteren Zeitpunkt für ein neues Notebook gabs nicht.
 
Bevor hier noch mehr Leute wieder komplett überzogene Erwartungen schüren:
B12 bedeutet sicher NICHT 12 Kerne, was erwartet ihr denn bitte bei 15w? Das ist einfach nur komplett unrealistisch.
 
  • Gefällt mir
Reaktionen: KlaasKersting, greeny112, BacShea und 6 andere
@guggi4 Wieso? Kein Problem bei 5 MHz. Das wird der Rennoir!
 
  • Gefällt mir
Reaktionen: Alphanerd, lkullerkeks, bad_sign und 2 andere
GCN ist ein kleines effizientzwunder im unteren leistungsbereich. Daher erstmal die kirche im Dorf lassen und dann schauen wir mal was hier kommt. Denn insbesondere für Profianwendumgen ist die Architektur super und hat massig rohleistung.

APUs mit richtig bums wären eine schöne Sache. Kommen dann auch neue Athlons im low end?
 
  • Gefällt mir
Reaktionen: cirrussc
guggi4 schrieb:
Bevor hier noch mehr Leute wieder komplett überzogene Erwartungen schüren:
B12 bedeutet sicher NICHT 12 Kerne, was erwartet ihr denn bitte bei 15w? Das ist einfach nur komplett unrealistisch.
Naja, es geht sicher nicht um die untere Performance Klasse mit 15W, sondern eher um die Oberste mit 45W als Ryzen 9. Und 8 Kerne sind ja jetzt quasi auch schon bestätigt. Und wenn ein 4 Kerner mit 15W hinkommt, dann könnte es vll ein niedrig taktender 12 Kerner vll in die 45W Klasse schaffen. Könnte ja eine Überraschung geben...auch wenn sie weniger wahrscheinlich ist.
 
Es wird vor allem spannend, ob überzeugende Notebooks von den OEMs mit Renoir entworfen werden. In jüngster Zeit wurden die Designs mit Ryzen besser, wenn ich da an Surface und Chromebook denke. Jahrelang zuvor gab es nur halbherzige Designs, denen unterstellt wurde, absichtlich ungeschickt und unattraktiv entworfen zu sein.
 
  • Gefällt mir
Reaktionen: simosh
Man sollte noch erwähnen das Xiaomi/Huawei auch keine schlechten Notebooks mit Ryzen am Markt haben. Laut den Tests waren die auch ordentlich umgesetzt.
 
@aldaric das Xiaomi RedmiBook 14 soll ja ebenfalls mit AMD APU, voraussichtlich R5 3550U, kommen. Auch wenn das wohl ehr ein Budget-Gerät für umgerechnet weniger als 500 Euro werden soll. Wie @nazgul77 schon sagte, die Designs werden besser und die Konfigurationen sinnvoller. Zudem war Microsoft mit dem Surface Laptop 3 eine bemerkenswerter Design Win.
 
@danyundsahne
B12 steht aber auch bei 15w skus dabei
RENOIR NB RYZEN 9 PRO B12B 15W FP6
 
  • Gefällt mir
Reaktionen: Makso
SV3N schrieb:
Ob CB, meine Person insbesondere, in eine AMD-Verschwörung verwickelt ist? ;)
...
Gib es doch zu... Angela Merkel herself ruft jeden Morgen bei euch an, diktiert die News, FAXT die Benchmark Tabellen durch, bringt euch Abends eure Lohntüten (abgezwackt aus GEZ und Steuer Mitteln) vorbei...

Falls wer was anderes behaupten sollte, dann ist er lediglich glaubwürdig, wenn er dabei mit einem irren Blick ins Leere schaut, echauffierend mit der, wahlweise, flachen Hand oder geballten Faust auf den Tisch schlägt und Geifer sabbernd brüllt, dass das nicht wahr ist. Jenen Personen rufe ich übrigens gerne "Ach ja?!?" und "Dann komm mal her!" entgegen.

:)
 
  • Gefällt mir
Reaktionen: Alphanerd, Rockstar85, Sbibi und 6 andere
Wenn es Modelle mit nur 15W TDP geben wird, ist ein monolithisches Design eigentlich Pflicht, da ja schon alleine der I/O Chip eine derartige Leistungsaufnahme hat.
 
  • Gefällt mir
Reaktionen: NMA
Holt schrieb:
Wenn es Modelle mit nur 15W TDP geben wird, ist ein monolithisches Design eigentlich Pflicht, da ja schon alleine der I/O Chip eine derartige Leistungsaufnahme hat.
Oder eine Neuentwicklung des I/O Chiplets, evtl mit integrierter GPU. Wüsste nicht warum eine Vollintegration als Monolith sparsamer sein sollte. Aber es wird die Kosten erhöhen, also glaube ich nicht dran.
 
  • Gefällt mir
Reaktionen: NMA
ghecko schrieb:
Oder eine Neuentwicklung des I/O Chiplets, evtl mit integrierter GPU.
Wenn sowieso ein neuer Chip entwickelt werden muss, dann kann man auch gleichen einen mit GPU, CPU und den I/O Funktionen entwickeln und hinterher die APUs günstiger und Energiesparender bauen, die zwei Dies auf einer Platine zu verbauen kostet mehr und braucht für die Kommunikation mehr Strom. Ein Chiplet Design macht nur Sinn, wenn man dies mit den aktuellen Dies bauen kann, ohne ein neues Design entwickeln zu müssen. Der aktuelle I/O Chip dürfte aber weder die Videoausgabe erlauben noch von der Leistungsaufnahme eher zu solchen APUs passen.
 
  • Gefällt mir
Reaktionen: Bandaleros und bensen
Je größer der DIE, desto schlechter ist die Ausbeute pro Wafer. Intel kann ein Lied davon singen.
Wenn man bereits ein CPU-Chiplet hat welches sich auf den Verbrauch trimmen lässt (ROME zeigt das dies geht) wäre AMD schön doof ihr Erfolgsrezept auf diese Weise zu torpedieren. Ganz zu schweigen vom Aufwand diesen Monolith zu entwickeln.
I/O und Vega GPU müssen für Renoir redesigned werden, hier macht eine Integration evtl noch Sinn. Obwohl es auch gute Argumente dagegen, also zu einem 3-Chip Design hin gibt. Aber das CPU-Chiplet wird wohl als solches bestehen bleiben, denn nichts spricht für eine Integration.
Und noch mal: Ein Monolith ist weder signifikant Energiesparender noch günstiger zu fertigen.
Aber bis jemand den Chip ablichtet ist sowieso alles Spekulation.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA, Casillas, Salutos und eine weitere Person
So viel Aufwand ist die Entwicklung nicht, letztlich werden da die fertigen Module wie ein CCX oder zwei, die I/O Schnittstellen und die GPU zusammengesetzt und ob man nun statt der CCX die Anschlüsse für die Anbindung eines CPU Chiplets nimmt, dürfte am Aufwand wenig ändern, es macht das Die nur etwas größer. Die Frage dürfte vor allem sein, ob die APU nun auf 7nm gehen sollen und ob das nächste I/O Die ebenfalls in 7nm kommen wird, denn während AMD die CPU CCX und GPUs schon in 7nm vorliegen hat, gibt es die I/O Funktionen ja bisher noch nicht für den 7nm Prozess. Aber wenn AMD im Notebooksegment Marktanteile gewinne will, dann muss die Effizienz stimmen, da die Leistung von mobilen CPUs vor allem durch ihre Leistungsaufnahme begrenzt wird.
 
Holt schrieb:
So viel Aufwand ist die Entwicklung nicht
Nur wie Tetris Lvl 9000. Das gute an Chiplets ist, dass man bei allen Komponenten nicht an ein einziges Rechteck gebunden ist. So kann man den Platz effizienter ausnutzen und kritische Kommunikationswege innerhalb des Chips so kurz wie möglich halten. Das Seitenverhältnis jedes Chiplets kann so gewählt werden, wie es für die interne Struktur der Logik am günstigsten ist. Das relativiert das Argument der längeren Kommunikation über den Interposer.
Also ja, eine Integration aller Teile zu einem Ganzen ist ein haufen Arbeit und nur sinnvoll, wenn man gute Argumente dafür hat. Bisher steht nur der möglicherweise geringere Energieverbrauch im Raum, den ich stark anzweifle.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und Cruentatus
ghecko schrieb:
Das relativiert das Argument der längeren Kommunikation über den Interposer.
???

Weder EPYC noch RYZEN CPU verwenden Interposer, die sind auch richtig teuer und wenn es welche geben würde, wären die Abständer der Chiplets viel kleiner als sie es sind.
 
Sehr schöne Entwicklung.

Ich warte aber im Moment eher auf den Desktop.
Dann baue ich mit meinem R3 2200G ein Mini ITX auf, der dann bei meiner besseren Hälfte den letzten Intel im Haus ablöst.
 
Zurück
Oben