News AMD Cezanne: Sichtung eines Musters mit 512 Shadern und 1.850 MHz

LamaMitHut schrieb:
Ne dickere APU im Sortiment zu haben würde wohl Sinn ergeben, einfach damit man den Konkurrenten auf Abstand hält.

Außerdem sollte man immer etwas überdimensioniert kaufen, wenn man Hardware mehr als nur 5-6 Jahre verwenden möchte.
Die Dinger sind doch nicht zum Zocken gedacht?
Für mich ist beispielsweise eher der Multi-Monitor Betrieb in hohen Auflösungen interessant. z.B. 3 x 5120x1440.
Das sollte doch eher die Domäne dieser integrierten Grafikeinheit sein.
Wenn die Grafikeinheit weiter aufgeblasen wird, haut es dir die Effizienz aus den Schuhen.
Die modernste und aktuellste Videoengine und eine stetige Erhöhung des möglichen Taktes sollte hier doch wohl reichen. Oder?
 
  • Gefällt mir
Reaktionen: Schorsch92, Teckler, bad_sign und eine weitere Person
KuestenNebel schrieb:
Man beachte, dass sich die Leistungsangaben auf den Vollausbau mit 100 Watt beziehen und damit nicht einmal die Leistung der GTX 1050 Ti mit 75 Watt erreicht wird
Man beachte, dass die Grafik sich die 100W mit der CPU teilt. Bei der 1050 Ti ist keine CPU mit eingerechnet, bleiben nur 25W TDP für die CPU...

In einigen Spielen verliert die 1050Ti gegen den Kaby-G bei den Durchschnitts-FPS, der übrigens in einen Kleinst-PC verbaut ist, was die 1050Ti nicht sein sollte.
Test hier auf CB: link
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und adAstra
@Colindo: Ja, genauso habe ich das gemacht. Da Du aber den Deskmini hast, hast Du ja wahrscheinlich eine Desktop APU. Da würde ich das mit dem Ryzen Master Tool versuchen, da kannst Du das wahrscheinlich besser zwischen CPU und APU austarieren.

Ob das bei der Desktop-APU so starke Auswirkung zeigt wie bei mir, weiß ich aber nicht. Deine APU hat ja eine wesentlich größere TDP und auch mehr Package Power. Einige FPS könnten aber vielleicht drin sein. Bei den Desktop APUs lässt sich aber wohl auch die Grafik ziemlich einfach übertakten.

Auf die Drosselung bin ich gekommen, weil der Youtube-Kanal "Tech Epiphany" irgendwann mal berichtete, dass seine FPS steigen, sobald er bei seinem Notebook den Stecker zieht. Bei mir passierte das nicht, und da bin ich auf die Idee gekommen, dass bei "Tech Epiphany" die CPU im Batteriebetrieb runtertakten könnte. Letztendlich war das so und er hat genau dieselbe Methode präsentiert wie ich sie mir erbastelt habe.
Ergänzung ()

KuestenNebel schrieb:
Man beachte, dass sich die Leistungsangaben auf den Vollausbau mit 100 Watt beziehen und damit nicht einmal die Leistung der GTX 1050 Ti mit 75 Watt erreicht wird
Echt, Sherlock? Und was willst Du uns mit Deiner sensationellen Erkenntnis, dass eine CPU/GPU Kombination mit einer Gesamtleistung von 100 Watt nicht das Spieleniveau einer Grafikkarte erreicht, die 75 Watt allein für sich beanspruchen kann, sagen?
Das meiste von den 100 Watt Package Power verbrät die CPU, die wird nämlich bei der Geschichte ziemlich warm, die Grafik aber nicht. Der Polaris-Vega Hybrid arbeitet sehr effizient und kommt dem bißchen Power, was ihr die CPU übrig lässt, immerhin auf 1050 Niveau.
Kombiniere Deine 1050 Ti mit einer entsprechend starken CPU, dann kommst Du nicht mehr mit 75 und auch nicht mit 100 Watt aus. Du landest dann eher bei 130 - 150 Watt. Von daher passen Leistung und Leistungsaufnahme des Kaby Lake-G.
 
Zuletzt bearbeitet:
Summerbreeze schrieb:
Die Dinger sind doch nicht zum Zocken gedacht?
Für mich ist beispielsweise eher der Multi-Monitor Betrieb in hohen Auflösungen interessant. z.B. 3 x 5120x1440.
Das sollte doch eher die Domäne dieser integrierten Grafikeinheit sein.
Wenn die Grafikeinheit weiter aufgeblasen wird, haut es dir die Effizienz aus den Schuhen.
Die modernste und aktuellste Videoengine und eine stetige Erhöhung des möglichen Taktes sollte hier doch wohl reichen. Oder?
https://www.computerbase.de/2020-06/intel-xe-grafik-tiger-lake-u-battlefield-v-1080p-30-fps/

Bei Intel sieht man dies wohl anders, und ich tu es auch. Im gaming notebook ergibt es Sinn, wenn CPU und GPU eine Einheit bilden, da Akku / Formfaktor / Kühlung enge Grenzen setzen.
 
@LamaMitHut
Die betreten doch gerade mal erst mal das gleiche Spielfeld?
Entscheidend ist bei solchen Kombi-Chips doch erst einmal die Effizienz.
Wenn da der Grafikteil unnötig aufgeblasen wird, steigen die allgemeinen Kosten und der Stromverbrauch.
Wer mehr braucht, kauft sich ohnehin eine Lösung mit zusätzlichem Grafikchip.
Wie groß ist denn der mögliche Absatz einer aufgeblasenen Spiele APU, welche möglicherweise die Leistung einer GTX 1050 erreichen könnte?
Hier im Thread wurde doch auch schon sehr schön dargelegt, warum es bei dem z. Zt. erhältlichen RAM nicht Sinnvoll ist, die Grafikeinheit größer zu gestalten.
Zusätzlicher V-Ram erhöht die Kosten exponentiell im Vergleich zum möglichen Absatz.
 
benneq schrieb:
Die APUs sind so dimensioniert, dass sie zur aktuell verfügbaren RAM Bandbreite passen. Da stirbt nichts. Alles wunderbar aufeinander abgestimmt.

Das wag ich zu bezweifeln. Die GPU in Renoir hat durch den höheren Takt mehr theoretische Rechenleistung (22,2% bei Ryzen 7 4700G vs. Ryzen 5 2400G) als RavenRidge obwohl man weniger CUs hat.

Ich hatte mal mit dem R5 2400G bei GTA V den Test gemacht. RAM auf 2400MHz (35170MB/s) und RAM auf 3200MHz (48622MB/s). Der Unterschied war 36,7% mehr FPS bei 38,2% mehr Bandbreite. Da es ziemlich linear ist, würde ich behaupten, dass mit noch mehr Bandbreite noch mehr gehen würde, nur leider konnte ich es nicht testen, da ich nicht höher als 3200MHz kommen, wobei 3200MHz ja auch schon über der Spezifikation liegt.
 
  • Gefällt mir
Reaktionen: bad_sign
Vor Renoir hat sich kaum jemand für APUs interessiert.
"Muh Intel 5GHz Singlethread..."
Das Problem hat AMD gelöst, indem sie bis zu 8 Zen2-Kerne in Renoir gesteckt haben.
Dieser Fokus auf den CPU-Teil war richtig - der Erfolg gibt ihnen recht.

Den Grafikteil hingegen hat AMD bei Renoir so stark runtergefahren wie es nur irgend geht:

Picasso vs Renoir
CUs: 11 -> 8
Shading Units: 704 -> 512
Größe: 210mm² -> 156mm²

Sie springen mit der APU-Grafik gerade eben so hoch wie sie absolut müssen (und ohne dedizierten VRAM können).
Dazu kommt, dass Intels grottige IGPs die Messlatte nicht gerade hoch gelegt haben...
 
Summerbreeze schrieb:
@LamaMitHut
Die betreten doch gerade mal erst mal das gleiche Spielfeld?
Entscheidend ist bei solchen Kombi-Chips doch erst einmal die Effizienz.
Wenn da der Grafikteil unnötig aufgeblasen wird, steigen die allgemeinen Kosten und der Stromverbrauch.
Wer mehr braucht, kauft sich ohnehin eine Lösung mit zusätzlichem Grafikchip.
Wie groß ist denn der mögliche Absatz einer aufgeblasenen Spiele APU, welche möglicherweise die Leistung einer GTX 1050 erreichen könnte?
Hier im Thread wurde doch auch schon sehr schön dargelegt, warum es bei dem z. Zt. erhältlichen RAM nicht Sinnvoll ist, die Grafikeinheit größer zu gestalten.
Zusätzlicher V-Ram erhöht die Kosten exponentiell im Vergleich zum möglichen Absatz.

Für reines office reicht doch alles, was Intel bis jetzt im Angebot hatte. Wie du schon gesagt hast - Intel betritt dieses Spielfeld.

Und der Erfolg gibt AMD doch grad recht, die Vergleichsweise starke Grafik wird von Markt gut angenommen.
 
StockholmSyndr. schrieb:
Dazu kommt, dass Intels grottige IGPs die Messlatte nicht gerade hoch gelegt haben...

Mit solchen Aussagen wäre ich etwas vorsichtiger. Intels Iris mit 64MB eDRAM war in der Zeit vor Raven Ridge im wichtigsten und größten Segment (Mobile, 15W) teilweise flotter da AMDs APUs durch das verfügbare Powerbudget massiv eingebremst wurden. Icelakes IGP ist zwar langsamer als Renoir - wird aber nicht deklassiert. Gen 12 (Xe) wird ziemlich sicher reichen um im Mittel etwas vor Vega IGPs raus zu kommen. Inkl moderneres Feature Set sowie Display und En bzw. Decoder Engines.

Da muss AMD bei einem Renoir Nachfolger mit Vega schon auch liefern. Also aktuelle DSPs etc. denn bei der IGP Performance ist bis 2022 grundsätzlich ein Gleichstand zu erwarten.

Im übrigen ein Punkt wieso mich Aussagen wie „grottig“ in Bezug auf Intels IGPs langsam nerven. Zu GMA Zeiten war das auch mal wirklich so. Katastrophe. Das ist aber sehr lange vorbei. Das etwas wie eine UHD620 keine Bäume ausreist ist jedem klar. Display Engine, DSPs und vor allen der Support sind aber immer noch sehr ordentlich. Inzwischen ist Intel bei GPU Treibern deutlich flotter als AMD. Vor allen im mobilen Bereich macht Intel hier auch einfach bessere Arbeit. AMDs Zusammenspiel mit den OEMs läuft auf Ebene der Software leider bis heute nicht wirklich rund.
 
YforU schrieb:
Mit solchen Aussagen wäre ich etwas vorsichtiger. Intels Iris mit 64MB eDRAM war in der Zeit vor Raven Ridge im wichtigsten und größten Segment (Mobile, 15W) teilweise flotter da AMDs APUs durch das verfügbare Powerbudget massiv eingebremst wurden.

Inzwischen ist Intel bei GPU Treibern deutlich flotter als AMD. Vor allen im mobilen Bereich macht Intel hier auch einfach bessere Arbeit. AMDs Zusammenspiel mit den OEMs läuft auf Ebene der Software leider bis heute nicht wirklich rund.

Das lag aber hauptsächlich an dem extra DRAM, die Iris ohne sind auch nicht sonderlich schnell und kommen in beiden Varianten nur in ausgewählten CPUs zum Einsatz. Die Masse der Intel Chips musste (und muss) weiterhin mit der (U)HD620 auskommen.

Kannst du deine Aussage bez. Treiber näher ausführen? Auf OEM Treiber ist man bei AMD seit Raven Ridge nicht mehr angewiesen. Auch kann ich bei meinen beiden Notebooks mit RR und Renoir bis her von keinem Problem berichten, was den GPU Treiber betrifft.

Ich hätte sogar ein Gegenbeispiel: Das 'Feature' Panel Self Refresh welches Intel im Treiber standardmäßig aktiviert. Damit ergaunert sich Intel u.A. bessere Akkulaufzeiten im Idle, blöd nur das es bei Panels mit langsamer Response Time zu flickern, freezes oder horizontalen Linien im Bild kommen kann. Wenn man nicht weis das es dieses Feature gibt und es deaktiviert werden kann, geht der Normalnutzer von einem Panel Defekt oder einem Problem mit dem Displaykabel aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
@Balikon Der A300 kann kein Übertakten und unterstützt auch den Ryzen Master nicht, soweit ich weiß. Hier der Vergleich meiner Benchmarks:
1597252804188.png
Leichter Vorteil in allen Werten mit reduzierter Prozessorleistung. Es ist nicht ausschlaggebend, um zu sagen, dass der GPU-Teil völlig entfesselt ist, aber es zeigt auch eindrucksvoll, dass vorher definitiv kein CPU-Limit vorlag. Die Taktraten der CPU sind bei 50% auf 1,37 GHz runtergegangen.

Edit: Mit 75% sehr ähnliche Ergebnisse.
 
  • Gefällt mir
Reaktionen: Balikon
@Colindo
Das Ryzen Master Tool funktioniert - soweit ich weiß - Prozessorabhängig. Daher müsste er auch auf dem "nicht-Chipsatz" des Deskmini gehen, sofern eine unterstützte CPU/APU drauf ist..
Es gibt wohl noch ein weiteres, nicht offizielles Tool, dass auf den Namen Ryzen Control hört, welches auch mit APUs und Mobilprozessoren funktioniert, die Ryzen Master nicht unterstützt. CB hat mal davon berichtet.

Ok, dann kann man sagen, dass meine Erfahrung (ich habe das natürlich nicht so genau untersucht wie Du) doch eher auf TDP und Power-Deckelung denn auf Bandbreitenlimitierung beruht. Dankr für Deine Mühe und Deine Neugier.
 
  • Gefällt mir
Reaktionen: Colindo
YforU schrieb:
Mit solchen Aussagen wäre ich etwas vorsichtiger. Intels Iris mit 64MB eDRAM war in der Zeit vor Raven Ridge im wichtigsten und größten Segment (Mobile, 15W) teilweise flotter da AMDs APUs durch das verfügbare Powerbudget massiv eingebremst wurden.
intel kann bis heute keine GPU. Und das ist eben keine urban Legend . Und so toll broadwell war, der GPU Treiber war ausgekochter Mist.
Das Intels Xe nicht mit Vega mithalten kann, hat man sich beim Test bewiesen weil man Variable Rate Shading benutzt hat (offizielle Folie), um überhaupt mitzuhalten. So sehr ich mir einen 3ten Player in GPU wünsche, Xe hat mich bisher eher unterwältigt.
Als HPC Chip könnte der spannend werden, aber GPU steht und fällt mit der Treiberpflege und die ist bei Intel traditionell schlecht!

https://www.tomshardware.com/features/amd-vs-intel-integrated-graphics

Und selbst eine IRIS Pro ist Meilenweit weg von Vega 8 geschweige denn 11.
Man möge sich das nochmal auf der Zunge zergehen lassen..
Eine DG1 (96CU) ist 15% schneller (laut Leaks) mit einem 9600K als ein Vega Mobile Chip mit 15W.. Die DG1 verbrät bummelig 75W
Ein geleakter Tiger Lake Bench mit Xe zeigt, dass die iGPU um 50% hinter einer Vega 8 liegt.. Also wenn Xe gut wird, muss Intel viel Geld und Zeit reinstecken. Das Nvidia Ökosystem kommt ja nicht von irgendwo her.
Man kann es aber auch wie Intel machen und in Zukunft Userbench zum einzig Seriösen Test erklären ;) Dann siegt quasi automatisch Intel.
Selbst Wenn Xe mit 96CU schneller als Vega ist, sind es immer noch 540 Shader gegen 768 bei Intel.. Luft nach Oben wäre da also locker. Und Der MX350 Bench, in einem TigerLake, den glaube ich erst, wenn ich das hier lese.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Balikon
AssembIer schrieb:
Kannst du deine Aussage bez. Treiber näher ausführen? Auf OEM Treiber ist man bei AMD seit Raven Ridge nicht mehr angewiesen. Auch kann ich bei meinen beiden Notebooks mit RR und Renoir bis her von keinem Problem berichten, was den GPU Treiber betrifft.

Das stimmt so nicht. AMD empfiehlt bei Notebooks selbst die Installation der OEM Pakete. Wir hatten sowohl beim Matebook D14 als auch Lenovos C340 sowie HPs Probook bei „Clean Setups“ mit 1909 und 2004 immer wieder Probleme mit Videoausgängen bzw. USB-C Docks. Behebbar nur durch die Installation der OEM GPU Treiber welche teilweise mehr als ein halbes Jahr alt sind und die OS Versionen nicht offiziell unterstützen. Oft sind das praktisch Beta Treiber mit teils nervigen und eigentlich längst gefixten Bugs.

Im privaten Umfeld ist sowas eher tolerierbar. Wir haben die Geräte während der Hochzeit der Corona Krise aufgrund von massiven Lieferengpässen für Kunden/Homeoffice angeschafft und begeistert waren wir nicht gerade (Arbeitsaufwand). Insgesamt sind wir was AMD GPU Treiber betrifft auch einfach genervt. Vor allen IGPs und Mobile GPUs bekommen zu wenige Updates. Das gilt leider auch für die professionellen Serien wie in HPs zBooks. Das die automatische Umschaltung kaum was von selbst erkennt ist das eine - offizielle Unterstützung für etwas wie eine neue VectorWorks Version das andere, dauert bestenfalls ewig. Der Kostenvorteil ist da gegenüber einer Variante mit mobiler GPU von Nvidia ganz schnell weg.

Bezüglich Icelake, Picasso und Renoir IGP Performance in Notebooks:
https://www.anandtech.com/show/1576...4-review-swift-gets-swifter-with-ryzen-4000/5
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AssembIer
YforU schrieb:
Das stimmt so nicht. AMD empfiehlt bei Notebooks selbst die Installation der OEM Pakete. Wir hatten sowohl beim Matebook D14 als auch Lenovos C340 sowie HPs Probook bei „Clean Setups“ mit 1909 und 2004 immer wieder Probleme mit Videoausgängen bzw. USB-C Docks. Behebbar nur durch die Installation der OEM GPU Treiber welche teilweise mehr als ein halbes Jahr alt sind und die OS Versionen nicht offiziell unterstützen.

Gut, da ich weder Dock noch externen Monitor verwende, erklärt das unsere unterschiedlichen Erfahrungen.
 
PS828 schrieb:
Nein. Die Zen 3 APU wird ziemlich sicher auch 4.0 besitzen

Bitte erkläre woher diese Sicherheit kommt. Technisch wäre auch bei der ZEN 2 APU bereits PCIe4 möglich gewesen, AMD hat sich also bewußt dagegen entschieden. Woher kommt die Sicherheit das AMD sich bei ZEN 3 für PCIe4 in der APU entscheidet?
 
Ganz einfach. Intel bringt es in ihren CPUs.

AMD war im Server und im Desktop vorne, da wird man nicht im mobile Bereich einen Rückzieher machen.
 
Richtig. Sicher ist man nie, aber Renoir hat vielleicht aus Effizienzgründen auf 4.0 verzichtet. Mit geändertem Layout und neuer Generation kann und muss man davon ausgehen dass sie 4.0 bringen. Sonst verschenkt man Potential wenn Intel es freischaltet
 
Zurück
Oben