Test AMD Cezanne im CPU-Test: Ryzen 5 5600G und Ryzen 7 5700G gegen Intel Core

DonL_ schrieb:
Mit den Wafern für die Chiplets hat das nichts zu tun.
Indirekt irgendwie schon, man hat zwar nicht beides auf dem gleichen Wafer, aber man kann doch bestimmt bei entsprechend geringerer Nachfrage bei den Chiplets davon ausgehen, dass dann eben mehr Mobile Wafer gefertigt werden würden bzw. jetzt bei hoher Nachfrage eben weniger.

Oder sollten die Produktionslinien der beiden Wafer komplett unabhängig sein was die Fab Auslastung betrifft?
Ist bei einer vorab georderten Wafer Menge gar schon festgeschrieben, mit welcher Maske sie belichtet werden müssen?

Ansonsten, der gleiche Prozess ist es ja schon mal, wenn nun absolut keine Chiplet Nachfrage mehr da wäre, müsste man an diesen Linien nur die Masken auf die der Mobile Chips ändern, oder denk ich da zu simpel?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: begin_prog
Bei PCGH sieht man das auch sehr gut. Der 5700G dümpelt gerade mal ungefähr auf dem Niveau eines 3700X umher, was die Spieleleistung betrifft. Selbst mit Extrem-OC beim RAM bekommt man die 50ns Speicherlatenz nicht unterboten. Enttäuschend, und das mit einem monolithischen Desgin. Dazu der fehlende AV1 Support. AMD wird die Negativliste hoffentlich nicht mit einem zu hohen Preis "abrunden".
 
Zuletzt bearbeitet von einem Moderator:
Schöne CPUs.
Irgendwie kribbelts in den Fingern.
Mein System muss noch bis AM5 durchhalten :D
Aber jetzt kann man statt nem 11500 auch einen 5600G empfehlen, für stärkere Büro-Rechner.
 
ZeroStrat schrieb:
Selbst mit Extrem-OC beim RAM bekommt man die 50ns Speicherlatenz nicht unterboten
wo hast du das denn gelesen. ein Test mit Extrem RAM OC + DGPU suche ich noch. hast du da eine quelle?
 
Eine Frage laesst der Test unbeantwortet: Wenn man ECC reinsteckt und ein Mainboard mit ECC-Unterstuetzung nimmt, wird die ECC-Funktionalitaet dann verwendet wie bei den X-Prozessoren?
 
ZeroStrat schrieb:
Bei PCGH sieht man das auch sehr gut. Der 5700G dümpelt gerade mal ungefähr auf dem Niveau eines 3700X umher
er ist dort etwas höher eingeordnet. Man könnte sagen er Dümpelt über dem 3800xt rum was spiele angeht. ist nicht viel mehr als der 3700x aber hört sich viel besser an :)
 
Northstar2710 schrieb:
wo hast du das denn gelesen. ein Test mit Extrem RAM OC + DGPU suche ich noch. hast du da eine quelle?
Hier hat Andreas Schilling auf Twitter OC-Ergebnisse gepostet. Trotz extremem OC sind nicht mal 52ns drin.

Northstar2710 schrieb:
er ist dort etwas höher eingeordnet. Man könnte sagen er Dümpelt über dem 3800xt rum was spiele angeht. ist nicht viel mehr als der 3700x aber hört sich viel besser an
5% ist halt für mich das gleiche Niveau. Wenn die etwas bessere RAM-Latenz durch das monolithische Design nicht wäre, dann wären es vermutlich nicht mal 5%.
 
Das sind tolle CPUs für kleine Gehäuse und werden sich sehr gut verkaufen. Das weiß AMD und hält ich beim Preis nicht zurück.
 
Schade, Rocket Lake-CPUs werden in verschiedensten Konfigurationen durchgebencht, die 65W-TDP Modelle wie der Core i7-11700 oder Core i5-11400F sogar prominent mit RAM-OC-Werten (DDR4-3733 G1) ins Diagramm gepresst, für den interessanten Desktop-Cezanne aber ist weder ein ECO/GE-Mode @35W TDP drin, noch dGPU-Gaming-Benchmarks mit DDR4-4000 oder zumindest DDR4 3733 (siehe RKL).

Viel Zeit und Mühe (Rocket Lake) vs. das Nötigste (Cezanne). Diese Ungleichbehandlung kann ich weder nachvollziehen noch gutheißen.

Edit: Die Einzelwerte der Anwendungs-Benchmarks sind nicht aufrufbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: begin_prog, Qyxes und Hardwarious
Project 2501 schrieb:
Was genau bringt Hardware-Decoding am Desktop? AV1 läuft mittlerweile richtig flott dank dav1d. Macht die Hardwaredecodierung so einen großen Unterschied im Stromverbrauch des Gesamtsystems?
Weitaus energiesparender ist Hardwaredecoding natürlich auch, vor allem aber geht Softwaredecoding bei höheren Auflösungen und FPS schnell die Puste aus.
Kannst ja testen. Dieses yt-Video bspw. gibt's bis hoch in 4K60 HDR sowohl in av1 als auch in vp9. VP9 decodiert meine GraKa in Hardware, alles entspannt. av1 muss mein Ryzen 5 3600 übernehmen und ist dabei zu 50 % ausgelastet - nur um ein Video zu decoden. Musst in den yt-Einstellungen av1 bevorzugen auswählen und evtl. das entsprechende Format downloaden, wenn yt dennoch nicht von sich aus av1 wählt.

Klar, gibt schlimmeres, schließlich wird in den nächsten Jahren wohl kaum eine Seite ausschließlich auf av1 setzen, wird immer ein Fallback auf vp9 oder h.264/h.265 geben, aber av1 ist die Zukunft und eine 2021 releaste (i)GPU sollte entsprechendes Hardware-Decoding mitbringen, das gehört einfach dazu.

Wie gesagt - Intel hat's ja auch.
 
  • Gefällt mir
Reaktionen: HITCHER_I, JackTheRippchen, icetom und 2 andere
Die Spieleleistung mit der IGP vs Intel wäre auch noch interessant, aber ansonsten guter Test.,
 
mae schrieb:
Eine Frage laesst der Test unbeantwortet: Wenn man ECC reinsteckt und ein Mainboard mit ECC-Unterstuetzung nimmt, wird die ECC-Funktionalitaet dann verwendet wie bei den X-Prozessoren?
Es scheint so, als ob die Prozessoren kein ECC unterstützen. Jedenfalls finde ich auch beim Hersteller dazu keine Angaben. ECC gibt es wohl nur bei den Pro-Versionen. Ich wollte auch gerade meinen Homeserver erneuern. Werd wohl erstmal auf den 4650 Pro zurückgreifen müssen.
 
@BetaHydri: Schau in den GPU-Test hier bei CB... direkt über dem CPU-Test. :D

Regards, Bigfoot29

Nachtrag: @Joshua2go: Oder du nimmst die 5xxxG Pro. Die gibts - wieder OEM-exklusiv und daher nur vereinzelt als Tray-Ware wie die 4000G Pro auch - ebenfalls und schon seit einer Weile zu keufen...
 
  • Gefällt mir
Reaktionen: BetaHydri
@Bigfoot29 Right, eigener Artikel, danke für den Hinweis Sir.
 
  • Gefällt mir
Reaktionen: Bigfoot29
Bigfoot29 schrieb:
Da der offizielle Launch erst am 5.8. ist, sind das noch Nicht-vorhandenes-Angebot-vs-Nachfrage-Preise.
Die Hoffnung habe ich ja auch zum Ausdruck gebracht. Es war dennoch sehr unerfreulich, sowas schon wieder zu sehen, denn nach dem Launch im November hielt das viel länger an, als uns allen lieb war.
 
  • Gefällt mir
Reaktionen: Bigfoot29
Haben die neuen APUs PCI-E 3.0 x16 oder 3.0 x8 wenn man eine dedizierte Grafikkarte nutzt?
 
Im Text steht: 16xPCIe.v3.

Regards, Bigfoot29
 
Wenn der Preis Richtung 200€ geht und B450 kompatibel wird könnte ich schwach werden.
 
Beitrag schrieb:
Klar, gibt schlimmeres, schließlich wird in den nächsten Jahren wohl kaum eine Seite ausschließlich auf av1 setzen, wird immer ein Fallback auf vp9 oder h.264/h.265 geben, aber av1 ist die Zukunft und eine 2021 releaste (i)GPU sollte entsprechendes Hardware-Decoding mitbringen, das gehört einfach dazu.

Wie gesagt - Intel hat's ja auch.

Genauso ist es. Es gibt deutlich schlimmeres. Wer hätte gedacht, dass sich Vega in den APUs so gut macht. ich hatte letztens ein 4K testvideo angespielt und hatte auf meinem 4650g 20% CPU Last. Allerdings auch nur auf fhd gerät. Ist sicherlich keine Referenz für 4K auf 4K.

nur für av1 nen neuen gpu Part integrieren. Lohnt doch nich.
 
Zurück
Oben