Test AMD Ryzen 9 4900HS iGPU im Test: Renoir mit 35 Watt gegen Picasso mit 65 Watt in Spielen

DaVinz schrieb:
Der Shrink hatte aber bei der Radeon VII kaum Vorteile gebracht. Somit bin ich der Meinung das sie in der Architektur noch irgendwas gefunden, bzw. verbessert haben. In Summe haben sicherlich alle von dir erwähnten Änderungen ihren Beitrag geleistet. Aber es kann eben nicht nur die Speicherbandbreite und mehr Takt gewesen sein.

Bin mir nicht sicher ob man das vergleichen kann. Die Radeon VII hatte ja erheblich mehr Shader, es kann auch gut sein das Vega mit steigender Shaderzahl deutlich ineffizienter wird.

Zumindest würde es erklären, warum man bei den kleinen Vega iGPUs in 7nm soviel Takt anlegen kann, ohne das der Verbrauch durch die Decke geht.
 
  • Gefällt mir
Reaktionen: Mcr-King und DaVinz
ThePlayer schrieb:
@Volker was ist denn der Unterschied bei den Benchmarks zu Overwatch zwischen dem Athlon 3000g mit RX550 und der RX550? Verstehe nicht wieso die FPS da unterschiedlich ausfallen.
9900K vs 3000g
Die RX 550 wird leicht limitert durch den 3000G.
 
  • Gefällt mir
Reaktionen: ThePlayer und Mcr-King
ThePlayer schrieb:
Also ich nutze hier in meinem HTPC einen Ryzen 2400g und habe mit 4K HDR kein Problem. Selbst Gimini Man mit HFR und 60FPS lief super, blöder Film aber geniales Bild

Ja sicher dass mag sein, nur funktioniert dies nur bei ungeschützten Inhalten, bei 4K UHD BluRay funktioniert dies leider nicht oder gibt es da ein workaround, sodas dies in Hardware funktioniert?

Meines Wissens nach, gibt es auch mit dem ein oder anderen streaming Dienst Probleme.

Cu der Pry
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
PS828 schrieb:
Wie sehen die niedrigen Grafiksettings eigentlich bei Odyssee aus? Ist der Unterschied groß oder geht das?
Alles auf niedrig ist schon sehr einfach. Die Atmosphäre ist top (Licht, Schatten etc.), aber die Details sind dann sehr vereinfacht. Mir hat es besser gefallen, die Auflösung auf 80% zu setzen und dagegen Radeon Image Sharpening zu aktivieren. Der Geschwindigkeitsboost wurde dann davon aufgefressen, dass ich die Texturen von Low auf Medium angehoben habe, was enorm besser aussieht. Beim 3200G merkt man aber deutlich, wenn die Texturen erhöht werden, trotz DDR4 3000 CL15.

Habe jetzt gelockte 30fps, das fühlt sich am Fernseher schon flüssig an. Ist ein LG OLED mit 120 Hz und HDR, und insbesondere das HDR auf 55 Zoll sieht halt echt super aus. Ich spiele auf der Couch mit Maus und Tastatur mit meiner Frau zusammen, und immer wenn einer stirbt, ist der nächste dran. Wäre am PC nicht so komfortabel.

Buggi85 schrieb:
Ich kann's dir bei Origins sagen. Mies, ziemlich mies sogar. Niedrige Einstellungen sehen sehr schlecht aus, hatte das Game mal auf einer GTX 650 Ti Boost getestet, es lief auch nur mit rund 27 Frames. Dagegen lief Black Flag unter hohen Einstellungen mit 60 FPS uns sah bezaubernd aus. Odyssey und Origins sind sehr ähnlich, deshalb würde ich bei Odyssey noch weniger erwarten.
Bei Black Flag habe ich mit meiner Vega 64 Probleme, die 60fps zu halten. Sicher, dass das bei dir so ein krasser Unterschied war? In Origins bin ich wohl CPU-Limitiert mit dem R7 1700, denn Mikroruckler merke ich da deutlich, obwohl ich 60 fps habe. Die Einstellungen sind bei Origins natürlich geringer als bei Black Flag, aber alleine die maximalen Texturen machen bei Origins viel her.

Auf dem Fernseher sieht Odyssey nur gut aus, weil man weiter weg sitzt. Ich freu mich aber darauf, beim zweiten Durchspielen die Details auf dem Fernseher bewundern zu können.
k0n schrieb:
So sieht der C14S auf einem mini-ITX board aus: https://imgur.com/gallery/0ga1cRs
Ich finde vor allem die gerade so passende Navi-GPU toll. Sieht sehr kompakt aus.
 
  • Gefällt mir
Reaktionen: Mcr-King und PS828
Hayda Ministral schrieb:
Diesen Eindruck könnte man vermutlich durchaus gewinnen wenn man aus der Generation stammt die Takt ausschließlich in GHz, Speicher ausschließlich in GByte und Pixel ausschließlich in Megapixeln kennt.

Ich hatte nach dem Wechsel auf meinen HD-Monitor noch eine Weile mit der Radeon HD4670 im PC gespielt. Schön war anders, die Regler waren meist nur haarscharf über dem Minimum - aber ging auch. Diese APU dürfte Spielen bei moderaten Settings in HD erlauben - für mich wäre das "Ausreichend". Du darfst das natürlich weiterhin anders sehen und (falls gewünscht) darauf bestehen dass Spielen mit weniger als 5GH CPU + 16 GB GPU + 4 Megapixeln schlichtweg ein Ding der Unmöglichkeit ist.
Grundsätzlich ist die GPU der Flaschenhals. Mein alter I7 4770 läuft wie ne eins. Und HD ist bei Spielern nicht mehr der Standard.
 
bad_sign schrieb:
In der Tat, was habe ich da gerechnet ^^
Jep +33%, aber was hat eine VII mit Vega 8 am hut?
VII war doch eine 1:1 Portierung in 7nm. Renoir ist offensichtlich angepasst an.
Navi geht hoch bis 1900 MHz, RDNA2 scheinbar bis > 2GHz (PS5)
Was hast du da gerechnet? 32/24 war damit der RAM Takt 3200MHz/2400MHz gemeint?

Das an Renoir die iGPU Änderungen erfahren haben muss habe ich doch auch geschrieben.
Oder war dein Post #64 nicht an meinen #63 gerichtet?
 
Pry_T800 schrieb:
Dies dürfte sich dann um ungeschützte Dateien handeln, ich redete von 4K UHD Blu-ray.
Ich kopiere die mit einem Blu-Ray-Laufwerk auf den PC, mache eine x265-mkv daraus und lasse die auf dem DeskMini laufen. Mit AMD Fluid Motion und Bluesky Frame Rate Converter wird es dann richtig flüssig. Nur mit HDR-Filmen ist das nicht kompatibel, da muss der Fernseher aus den 23,976fps mehr machen.
 
  • Gefällt mir
Reaktionen: ThePlayer, PS828 und Pry_T800
Pry_T800 schrieb:
Dies dürfte sich dann um ungeschützte Dateien handeln, ich redete von 4K UHD Blu-ray.

Cu der Pry
Richtig, dann hast du recht. Eine der schlimmsten Dinge unter der Sonne. Jedes Programm was dafür geeignet ist unterstützt nur Intel. Darüber könnte ich mich ständig aufregen zumal es keinen woraround gibt der 100% legal ist.
Ergänzung ()

Colindo schrieb:
Ich kopiere die mit einem Blu-Ray-Laufwerk auf den PC, mache eine x265-mkv daraus und lasse die auf dem DeskMini laufen. Mit AMD Fluid Motion und Bluesky Frame Rate Converter wird es dann richtig flüssig. Nur mit HDR-Filmen ist das nicht kompatibel, da muss der Fernseher aus den 23,976fps mehr machen.
So in der der Art mach ich es auch. Aber schön ist es nicht. Die hersteller haben Glück dass die Qualität beim Streamen so schlecht ist. Sonst zerschließt man sich den kompletten Markt mit derart kundenfeidlichen Verhalten
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer und Pry_T800
Ja, finde ich furchtbar, dass wenn man sich die sündhaft teuren Datenträger kauft, einem da so Fesseln angelegt werden. Deswegen boykottiere ich die Produktkette UHD-BluRay auch konsequent. Das BluRay-Laufwerk hat 40 € gekostet und ich sichere damit nur meine eigenen BluRays auf dem System. Sehe nicht ein, da auch nur einen Cent für einen zertifizierten Player auszugeben.
 
Mit der PS5 bekomm ich zum Glück einen zertifizierten Player oben drauf. Aber ich sicher meist auch einfach einmal auf dem Rechner und geschaut wird halt im heimkino. Ich arbeite ja auch abseits mit UHD blu Rays durch eigene Filme und als Langzeit Backup, da passt das schon mit den Laufwerken.
Aber hier müssen die hersteller alle zusammen nachbessern. Kann doch nicht wahr sein dass ich mit meinem alten Haswell die Dinger hätte abspielen können und der Threadripper darf nicht. Dafür gibt's keine Entschuldigung
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
DaVinz schrieb:
Der Shrink hatte aber bei der Radeon VII kaum Vorteile gebracht. Somit bin ich der Meinung das sie in der Architektur noch irgendwas gefunden, bzw. verbessert haben.

Natürlich hat die Radeon VII einen signifikanten und deutlich besseren Vorteil gebracht.
Hier einmal das Performace pro Watt Verhältnis:

Radeon VII vs Vega64 Performace pro Watt.png
 
  • Gefällt mir
Reaktionen: Strahltriebwerk, bensen und AlphaKaninchen
Dark-Silent schrieb:
Die Gesamtperformance müsste Intel die TDP Tränen in die Augen treiben und ungewollt beweglich werden lassen, wenn sie anfangen mit den Watt-Knien rythmisch zu drosseln.
Der Konter kam schon Mittwoch … Core i9-10980HK.
Echte 65 Intel-Watt aka +65W² und damit +130W Realverbrauch (leider kein Witz).

Ich zitiere mal AnandTech …
The new CPU list from Intel starts with the Core i9-10980HK at the top, with eight cores, sixteen threads, and all the focus is on that 5.3 GHz turbo frequency.

2020-01-05 17.22.58_575px.jpg

*This CPU can hit this frequency on two cores. However this has some specific requirements: the system needs to be within its secondary power limits, and Intel’s Thermal Velocity Boost also needs to be turned on. The latter of which means that there has to be additional thermal headroom in the system, and that OEMs have designed for this and enabled it within the system. This allows the CPU to go from 5.1 GHz to 5.3 GHz. Every Intel Thermal Velocity Boost enabled CPU requires specific OEM support in order to get those extra two bins on the single core frequency.

The base frequency of this chip is 2.4 GHz, and it has a regular 45 W TDP (sustained power), which can be run in cTDP up mode for 65 W. Two other plus points on this chip is that it is unlocked, for when an OEM provides more thermal headroom, and it supports DDR4-2933, which is an upgrade over the previous generation. Intel's recommended PL2 (turbo power) for the Core i9 is 135 W, and Intel says the recommended 'Tau' is set to 56 seconds for the i9, and 28 seconds for all the other CPUs. OEMs don't often adhere to these values for notebooks, but they are provided as a guide. It does mean that in order to hit 5.3 GHz, the Core i9 is by default allowed to take 135 W across two cores, or 67.5 W per core. Even at 60W per core, you're looking at 50A of current per core... in a laptop.
Quelle: https://www.anandtech.com/show/1568...-comet-lake-h-for-45-w-notebooks-up-to-53-ghz

… weiß TechFA
 
  • Gefällt mir
Reaktionen: bad_sign und yurij
DaVinz schrieb:
Der Shrink hatte aber bei der Radeon VII kaum Vorteile gebracht. Somit bin ich der Meinung das sie in der Architektur noch irgendwas gefunden, bzw. verbessert haben.
Das hat AMD eigentlich auch schon offiziell so gesagt das bei der Entwicklung von Renoir etwas gefunden wurde dass die Effizienz von Vega ordentlich steigert und auch dass sie das auch für Navi übernehmen können und werden.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk, Colindo und DaVinz
AssembIer schrieb:
Somit lässt sich in Summe erklären warum man - trotz im Grunde unveränderter Architektur - nochmal einen großen Sprung bei der Performance machen konnte. So groß, dass sogar noch die Zahl der Shader reduziert wurden um Platz zu sparen.
Das ist es ja gerade. Die Architektur wurde ein ganzes Stück weit geändert
Alle von dir aufgezählten Verbesserungen machen aber vielleicht 30-35% aus. Damit gleichen sie aber gerade einmal die fehlenden Shader aus. Evtl. noch etwas mehr. Die VII hatte ja auch noch besseren HBM.
Lisa Su war auf der CES ja auch ziemlich Stolz auf David Wangs Team, was sie alles für Verbesserungen eingebracht hätten und das diese und weitere auch Navi zugute kommen werden. Die haben da schon was dran gemacht.

bensen schrieb:
Ich weiß nicht wo genau du da jetzt raus liest, dass AMD kein Thunderbolt integrieren kann. Gibt der Text gar nicht her. TB3 ist jetzt auch seit längerem royalty free. Sorry aber du liegst einfach falsch.
Ich glaub wir reden ein wenig aneinander vorbei.
Vor kurzem (Nicht in dem verlinkten Artikel) gab es eine Aussage, (ich weiß nicht mehr genau wo, hier auf CB?) welche von einem AMD Mitarbeiter stammen sollte. Danach dürfen sie TB nicht direkt in ihre Chips einbauen. Intel hat (auch wenn sie TB Lizenzfrei heraus geben) immer noch den Daumen drauf. Warum sollten sie also den Konkurrenten unnötig stärken? Die Boardhersteller müssen dies (Wenn der Anschluss TB heißen soll) über einen extra Chip realisieren, welcher Kosten verursacht. Entweder wird das Produkt teurer, der Hersteller verzichtet auf Gewinn oder AMD kommt dafür dem Hersteller entgegen und verkauft ihre APU günstiger. Also, ein Wettbewerbsvorteil für Intel.
 
  • Gefällt mir
Reaktionen: DaVinz
hemmi1982 schrieb:
Grundsätzlich ist die GPU der Flaschenhals.

Ja, das ist als Grundaussage durchaus nachvollziehbar. Aber ob sich daraus ein Problem ergibt ist dann doch sehr situationsabhängig.

HD ist bei Spielern nicht mehr der Standard.

Da solltest Du nur für Dich sprechen. Ein Großteil des Bekanntenkreises hat keinen klassischen PC sondern ein Laptop und mindestens da ist HD (afaik) immer noch Standard. Für mich persönlich sehe ich am Monitor noch keinen Mehrwert durch noch mehr Pixel. (hab allerdings genau genommen mehr als HD, sind 1920*1200).

Nun könntest Du einwenden dass Du Dich auf eine bestimmte Teilmenge der Spiele beziehst - und ich würde sagen dass daran nichts verwerfliches ist, dass die Aussage aber damit eben auch nicht mehr so universal gültig ist wie Du sie anfangs formuliert hast.
Ergänzung ()

Summerbreeze schrieb:
Ich glaub wir reden ein wenig aneinander vorbei.
Vor kurzem (Nicht in dem verlinkten Artikel) gab es eine Aussage, (ich weiß nicht mehr genau wo, hier auf CB?) welche von einem AMD Mitarbeiter stammen sollte. Danach dürfen sie TB nicht direkt in ihre Chips einbauen. Intel hat (auch wenn sie TB Lizenzfrei heraus geben) immer noch den Daumen drauf.

Ein bisschen Schwanger gibt's nicht, ein bisschen Lizenzfrei ebenfalls nicht. Daher ist die Aussage erstmal nicht nachvollziehbar. Wäre schön wenn Du (oder jemand anderes) die Aussage im Kontext wiederfinden und wiedergeben könnte.
 
Zuletzt bearbeitet:
Hayda Ministral schrieb:
Ein bisschen Schwanger gibt's nicht, ein bisschen Lizenzfrei ebenfalls nicht. Daher ist die Aussage erstmal nicht nachvollziehbar. Wäre schön wenn Du (oder jemand anderes) die Aussage im Kontext wiederfinden und wiedergeben könnte.

Es stellt sich die Frage was lizenzfrei ist. Es kann sein, dass Intel die Spezifikation der TB3 Schnittstelle freigegeben hat. Die Beschreibung der elektrischen Schaltung, mit der TB3 realisiert werden könnte, hingegen nicht zur Verfügung stellt.

Somit müsste AMD auf der Grundlage der Spezifikation von TB3 zuerst die Schaltung entwickeln oder einkaufen (wenn möglich) bevor diese in die CPU integriert werden kann.
 
Zurück
Oben