Thermal und Powerbudget bei den AM5 CPU´s mit integrierter Graphik.

Supie

Lieutenant
Registriert
Nov. 2022
Beiträge
792
Hi Leute,
mich bewegt folgende Frage: soweit ich weiss, ist - anders als bisher in den neuen AMD CPU´s eine integrierte GPU zwingend enthalten.
Diesen Fakt kann man wohl nicht umgehen. Da diese "APU" normalerweise etwas von Power und Thermalbudget abzweigt, taktet diese, integrierte CPU / GPU wenn ich es richtig verstanden habe niedriger als eine CPU ohne GPU, was ja auch logisch ist.

Wie schaltet man das bei der 7000er Reihe vollständdig ab? Oder ist das schon deaktiviert, wenn man eine separate GPU einsteckt und betreibt? Taktet die CPU dann automatisch wieder im vollen Budget, oder muss man da noch irgendwie "händisch" nach helfen?
Ich persönlich brauche die Graphik nicht, und hätte lieber eine schnellere CPU.

Ich werde mir in naher Zukunft einen Rechner auf AM 5 Basis zulegen und brauche die APU nicht, aber man wird ja nicht gefragt.
Es sollen ja nur CPU´s mit GPU erscheinen, oder bin ich falsch informiert?

Grüsse.
 
wenn die GPU nicht genutzt wird, ist da auch (erstmal) keine Last drauf. Manche Dinge koennen darauf halt ausgelagert werden. Aber entsprechend wenig Abärme.
Deine CPU taktet immer so hoch, wie sie bei 95 Grad kommt
 
Supie schrieb:
Ich persönlich brauche die Graphik nicht, und hätte lieber eine schnellere CPU.
Du musst das bei den neuen 7000er Ryzen anders herum sehen, als vorher.

Du bekommst die topaktuelle AMD Generation inkl. der Grafikeinheit. Vorher wurden Nutzer, die keine separate Grafikkarte nutzen wollen, doch an sich mehr oder weniger fast schon abgestraft, da die Varianten mit dem G, also mit Grafikeinheit, schwächer waren.

Nun werden alle gleich behandelt. Wenn AMD oder ein Mainboardhersteller keinen Bockmist baut, wirste im Bios die Grafikeinheit abschalten können, so daß diese ungenutzt ist.

Der Prozessor wäre nicht schneller und auch nicht wirklich kühler, wenn AMD das Ding ohne Grafikeinheit ausliefert. Ich kann dein "Problem" leider gar nicht nachvollziehen.

Nebenbei, was machste, wenn deine Grafikkarte defekt ist? Dann biste für die integrierte Grafikeinheit am Ende sogar dankkbar.
 
Ltcrusher schrieb:
Nun werden alle gleich behandelt. Wenn AMD oder ein Mainboardhersteller keinen Bockmist baut, wirste im Bios die Grafikeinheit abschalten können, so daß diese ungenutzt ist.
Glaube ich nichtmal.
Für video decoding und encoding soll die bspw. Immer genutzt werden und auch ein paar andere instructionen sollen dort, falls möglich beschleunigt werden. Muss vielleicht nochmal suchen, aber ziemlich sicher sollen dort u.a vektor Multiplikation dort beschleunigt werden
 
Supie schrieb:
Da diese "APU" normalerweise etwas von Power und Thermalbudget abzweigt
Die iGPU ist so klein, das wären bei voller Aktivität nur wenige Watt, bei Inaktivität liegt es im Milliwattbereich. Und die Videoeinheiten verbrauchen, falls sie genutzt werden, weniger als die entsprechende Last auf der CPU, womit sich in dem Fall das Powerbudget für die CPU sogar erhöht.

Supie schrieb:
taktet diese, integrierte CPU / GPU wenn ich es richtig verstanden habe niedriger als eine CPU ohne GPU
Nein.
 
  • Gefällt mir
Reaktionen: madmax2010
Danke für die Antworten. Dann bin ich ja im Moment beruhigt.

Nun gehe ich noch etwas näher zu den Gründen für diese Frage ein:
Ltcrusher schrieb:
Du bekommst die topaktuelle AMD Generation inkl. der Grafikeinheit. Vorher wurden Nutzer, die keine separate Grafikkarte nutzen wollen, doch an sich mehr oder weniger fast schon abgestraft, da die Varianten mit dem G, also mit Grafikeinheit, schwächer waren.*
Ich würde denken, das die für die GPU genutze Fläche für die CPU Schaltungen genutzt worden wäre / würde, wenn die CPU weiterhin ohne GPU wäre, und somit mehr Spieleleistung zur Verfügung stünde.
*Siehe in deiner Aussage, das CPU´s mit G schwächer sind, daher meine Frage, falls das nicht klar "rüber" kam.

Bloss weil mache scharf darauf sind sich die GPU zu sparen..... Für einen Gamer hier im CB Forum ist das ja
wohl keine Frage, wenn er es ernst meint, oder liege ich da falsch?
Natürlich reine CPU Power, Graphik sollte immer in der GPU berechnet werden, aber kann man auch anders sehen, wenn man es will.

Um diese "Strafe" ("G" CPU) zu umgehen hätte es auch eine APU getan die es zusätzlich hätte geben können.

Ltcrusher schrieb:
Nebenbei, was machste, wenn deine Grafikkarte defekt ist? Dann biste für die integrierte Grafikeinheit am Ende sogar dankkbar.

Das wäre auch schon voher im alten System (AM4 R5 5600X) eben mein Problem gewesen. Ich habe immer eine alte Graka auf Lager, um genau bei solchen Sachen eben kein Problem zu haben.

So zahle ich für etwas das ich nicht nutze, und je nach dem ob ihr recht haben solltet, oder ob es so wie bei den CPU´s mit dem Kürzel "G" läuft, habe ich auch noch weniger Takt / Leistung als es anderenfalls theoretisch möglich gewesen wäre.
So hat halt jeder seine Prioritäten, wenn ich schon so viel Geld ausgebe will ich volle Power und das Kompromisslos.

Grüsse.



Grüsse.
 
Supie schrieb:
Ich würde denken, das die für die GPU genutze Fläche für die CPU Schaltungen genutzt worden wäre / würde, wenn die CPU weiterhin ohne GPU wäre, und somit mehr Spieleleistung zur Verfügung stünde.
Die iGPU ist nicht auf den CCDs, sondern im I/O-Die. Das war Platz, der durch den Shrink des I/O-Dies auf 6nm gewonnen wurde. Es gab keine Möglichkeit, diesen Platz für den CPU-Teil zu nutzen.
 
  • Gefällt mir
Reaktionen: Alexander2
Danke Nixdorf,
DASS ist doch jetzt mal eine Aussage mit der ich eure Meinungen besser nachvollziehen kann.
Andert zwar höchstwahrscheinlich nix daran, das Zusatzeinheiten im Desigen und Herstellung Geld kosten, aber wenigstens der Leistung sollte es dann nicht abträglich sein.

Grüsse.
 
Die iGPU ist schon deswegen nicht mit auf dem CCD, weil die im Server keiner braucht, und dort werden ja genau die gleichen Core-Chiplets genutzt. Das wäre eine riesige Verschwendung von Die-Area.

Außerdem, was wäre denn dann bei den Dual-CCD-Ryzens? Dann hätte man zwei iGPUs. Beide könnte man nicht sinnvoll nutzen, denn die Kommunikation zwischen beiden wäre wegen der Latenzen ein mittelschwerer Albtraum.

Die ganzen Fragen über Abwägung von Die-Area zwischen Kernen und GPU könnte man sich bei den APUs stellen. Die kommen aber vom Notebook und Desktop-APUs sind nur deren "Abfallprodukt". Somit gelten da auch andere Regeln, das Design ist von vornherein auf eine niedrigere TDP ausgerichtet.
 
Zuletzt bearbeitet:
Nixdorf schrieb:
Das wäre eine riesige Verschwendung von Die-Area.
Wäre? Das ist (in meinen Augen) eine Verschwendung von Chip-Area (deine Wortwahl auch I/O Platz). Nicht umsonst war bei Intel eine Xeon CPU vor einiger Zeit ein Renner, weil die keine GPU drin hatte, und vom Preis her glaube ich deswegen gut ankam.

Ah ja, hier: "Der Xeon E3-1230 v2 beweist im Test, dass man die Leistung eines Core i7 auf Ivy-Bridge-Basis auch für unter 300 Euro erhalten kann. Xeon E3-1230 v2. Dieser bietet vier Kerne samt SMT und kommt ohne Grafikeinheit aus. .......Zudem kann der Server-Chip im Anwendungssegment dank Simultaneous Multithreading (SMT) auftrumpfen und erreicht hier annähernd die Performance eines 300 teuren Core i7-3770K, denn dem Xeon fehlen nur 200 MHz. Damit ist der E3-1230 v2 aus Preisleistungssicht ein sehr attraktives und überaus energieffizientes sowie sparsames Angebot" (PCGH 26.6.12).

Er konnte trotz dem eingebauten SMT (Hypertreading) für weniger Geld als der normale I7 verkauft werden. Weniger belegtes Silizium kostet weniger - wäre zumindest bei mir logisch. Und war auch der Grund für meine Überlegungen das ich lieber keine GPU drin gehabt hätte.

Daraus entstand in meinen Augen ja gerade der Trend das es CPU´s ohne GPU gibt, weil sich das Ding zum geringeren Preis wie warme Semmeln an Gamer verkaufte, obwohls eine Servercpu mit weniger Takt war - und SMT wurde auch noch nicht von so vielen Games genutzt. Ich glaube sie war nie für den Desktop gedacht . Wurde nicht sogar deswegen von Seiten Intels darüber nachgedacht diese für die Consumerboards unbrauchbar zu machen ? (Bios, Mikrocode... ach ist schon so lang her).

Und nun kehrt AMD diesen Trend wieder um? Ich weiss ich reite drauf herum sry. Mein Meinung weiterhin, man muss sie nicht teilen und ich möchte auch niemand zu nahe treten.
Ich werde mich damit schon arrangieren (müssen), gibt ja keine Alternativen mehr bei AM5, wenn ich richig informiert bin, oder?

Grüsse.
 
Zuletzt bearbeitet:
Nixdorf, wir reden komplett aneinander vorbei habe ich das Gefühl.
Ich habe verstanden, das diese Schaltkreise nicht mehr in der CPU sind. Deswegen schrieb ich ja das die Fläche trotzdem irgendwo bearbeitet werden muss, dies einen Mehraufwand in der Produktion hervoruft, und das musste voher von einem Ingenieur für teuer Geld desigend werden, darauf abgestimmt, das es hinterher mit einem Treiber angesprochen werden kann, Treiber dafür müssen geschrieben - und gepflegt werden etc.......

Bei dir klingt das so nach: ist so kostenlos beim Desigen nebenher gelaufen.

Zahle ich das etwa nicht im Endprodukt mit? Darum gehts mir, und das ich keine andere Wahl (mehr) habe. Weil ich es für mich persönlich ja nicht nutzen möchte, ich habe extra eine passende GPU. Das war ja damals der angesprochene Trend. S.o.
Diese vorhandene GPU übernimmt auch die Dekomprimierungsaufgaben etc... die weiter oben hier auch aufgeführt wurden.

madmax2010 schrieb:
Für video decoding und encoding soll die bspw. Immer genutzt werden und auch ein paar andere instructionen sollen dort, falls möglich beschleunigt werden. Muss vielleicht nochmal suchen, aber ziemlich sicher sollen dort u.a vektor Multiplikation dort beschleunigt werden

Einzig dass das vielleicht mit etwas weniger Energie als mit meiner bisherigen GPU einhergehen könnte, das könnte ich noch als minimalen vielleicht Gewinn verbuchen.
Benötigen werde ich es deffinitiv nicht.

Grüsse.
 
Zuletzt bearbeitet:
Supie schrieb:
Dieser bietet vier Kerne samt SMT und kommt ohne Grafikeinheit aus.
Der E3-1230 v2 ist in Bezug auf die iGPU vergleichbar mit heutigen F-SKUs (z.B. 12400F): Die iGPU ist vorhanden, aber deaktiviert ([1], [2]). Da wird also keine Fläche und auch kein Silizium gespart. Solche SKUs anzubieten, ist dennoch zur Kostensenkung hilfreich, aber aus einem anderen Grund: Man kann teilweise defekte Dies dennoch verwenden, anstatt sie weg zu schmeißen.

Supie schrieb:
Zahle ich das etwa nicht im Endprodukt mit? Darum gehts mir.
Das wird bei allen Chips mit gezahlt, auch bei denen ohne iGPU. Der Aufwand für den Entwurf fällt ja an, egal ob man das dann für alle Chips verwendet oder nur für einen Teil der Generation. Die ganze Geschichte ist eine Mischkalkulation. Der Entwicklungsaufwand hält sich bei AMD aber auch in Grenzen, weil man die Compute Units und Videoeinheiten nicht komplett neu entworfen muss, sondern fertig von RDNA2 übernimmt und dann "nur" in das Design des IOD einarbeitet. Da hätte man als Käufer einer CPU ohne iGPU bisher eher auf Intel sauer sein müssen, denn die hatten ja ewig lange keine Sparte für dedizierte GPUs.


[1] Die Xeon E3-Chips basieren auf einem der vier Ivy-Bridge-Dies
[2] Liste der vier Dies aus der Generation, alle mit iGPU
 
Supie schrieb:
Einzig dass das vielleicht mit etwas weniger Energie als mit meiner bisherigen GPU einhergehen könnte, das könnte ich noch als minimalen vielleicht Gewinn verbuchen.
Benötigen werde ich es deffinitiv nicht.
Naja, irgendwie schon. Tasks werden halt auf Elemente der GPU ausgelagert, um die große GPU und den general purpose compute Teil der CPU nicht zu belasten, um so Energie zu sparen.
Das rechnet sich. Verlass dich darauf, dass da Leute dran Arbeiten, die mehr von Hardware Design verstehen, als 99.99% der User hier. Ich kann nur minimale Logic auf FPGAs implementieren.
 
Das einzige, was noch fehlt, wäre die Möglichkeit zur wirklich kompletten Abschaltung der dedizierten Grafikkarte, wenn man nicht spielt. Da haben Desktops aber das Problem, dass man separate Grafikausgänge für GPU und iGPU hat, und ein Zurückschicken der Bilddaten von der GPU zur Ausgabe über die Videoausgänge des Boards kostet Performance.

Kann Windows das auf dem Desktop eigentlich inzwischen, wenn man unbedingt will? Und wenn ja, hat mal jemand geguckt, ob die GPU dann die Lanes auch runter schaltet und auf so gut wie null Verbrauch geht?

Bei Notebooks gibt es dafür sowas wie einen MUX-Switch oder Advanced Optimus, womit die Signalwege umgeschaltet werden können. Auf dem Desktop scheint den Herstellern die Einsparung bei der Leistungsaufnahme den Aufwand für sowas nicht wert zu sein.
 
Supie schrieb:
Bloss weil mache scharf darauf sind sich die GPU zu sparen..... Für einen Gamer hier im CB Forum ist das ja
wohl keine Frage, wenn er es ernst meint, oder liege ich da falsch?
Das war schon ernst gemeint. Im CB Forum werden außerdem alle Fragen und alle Hardwareangelegenheiten an- und besprochen.

Es ist ein Hardwareforum und kein reines "Ich nutze nur (fette) eigenständige Grafikkarten" Forum.

Grafikkarte sparen...oh man. Großkotziger hätteste es nicht ausdrücken können, oder? Mein i5-13600K z.B. hat eine Grafikeinheit, die per Bios deaktiviert ist. Mein Ryzen 5 5600X davor hatte keine. Nutzen tue ich weiterhin die RTX 3060 Ti.

Knappe 30 Euro sparen wäre ohne integrierte Grafikeinheit der Fall gewesen.

Wenn du eine aktuelle Highend-CPU ohne Grafikeinheit möchtest, dann ist ein i7-13700KF oder i9-13900KF die Wahl für dich. Stellste dir ein System mit Z790 DDR5 oder Z690 DDR5 (mit Bios Update) zusammen, hast dann schon den DDR5 Speicher zur Verfügung und kannst dann in Ruhe gucken, was AMD mit den kommenden Generationen der AM5 Prozessoren macht.

Ansonsten kann dir nur AMD verraten, warum die das so gemacht haben und ob es Leistungseinbußen auf Grund der Grafikeinheit gibt oder nicht.

Alles andere ist eine Diskussion, die hier eh ins Endlose führt.

Mit deinem Xeon Beispiel holst du Hardware von 2012 / 2013 aus der Kiste. Xeon E3 gab es außerdem mit und ohne integrierte Grafikeinheit. Ja, sie haben HyperThreading, aber keinen offenen Multiplikator.

Der Preis war damals nur möglich, da Intel es so wollte und vor allem auch der US-Dollar damals so schwach war. i7 Klasse zum Preis eines i5 - gab es davor meines Wissens nach nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: madmax2010
Ltcrusher schrieb:
Großkotziger hätteste es nicht ausdrücken können, oder?
nana =) habe ich da einen wunden Punkt getroffen? =)

Wie du selber sagst, es werden hier ALLE Varianten besprochen, warum meine dann nicht?
Ist meine Meinung schlechter als z.B. deine?
Ich gönne jedem die Freude über die interne GPU der sie braucht / haben will.
Ich schrieb doch DESWEGEN in weiteren Sätzen klar das es zunächst einmal ausschliesslich um MICH geht, und es MEINE Meinung ist.
Und mit dem Fragezusatz "oder"? wollte ich mal wissen ob es nur meine Meinung ist, oder obs
nicht auch andere echte Gamer so sehen. Hätte ich vil. auch weniger unglücklich formulieren können MEA CULPA.

Warum klingst du dann so angepisst? Wo tut dir MEINE für mich ALLEIN geltende Ansicht weh?
Wo beeinträchtigt sie dich? Wo schrieb ich, dass ich das allgemein so gemacht sehen will?

Ltcrusher: "Es ist ein Hardwareforum und kein reines "Ich nutze nur (fette) eigenständige Grafikkarten" Forum." (Zitat ging hier leider nicht, es machte immer eine weitere Antwort auf).*

*Und wenn ich meine GPU nutzen will, ist das doch meine Sache, und ob ich sie deswegen erwähne........

Ltcrusher: "Xeon E3 gab es außerdem mit und ohne integrierte Grafikeinheit".

Und beim Xeon sprichste das Thema an, das es den sowohl mit als auch ohne iGPU gab. Da hatte man noch das was ich vermisse - nämlich die AUSWAHL, und die fehlt halt ab jetzt. Wurde von mir oben auch angesprochen.

Ltcrusher: "Wenn du eine aktuelle Highend-CPU ohne Grafikeinheit möchtest, dann ist ein i7-13700KF oder i9-13900KF die Wahl für dich. Stellste dir ein System mit Z790 DDR5 oder Z690 DDR5 (mit Bios Update) zusammen, hast dann schon den DDR5 Speicher zur Verfügung und kannst dann in Ruhe gucken, was AMD mit den kommenden Generationen der AM5 Prozessoren macht."

Ich wollte eigentlich jetzt nicht unbedingt zu Intel wechseln, dann kann ich im Schnitt alle 2 Gen. schon wieder das Mainboard für nen zünftigen Preis wechseln. Und ......x3d Prozis werde ich da nicht bekommen.
Die alte Intel-CPU* die auch bei Intel einen Zusatzcache hatte, wurde ja niemals wiederholt, verschenkte Gamingpower.
*Broadwell-C. War 2015 und hatte satte 128 MB L4 Cache. Gab auch schönen Leistungsboost, aber hat Intel meines wissens nach leider nie wiederholt. (Es ging hier rein um den Cache, und nicht um eine dort vorhandene iGPU!).

Ltcrusher schrieb:
Knappe 30 Euro sparen wäre ohne integrierte Grafikeinheit der Fall gewesen.

Und witzig, das mit den oben erwähnten gesparten 30 Euro, das ist oft schon ca. der boxed Kühlerpreis, den wollten die meisten auch sparen, weswegen es nun fast keine Boxedversionen incl. Kühlung mehr gibt, soweit ich bei den Händlern sehe.
War für jeden der einen anderen Kühler nutzen wollte auch rausgeschmissenes Geld, machste denen auch den Vorwurf, das die lieber die Version ohne Kühler genommen haben, und ihren eigenen leistungsfähigeren Kühler nutzen wollen ? (Analog IGPU zu ded. Graka).

Ich hätte die 30 Euro gern gespart und im besseren CPU-Kühler "versenkt". So zahl ich das halt da mehr.
Es wird immer unnötig zusätzliche Kosten verursachen in meinen Augen, und ja - es geht mir AUSSCHLIESSLICH ums PRINZIP, falls das bisher zu kurz kam. Die 30 Euro habe ich auch noch, daran wird der Neuaufbau des Rechners nicht scheitern.

Grüsse.
 
Zuletzt bearbeitet:
Zurück
Oben