Test AMD Ryzen 5 7500F im Test: Der günstigste Ryzen 7000 für Sockel AM5 im Benchmark

Corpus Delicti schrieb:
  • iGPU + dGPU können im Hybridmodus verwendet werden ==>
  • man hat das beste aus beiden Welten:
  • sparsam im Office- und Multimediabetrieb
  • dGPU-Leistung beim Spielen
funktioniert zumindest mit i7-11700 und RX7900xt hervorragend mit 2 Monitoren (1440p+1080p)
Ich habe die iGPU meines 13600k im BIOS direkt abgeschaltet, meine 4080FE braucht im Desktopbetrieb bei drei bzw. vier angeschlossenen Monitoren auch kaum Strom, aktuell laut HW-Monitor gerade mal 11W und die Lüfter der Karte stehen auch still.

Habe irgendwo gelesen, die iGPU hätte bei manchen Decoding-Arbeiten einen Vorteil, kannst Du mehr dazu sagen? Im allgemeinen wird aber im Internet dazu geraten diese abzuschalten.
 
Egal wie, aber eine CPU ohne iGPU gibts für mich nicht mehr.

Seit über 2 Jahren werkelt bei mir ne 5950x und wird es noch ne ganze Weile tun. Aber es gab immer wieder Situationen, da hätte ich die iGPU brauchen können.

Naja, man lernt halt nie aus :D
 
Wenn die dGPU abraucht, kann das ne gute Idee sein. Hab ich bei meinem i5 4570K damals auch einmal gehabt. Aber inzwischen liegen hier zwei alte Karten in Kartons rum, die ich als Übergang einbauen könnte. Da macht das Vorhalten einer iGPU nur aus diesem einzigen Grund einfach keinen Sinn.
Wenn du mit einem 5950X unterwegs bist, müsstest du wahrscheinlich eh zu AM5 greifen, um eine ähnliche Leistung inkl. iGPU zu bekommen.
 
Ja, AM5 oder Intel. Aber die Frage stellt sich für mich leistungsmäßig noch lange nicht.

Und ja, alte Karten hab ich auch noch rumliegen. Aber wenn man die aktuelle Konfiguration untersuchen will, ist ne iGPU nicht zu unterschätzen. Ist einfach bequem.
 
  • Gefällt mir
Reaktionen: Boimler
juwa schrieb:
Habe irgendwo gelesen, die iGPU hätte bei manchen Decoding-Arbeiten einen Vorteil, kannst Du mehr dazu sagen? Im allgemeinen wird aber im Internet dazu geraten diese abzuschalten.

vorab: Ich halte die Mediaengine von Intel (IntelQuickSync) für besser als was AMD oder nVidia zu bieten hat.

Der Verbrauch bleibt bei 6-7W TotalBordPower (HWinfo) für die 7900xt. Das Problem, das bei Multimonitor oder bei Decoderarbeiten der VRam hochtaktet, ist eleminiert, wenn die iGPU verwendet wird. Mit dem
i7-11700 komme ich bei 4k-Youtube auf ~14-15W PackagePower mit deaktivierten C-States im Bios (12W wären Leerlauf).

zum Vergleich:
https://www.computerbase.de/2023-09...nitt_leistungsaufnahme_spiele_youtube_desktop

Die ganze Treiberweiterentwicklung für die Intel ARC-GPUs kommt auch den iGPUs ab der CPU-11er-Serie zu gute. Die haben sich richtig gemausert seit dem Erscheinen 04.2021, seit dem ich auch dabei bin. Ab 2023 sind die gut nutzbar.

Die iGPU würde ich zumindest aktiviert lassen. Hat zumindest keinen Nachteil und verbraucht auch nichts, wenn ungenutzt (wieder HWinfo). Bei Bedarf, zB TV anschließen, kann man die dann immerhin noch nutzen. (oder mal zum Experimentieren, Spiele-Mon an dGPU die anderen an iGPU)

Bei dir sehe ich das Problem eher darin, das bis zu 4 Monitore auch irgendwo angeschlossen werden möchten.
 
  • Gefällt mir
Reaktionen: juwa
juwa schrieb:
meine 4080FE braucht im Desktopbetrieb bei drei bzw. vier angeschlossenen Monitoren auch kaum Strom, aktuell laut HW-Monitor gerade mal 11W
Wie funktioniert das? Also ich verstehe es so, dass du bei 3-4 laufenden Monitoren nur 11W aussagst. CB ermittelt mit einem 2160p 60Hz 16W im Leerlauf.
 
Würde mich auch interessieren. Die FE sind glaube ich immer sparsamer als die custom Modelle, gerade im Leerlauf.
 
Ich kann nur ein aktuelles Bild wiedergeben was mir gerade HW-Monitor ausspuckt:

1701621259719.png


Angeschlossen sind drei Bildschirme mit 1920*1080 @60Hz. Gespielt wurde auf der Kiste heute auch, deswegen die 270W als Max.-Wert. Ach ja, im Hintergrund läuft noch ein YT-Video. Kein UV oder sonstiges, läuft so ab Stock.
 
@juwa

Aber du hast doch von einer 4080 FE geschrieben. Nicht von der GPU einer 4080 FE.
Die 11W sind nicht die Grafikkarte, sondern nur der Grafikchip. CB schreibt immer von der Grafikkarte und zu einer Grafikkarte gehört auch der Speicher und alle anderen Teile die verbaut sind.
Du musst schon alles zusammenrechnen und nicht alleine die Leistungsaufnahme der GPU als Leistungsaufnahme der Grafikkarte verkaufen.

Zudem was bedeutet bei dir angeschlossen? Sind nun die Monitore eingeschaltet, oder nur angeschlossen?
 
Zuletzt bearbeitet:
Ich will gar nichts "verkaufen" und natürlich sind die drei Bildschirme eingeschaltet und zeigen auch ein Bild an.
 
Alesis schrieb:
Die 11W sind nicht die Grafikkarte, sondern nur der Grafikchip.
Doch die 11W sind die komplette Karte, der Chip alleine ist eine Zeile darunter und die gesamte Aufnahme über den slot und den stecker sieht man ebenfalls und die ergeben zusammen 11,3W
 
Wie realistisch der Wert ist, beurteile ich nicht, Fakt ist aber, dass dieser GPU Sensor den Wert für die komplette Karte zeigt.

Meine 4090 Custom liegt hier bei 27W mit 2 Monitoren
 
@ Alesis
Troll post?
Du hättest ja die Möglichkeit gehabt nicht mit brodelnden Blut deine gefühlte Wahrnehmung zu kommunizieren.
...hat es nicht gegeben, war eine Meinung die an keinen adressiert war und schon gar nicht, wie von Dir unterstellt, mit Wut - eher belustigend mit Verwunderung.
Es ist eher dieser Kommentar der abkackt und deine Behauptung es würde das Ergebnis aufhübschen dazu auch noch eine völlige Fehleinschätzung.
nein, meine Einschätzung stimmt.
Aber auch egal, ich vermute Du suchst eh nur Ärger.......
 
69 Watt im Idle (stimmt das ?) Da lieber den 5600 oden den 5800 3DX
 
Zurück
Oben