Ultra effiziente & ultra lowpower PCs- und PC-Hardware

Evtl. passen dir ja die Minni PC's von BeeLink oder Minisforum. Quasi Laptop Hardware. Wenn man möchte auch High End wie einem Ryzen 6900X mit RDNA2 IGPU (Edit: der kann AV1 decoding).
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Das Zeug ist doch wieder teurer (und ineffizienter) als die gleiche Leistung in einem Notebook.
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Wechsler schrieb:
Das Zeug ist doch wieder teurer (und ineffizienter) als die gleiche Leistung in einem Notebook.
Warum soll das ineffizienter sein, wenn es am Ende die selbe Hardware ist?
Ein SER5 Pro 5600H kostet 439€ der billigste Laptop mit einem 5600H kostet 852€.
Ein GTR6 6900HX kostet 769€ für 1020€ bekommt man gerade einmal einen Laptop Mit Ryzen 6600U (6900HX ab 1900€).
Also Nein.
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Cebo schrieb:
Warum soll das ineffizienter sein, wenn es am Ende die selbe Hardware ist?
Wo kein Akku vorhanden ist, wird dann an genau den Ecken gespart: VRMs, ineffizientes Netzteil, schon sind wieder 20-40 W und mehr auf der Uhr.
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Wechsler schrieb:
schon sind wieder 20-40 W und mehr auf der Uhr.
Du hast noch nie ein Review von einem mini-PC gelesen, wie?

Die meisten sind <10W im Leerlauf, teils deutlich drunter

Die Leistungsaufnahme unter Last interessiert nicht wirklich weil race-to-idle.
 
  • Gefällt mir
Reaktionen: Thomas.Lebers und Alexander2
Rickmer schrieb:
Du hast noch nie ein Review von einem mini-PC gelesen, wie?
Ich habe jahrelang selbst welche genutzt. Da waren auch Atom-CPUs < 1 W drunter. Trotzdem alles auf dem Weg zur Steckdose ineffizient ausgelegt und am Ende > 20 W idle. Deshalb würde ich dort genau drauf achten.
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Untertan schrieb:
Von der CPU Leistung sicher eine gute Wahl hat aber nur eine Vega GPU
die CPU kann locker av1 decodieren per Software und die ist dabei ja noch immer sparsam, so schlimm ist das nicht zumal es noch immer nicht allzuviel av1 gibt.

und es würde mich auch windern, wenn man bei den Mini PCs nicht auch die TDP die einem gefällt wie bei fast jedem AM4 Mainboard einstellen kann.

wäre natürlich dann schon gut, wenn mal apus bezahlbar mit av1 decoder kommen. aber ich mache mir da jedenfalls keine sorgen ;D
mein 4800H hat kein Problem mit eigendeinem codec. Was die Rechenleistung angeht. klar, 8k decodierung dürfte zu anstrengend werden. 4k und av1 mit 60fps habe ich schon explizit getestet, das geht. und bei youtube kann man ja auch notfalls immer die Auflösunf eine stufe unter 4k wählen :D
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Alexander2 schrieb:
die CPU kann locker av1 decodieren per Software und die ist dabei ja noch immer sparsam, so schlimm ist das nicht zumal es noch immer nicht allzuviel av1 gibt.

ja sicher geht das auch über die CPU wenn es aber um Effzienz geht ist ein HW Decoder immer deutlich besser. Wenn ich ein 4K AV1 Video über die CPU dekodiere habe ich ca. 30% CPU Last mit HW Beschleunigung sind es nur noch ca. 3%. Von den Preisen spielt es keine Rolle ob ich AMD oder Intel auswähle aber die Iris xe GPU ist halt moderner als AMD Vega was die HW Decoder angeht.
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Untertan schrieb:
wenn es aber um Effzienz geht ist ein HW Decoder immer deutlich besser.
Das ist ernsthaft fraglich, bei dem bischen was die einzelnen Kerne verbrauchen und denken wir mal an die gpu, die dann auch ihren speicher beansprucht, das ist nicht unerheblich.

Das sind halt keine CPU Kerne mehr wie Anno dazumal, wo 2 Kerne 95w nuckeln. das geht eher um 6w.
ich mach mal gerade nochmal ne Milchmädchenrechung mit einer Desktop! CPU:
3900X als Beispiel, TDP 105w und 12 echte Kerne (HT mal außen vor gelassen) macht:
8,75w pro Kern.

also ganz weit weg von einer Graka mit HW Decoder ist das sicher nicht weg.

Beim letzten mal als dich das erwähnt hatte meldete sich auch ein paar Leute, die das so ziemlich untermauert hatten mit ihren versuchen.

Wäre mal interressant nen aktueller vergleich von CB

Hardwaredecodierung von Videos mit GPU decoder und dann nur per Software. und natürlich immer der gesamtverbrauch der Kiste gemessen, alles andere ist nicht von interesse. Es geht ja immer darum was bei der Steckdose passiert und somit auf der Rechnung landet.
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Ich finde das jetzt nicht fraglich bei Notebook CPUs mit integrierter GPU sonst ist das ja kein Low-Power PC mit 15W mehr. Desktopsysteme mit externen Grafikkarten lasse ich mal aussen vor. Wenn ich auf einem Notebook einen Film ansehe verlängert ein HW Decoder die Akkulaufzeit schon deutlich. Wenn AV1 Videowiedergabe keine Rolle spielt geht ein AMD CPU natürlich auch sehr gut.
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Können AMD APUs generell kein AV1 Decoding in Hardware?

Auf ein paar Monate hin oder her kommt es auch nicht an. Ich kann auch ein halbes Jahr warten, falls dies die Situation verändert!
 
Hier mal ne decoder einheiten übersicht, zumindest zu dem was wohl bekannt ist. Ist zumindest besser als gar keine Antwort, ich habs nicht komplett durchgegrast.
https://en.wikipedia.org/wiki/Unified_Video_Decoder

Wenn ich drüberlinse:
https://en.wikipedia.org/wiki/List_of_AMD_accelerated_processing_units#"Rembrandt"_(2022)
und
https://en.wikipedia.org/wiki/List_of_AMD_accelerated_processing_units#"Mendocino"_(2022)
sind av1 fähig im decode.

Also nach 6000er apus müsstest du wohl schauen.

Aber check das nochmal selber nach mit den Listen, ob ich das richtig hatte.
 
  • Gefällt mir
Reaktionen: Thomas.Lebers
Tenferenzu schrieb:
444€ sogar nur.. zumindest hab ich einen um den Preis bei NBB bekommen. Kurze Zeit später war der Preis wieder bei 479, dann bei 529, dann bei 579.. klassischer Abverkauf beim 'Generationswechsel' halt.

Generationswechsel ist eigentlich auch zu viel. Sie haben halt das G8 auf G9 angehoben und sind von einem 5600u auf einen 5625u mit gefühlt 100mHz mehr Takt lol.

Ja richtig, das Ding hat nur 444€ gekostet, 16GB habe ich mir dann noch gegönnt, deshalb die 500€.
Mit dem Ding zocke ich Anno 1404 auf UHD - und kein Lüfter dreht. :D:daumen:
 
  • Gefällt mir
Reaktionen: Tenferenzu und Thomas.Lebers
cTDP steht dafür, das der Hersteller bei seinem Laptop die CPU in dem Bereich einstellen kann, dabei darfst du dir gerne vorstellen, das in dem geringen TDP Bereich die Geschwindigkeitsskalierung Linear ist.

Das ist dann die "Ziel TDP" wenn man das so nennen kann, Boost ist noch ne andere Geschichte, die da ganz ganz weit drüber gehen kann... Das ist auch per Firmware einstellbar.
Der Punkt ist immer, das bei Dauerbelastung nach X Zeit (einstellbar) die Belastung auf TDP Y herunter geht, die noch immer weit über der ziel tdp ist (einstellbar) und dann nach zeit a die TPD weiter gesenkt wird auf B, die noch immer weit über der Ziel TDP (einstellbar) und nach ablauf von zeit c (einstellbar) oder erreichen von Limits wie Temperatur d (einstellbar)

Wie du ganz grob mit dieser ungenauen und wohl schwer zu verstehenden Erklärung abschätzen kannst hilft dir NUR ein Benchmark des Genauen Laptop Modells weiter, weil so vieles nach GummibandLogik Einstellbar und auch beeinflussbar ist. Eine Schlechte Kühlung macht jede noch so Tolle TDP Angabe zum Witz.

Doll ne? :D :D :D :D :D :D ich krich mich nciht mehr ein.
(Ist kein Scherz, ist wirklich so!)


Edit:
Und dann musst du bei den Benchmarks natürlich noch im Auge behalten, wie lange die überhaupt laufen, spiegeln die nur die Kurze Boost/burstzeit wieder oder zeigen die die Langzeitperformance?
:D :jumpin:
:utminigun: :vernaschen: Ja, um da noch die wirkliche Leistung korrekt mitzubekommen musst du schon ne ganze Menge bedenken :D
Gut ist ja, das du da mal nachhakst. Die meisten kaufen ja einfach irgendwas und weil da X draufsteht denken die die bekommen auch die Leistung von X :D aber Für viele Hersteller und Händler ist erstmal nur wichtig, das du den Namen von X bezahlst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thomas.Lebers
Zurück
Oben