News Blade 18 vs. ROG Strix Scar 18: Robman86 über den CPU-Einfluss auf die Gaming-Leistung

Crizzo

Redakteur
Teammitglied
Registriert
Juli 2005
Beiträge
3.220
  • Gefällt mir
Reaktionen: flo.murr, N3utr4l1s4t0r, eastcoast_pete und 10 andere
Woher soll auch die Kühlleistung kommen auf der kleinen Fläche? Im Desktop-Bereich ist ein Luftkühler bei einem i9-13900K schnell überfordert und die neuen Grafikkarten der RTX40er Serie haben schnell mal 3,5 Slot-Designs aufgrund von Kühlerfinnen und Kupfer bis der Arzt kommt :)

Die Hersteller werben gerne mit "Desktop-Replacement"....am Ende ist es aber auch nur ein Kompromiss...ein teurer Kompromiss 🙃
 
  • Gefällt mir
Reaktionen: flo.murr, Mcr-King, Zockmock und 2 andere
ist zwar einerseits nachvollziehbar das Fazit, andererseits ist die Testmethode aber auch etwas fragwürdig... ist ja nicht erst seit gestern bekannt, dass Intel bei Leistung/Watt schlecht ist.
Ich würde darum also meinen, dass man so ein Pauschalurteil nicht unbedingt fällen kann, wenn man bloß hitzköpfige Intel CPUs zum testen zur Hand hat...
 
  • Gefällt mir
Reaktionen: TAWL, Tanzmusikus, Creshal und eine weitere Person
Schöner Beitrag.

Wenn man mit solchen Monstern hantiert, lernt man sehr schnell und sehr viel über Hardware.

Wenn man im Notebook es auf die Spitze treibt (die seit Jahren gleich ist) baut man Gehäuse, welche bis zu 350 Watt abführen können über ihre Kühlleistung.

Damit das aber irgend wie vernünftig sein könnte, benutzt man dann 2 Netzteile. 220 darf man mit einem verballern, dann muss man aber nicht immer beide mitschleppen, da das Gehäuse schon an der 6 Kg Marke kratzen würde und beide Netzteile zusammen ca. 2 Kg wiegen würden.

Wie viel dann vom System als "portabel" angesehen werden kann, da diese Leistung für einen Gamer nur in hohen Auflösungen dann Sinn ergeben könnte, wenn er nicht auf einen 15Zoll kleinen Bildschirm starren muss.

18 Zoll wären da schon besser und dann wird es wieder groß.

Für das "Maximum" testet man übrigens IMMER den CPU "sweetspot". Die darf nur dann was bekommen, wenn sie es nicht sinnlos verballert. Manche laufen mit 50 Watt genauso schnell wie mit 80 Watt und klauen mit 80 Watt der GPU nur sinnlos den Saft.

Dann schaut man, was die GPU hergibt. Wenn die irgend wann nicht mehr brauchbar skaliert, bekommt die auch nicht mehr.

Dann freuen sich die Lüfter und das Gehör. Wenn man es ordentlich macht, verliert man nichts und spart noch Strom und Lärm.

mfg

p.s.

Zum angeben geht man dann ins Kühlhaus und schaut mal, wo die Hardware mit -40 Grad Celsius Außentemperatur landet. :evillol:
 
  • Gefällt mir
Reaktionen: twoface88 und Tanzmusikus
Das ist der Punkt an dem Konzepte mit externer GPU über TB oder externer Wasserkühlung (siehe Schenker) Sinn ergeben. Und ja, in dem Preisbereich in dem man sich aufhält bei den getesteten Komponenten zählt "och ist das umständlich" etc nicht, denn wer schon 3000/4000€ für ein Gaming-Notebook ausgibt, will maximale Leistung und keine halbgaren Lösungen.
 
  • Gefällt mir
Reaktionen: janky2013, BlueBringer und Tanzmusikus
In stiller Trauer, dass das AW Area 51m eingestellt wurde. Es war massig und wuchtig und bleibt mein Sieger der Herzen :D
 
Bei Asus darf man sogar das Energie Budget mit der Creation Software für die GPU und den CPU verwalten und einstellen .
Hatte mal ein Rog Strix mit 5800HS und ner 6800m

Um diese Desktop Leistung ausfahren zu können bräuchte man ein 20Zoll Notebook mit einer Dicke von 5 cm wiegen tut das Ganze dann 6-7kg mit eingebauter Wasserkühlung inkl Radiator .
- man wird ja nochmal träumen dürfen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nighteeeeey und drmaniac
AMD hat hier durch die effizienteren Chips eigentlich auch die besseren CPUs. Schade dass das oft untergeht und eine hohe TDP meist noch bejubelt wird..weil viel hilft ja viel ne ? 😂
 
  • Gefällt mir
Reaktionen: Sandman2000, nighteeeeey, twoface88 und 3 andere
iNFECTED_pHILZ schrieb:
eigentlich auch die besseren CPUs

Daher habe ich einen 4800H @ 35 Watt im Lappi, kann die 3060m mit 100 Watt befeuern (ab da skaliert sie gar nicht mehr) und die Lüfter des 17 Zöllers gehen äußerst selten an, wenn ich mit 1080p @ 60 FPS spiele.

Meist will das System dann so 100 Watt haben, da die 3060m für 60 FPS die 100 Watt selten braucht.

Wenn ich "Lärm" will, spiele ich Cyberpunk. Da werden die 60 FPS in meinen Grafikeinstellungen gerade so mit 150 Watt gesamtverbrauch geschafft.

Die theoretischen 200 Watt, die das System abführen könnte, nutze ich eigentlich nie, das ist dann wirklich LAUT.

Für das Setup hilft die 4800H.

Wenn man damit aber eine RTX4090 mobile betreiben würde, würde die RTX IMMER im CPU Limit hängen, egal wie viel man in die 4800H rein ballert.

Die 5000er waren schneller aber nicht schnell genug und bei den 6000er würde ich für 4090 oder 4080 im Notebook ebenfalls keinen AMD verbauen.

Mal schauen, wie die neue Generation von AMD im Zusammenspiel mit den RTX Karten performen wird. Für die kleineren RTX Karten, scheint es mir aber wieder eine interessante Option zu sein.

mfg
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Man sollte auch erwähnen, das manche Performanceeinstellungen nicht nur die Wattanzahl der CPU, sondern auch der dedizierten GPU regeln. Das hat auch einen massiven Einfluss auf die Spieleperformance.

Beispiel bei meinem Laptop, der drei Modi hat.

Eco: CPU 25W / GPU 80W (1395/6000/1230)
Balance: CPU 54W / GPU (80W 1395/6000/1230)
Performance: CPU 65W / GPU (100W 1545/6000/1365)

Ergebnis in RDR2 (nur die ersten 5 Sekunden des Benchmarks, FullHD & alles auf Ultra)
Eco: 34fps
Balance: 38fps
Performance: 42fps
 
Die beiden Notebooks sind für mich aber keine Desktop Replacements. Das sind einfach Leistungsstarke Designer Geräte weil ja so flach und kompakt wie möglich. Das hier die Leistung stark zurückgeht ist ja kein wunder.

Ein richtiges DTR ist deutlich massiver und hat dann auch um einiges mehr Power da die Kühlung viel mehr wegschaufeln kann.

An die Leistung eines Destkop kommt man freilich nicht ran. Aber an die last gen im schnitt schon und das finde ich durchaus faszinierend.

Dennoch wünsche ich mir ein Razer Blade STealth oder Alienware 14 mit starker APU und die GPU wird dann extern über USB 4 2.0 angebunden. Damit hätte man ein richtiges Powerhouse und wenn das Gerät nur die CPU kühlen muss verliert man kaum Leistung zum Desktop.
 
  • Gefällt mir
Reaktionen: styletunte
Ich habe in den letzten 2 Jahren auch sehr viel rumgetestet und wollte auf einen Laptop umsteigen und bin es schlussendlich nicht.
Hatte hier einige Geräte mit 5800h, 6900HX, 11800h, 12700h, 12900h und keines hat mich glücklich gemacht.
Im Endeffekt ist es dann wieder ein PC geworden + ein "günstiger" Gaming Laptop (5600h und 130w RTX 3060) wenn ich dann unterwegs bin usw.
Lieber gehe ich den Kompromiss beim Begleiter ein, als beim Standrechner (85% der Zeit!).

Die Lautstärke war eigentlich bei keinem Gerät gut für zuhause (MSI GE76, Asus Strix G17, Razer 17, Razer 15,..).

Was mir fehlt ist auch die totale Kontrolle der Hardware. Ich mag dieses OEM-Zeug nicht.
Ich will die CPU von mir aus "beschneiden", Hauptsache ich weiß wann sie was macht.
"Balanced" und dann werde ich in nem Game ausgebremst schmeckt mir nicht. Dann lieber UV betreiben, Leistung fixieren und dann wissen wann was passiert usw.

GPU undervolten brachte übrigens auf dem Laptop auch gute Ergebnisse. Hilft auch der CPU Leistung.
 
Das ist ein gutes Beispiel dafür, wieso ich nicht verstehe, dass genau die X3Ds nicht ins (Gaming)Notebook kommen... genau DA würden sie ihre Effizienzvorteile voll und ganz ausspielen können!
 
  • Gefällt mir
Reaktionen: TAWL und nighteeeeey
bartio schrieb:
Beispiel bei meinem Laptop, der drei Modi hat.

Da legt man selber Hand an.

Meine 3060 macht mit 80 Watt GPU und 100 TBP fast 2.2 Ghz.

Bei der CPU ebenfalls selber optimieren.. Die Profile sind für JEDES Book was von diesen Hersteller gebaut wurde gleich.

Schlechter kann deines nicht sein :evillol:

mfg
 

Anhänge

  • gpu.jpg
    gpu.jpg
    493,2 KB · Aufrufe: 136
Ganz ehrlich?, ich finde die mobilen 4080/4090 bei 80W viel interessanter als bei 175W, geschweige denn die Desktop-Varianten bei 320+W. Verstehe das ganze mit dem "Wer hat den längsten Balken" nicht, vor allem wenn dafür alles andere geopfert wird....
 
  • Gefällt mir
Reaktionen: floTTes und [wege]mini
Das Problem war so bekannt. Weiter Tests/Fakten sind natürlich immer willkommen.

Für mich wäre jetzt die Frage ob die Kühllösungen bei den verschiedenen Konfigurationen immer gleich sind. Wahrscheinlich ja.

Ist ein i7 der höher takten darf genauso schnell oder schneller als ein stark gedrosselter i9 ? Dann kann man sich den Aufpreis sparen.

Ich kann diesen Trend zu immer dünner nicht verstehen. Speziell bei Gaming Laptops macht es keinen Sinn. Wer zockt damit wirklich mobil? Also in einem Cafe oder im ICE. Habe ich so zumindest noch nie gesehen. Am Schreibtisch spielt die dicke doch keine Rolle.

Mein Dell XPS 13 mit i7 (Signatur) könnte gerne 3-4mm dicker sein, wenns die Kühlung verbessert. Zu oft startet die Turbine bzw. läuft der i7 ans Temperaturlimit.
 
Wer kennt es nicht - gerade unterwegs ist jedes Gramm zu viel xD
266039_2_detaillg_image_320bf7ceadfa734e.jpg
 
  • Gefällt mir
Reaktionen: eastcoast_pete, floTTes, TIMOTOX und 4 andere
iNFECTED_pHILZ schrieb:
AMD hat hier durch die effizienteren Chips eigentlich auch die besseren CPUs
Versteh ich halt auch nicht, warum die kaum jemand verbaut. Ich bin gerade auf der Suche nach nem neuen Notebook und man findet aktuell in der "kompakt/Profi" Region (bis 2kg) praktisch keine neuen Ryzens.

Ich hätte so gerne ein Samsung 3 Pro/360 aber die gibts nicht mit AMD :( Wird wohl ein Microsoft Surface werden....auch wenn die viel zu teuer sind. Und die 5er gibts auch immer noch nicht mit AMD. Muss ich wohl noch warten.
 
Danke für den Artikel!

Ich möchte an der Stelle noch paar Sachen sagen, die aber mindestens teilweise auch in meinem Post stehen:
  • die 92 fps @ 125 W beim Alienware Area 51m R2 mit 10900K Desktop CPU wurden im Temperatur-Limit erreicht (Leistungs-/Lüfter-Profil "Still"), der 10900K hätte also noch ein paar fps mehr gemacht (und Leistungsaufnahme gezogen...). Im Nachhinein hätte ich der besseren Vergleichbarkeit wegen natürlich ein lauteres Profil nutzen sollen
  • die 161 fps @ 105 W beim 13900K wurden ebenfalls im Temperatur-Limit erreicht. Nachfolgend aber noch mal auf 88 W PL begrenzt und auch noch mal offen ohne ein Temperatur-Limit:
    • 10900K (Alienware Area 51m R2) ~125 W (Temp-Limit): 92 fps
    • 13950HX (Razer Blade 18) ~65 W (Powerlimit): 110 fps
    • 13980HX (Asus Scar G18) ~65 W (Powerlimit): 118 fps
    • 13900K (Mini-ITX-Desktop) 88 W (Powerlimit) 156 fps
    • 13900K (Mini-ITX-Desktop) ~130 W (offen) 163 fps
  • Neben der geringeren Leistungsaufnahme bei der CPU macht der Raum auch extrem viel aus. Im Gaming-Laptop reden wir von 4800 / 5600 MHz CL38-42, im (kleinen) Desktop ja von 5600/6000+ MHz CL30-36 oder schneller, das sind extreme Unterschiede...
  • In dem Beispiel / bei FarCry 6 mögen für viele auch bereits die 92 fps des Alienware Area 51m R2 ausreichend sein. Aber erstens gibt es üblere Stellen im Spiel, und zweitens gibt es mittlerweile so einige Spiele, wo man die fps quasi durch 2 teilen kann, und dann bleibt bei allen Laptops nicht mehr viel über bzw. nicht einmal stabile 60 fps in entsprechenden Szenen. Das mag bei solchen Spielen auf schlechte Entwicklung / Optimierung / Ports zurück zu führen sein, aber was will man machen, wenn einem diese Spiele gefallen und man eben mindestens mal einigermaßen stabile 60 fps haben möchte...
  • wie hinreichend bekannt ist ein gleich schneller und auch deutlich schnellerer (kleiner) Desktop deutlich deutlich günstiger als ein Gaming-Laptop
Evtl. kauft so jemand statt einem Gaming-Laptop einen (kleinen) Desktop und ärgert sich dann entsprechend weniger. Es gibt nämlich Personen, die aus Prinzip ein Gaming-Laptop statt einem (kleinen) Desktop kaufen, obwohl es nicht sein müsste. Aber abschließend ganz klar und wichtig: Es gibt auch Personen, die z.B. öfter im Hotelzimmer oder ähnlich sind und dort zocken wollen, da kann ein (kleiner) Desktop keinen Gaming-Laptop ersetzen! Hier ist ein Gaming-Laptop eben alternativlos!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes und captn.ko
,, von der Redaktion wiederholt angesprochene Thema „Power Sharing“ in Gaming-Notebooks anschaulich dokumentiert. CPU und GPU teilen sich ein Chassis mit einem Kühlsystem. Um das nicht zu überlasten, halten OEMs die kombinierte Leistungsaufnahme von CPU und GPU unter Kontrolle, die GPU hat in der Regel Priorität, die CPU steckt zurück.,,

Mir fehlt bei dem Artikel ein entscheidender Hinweis. Das Alienware Area51m R2 kann das bereits besser als alle modernen Notebooks!

Das Chassis kann auch bei über 180W! GPU Verbrauch noch über 100w der CPU kühlen. Bei erträglichen Gehäuse Dimensionen. Über 300W kombinierter Verbrauch sind bei dem Notebook mit entsprechendem Lüfterprofil machbar. Das Chassis leistet im Silent Modus mehr als die 2023er Geräte mit dem lautesten Lüfterprofil.

Hier wird einfach bei den OEMs gespart bis zum Erbrechen. Nur noch das Minimum liefern und das höchste Preisschild dran pappen. Sowas sollte in Notebooktests konsequent abgestraft werden und die OEMs zur Besserung ermahnt werden. Das 51mR2 hat ja gezeigt, das es geht CPU und GPU gleichzeitig vernünftig zu kühlen. Design follows function...und nicht anders rum.

Diese dynamischen TDP Verteilungen und ,,shared Heatsinks,, sind nur dazu da schlechte, weggesparte Kühlung zu kaschieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes und Robman86
Zurück
Oben