Test Radeon RX 6800M im Test: AMDs schnellste mobile RDNA-2-Grafikkarte im Benchmark

Bassmensch schrieb:
Achtung - der Crucial Cl16 Speicher läuft mit 1,35 V - Die CL 22 Samsung SO Dimms laufen mit 1,2V im Notebook. Die Crucial CL16 1,35 V Speicher werden richtig heiß. Ich denke dass die CL22 Module aus thermischen Gründen verbaut sind. Ich hab die Crucials wieder aus meinem Notebook rausgeworfen, mir war das zu heftig mit der Temperatur.......

Oh, vielen Dank.

Das war mir so gar nicht bewusst.

Hatte die Spannung jetzt gar nicht geprüft bei den Crucial Bausteinen.

Dann werde ich die wohl auch besser zurück gehen lassen.

VG
Thomas
 
cr4zym4th schrieb:
Also hatte man ca. von 2014 - 2020 bei der Grafikkarte Desktopleistung im Laptop.
Auch wenn vor allem die mobilen Turings an ihre Desktop-Geschwister herankamen, war es in dieser Generation fast schon absehbar, dass das passiert.

Sowohl bei AMD ab der RX 6800 als auch bei Nvidia ab der RTX 3070 wurde im Desktop schon nicht mehr auf Effizienz geachtet.

Dass sich das so nicht im Notebook finden lassen wird, war abzusehen.

Dennoch nutzen beide Hersteller ihre Top-Modellbezeichnungen auf im Notebook, was natürlich dem Marketing dient.

Wer sich selbst nicht gut genug auskennt muss sich erkundigen.

Ein Mercedes-AMG C63 ist leider auch kein 6,x Liter V8 mehr, sondern ein 2,x Liter V4 Hybrid.

Natürlich fallen bei der Grafikkarte mehr Menschen auf die Bezeichnung herein, aber mal ganz ehrlich:

Wer sich als Unwissender soweit erkundigt und weiß, dass eine RX 6800 eine der ganz starken Desktop-GPUs ist, der kann sich auch 5 Minuten länger einlesen und sich über die RX 6800M informieren.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: TM800, Onkel Föhn, Neodar und 3 andere
Zornica schrieb:
gibt es denn wirklich Leute, die das glauben oder erwarten?
Ja leider genügend irgend wie traurig ist aber so.
Ergänzung ()

SV3N schrieb:
Nvidia ab der RTX 3070

Naja die RTX3070ti ist noch mal eine Stufe schlimmer fast VEGA64 like.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
wayne_757 schrieb:
Verstehe ich nicht ganz. JEDEC ist lediglich bis CL20 spezifiziert. Wie soll das dann ohne XMP gehen?

Stimmt hast recht habe gerade nochmals geschaut ist CL20 laut CPUZ.

Macht aber trotzdem nichts, da der Speicher um Welten besser ist als der Samsung Ram.
Auch die werte in den Spielen sind deutlich besser. In wie weit ein vernünftiges CL22 Modul jetzt schlechter ist weiß ich nicht.
 
xXGerryxX schrieb:
Namen sind Schall und Rauch.
Dann braucht man sich aber auch nicht über eine angebliche Mogelpackung aufgrund der Namensgebung zu beschweren.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Balikon schrieb:
Konkurrenzfähig hin oder her. Ich bleib dabei: Das ist und bleibt eine irreführende Mogelpackung. Sie bringt im Besten Fall 2/3 der Leistung einer Desktop 6800. Da hilft es auch nix, dass sie für ihre Specs ziemlich gut ist.

Das Ding 6700 zu nennen, wäre nicht nur ehrlicher, sondern würde die gezeigte Leistung in einem besseren Licht darstehen lassen.
Sorry , aber das nennt man Fanboy (nvidia) gelaber vom feinsten ....
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Hab ich was verpasst oder warum werden die Nvidia Laptop GPU nicht entsprechend in den Benchmarks gekennzeichnet?
Wir zwar hin und wieder eine mobile 3060 mit 90W erwähnt, aber aus den Statistiken kann ich nichts dergleichen rauslesen?!
 
Zur UVP von 1.799 Euro gibt es am Markt kein Gerät mit vergleichbar schneller CPU und GeForce RTX 3000 Laptop GPU mit weit jenseits der 100 Watt. Das günstigste GeForce-RTX-3080-Gaming-Notebook mit 15,6 Zoll ist das Acer Nitro 5 mit Ryzen 7 5800H und RTX 3080 bei maximal 85 Watt – das ist kein Vergleich.

Naja auch etwas komischer Vergleich.
Ein Legion 5 Pro mit 5800h, RTX3070 (140 Watt) 32GB RAM , 1TB NVME. Hat eine UVP von 1799€.
OK der 5900HS ist ein bisschen schneller.
Bei der RTX3070 muss man schauen aber viel Unterschied ist da denke ich nicht. Selbst wenn ist bei Raytracing Schluss.
Aber dafür bringt das Legion bereits ein WQHD+, 500 Nits 165 Hz HDR Display mit.
Und nicht ein Full HD 300Nits. WQHD gibt es hier bei Asus auch nur mit Aufpreis.

Die Vergleichbarkeit fehlt da ein bisschen. Was bringt einem eine tolle Grafikkarte wenn das Display "Mist" ist und man die "tolle" Grafikpracht nicht sieht.

Wäre echt toll wenn CB das Legion 5 Pro testen könnte.
 
Hab schon eins bestellt :love:
und wird gleich mal gepimpt ...

MfG Föhn.
 

Anhänge

  • 6800M.jpg
    6800M.jpg
    338 KB · Aufrufe: 341
  • RX 6800M.jpg
    RX 6800M.jpg
    239,1 KB · Aufrufe: 319
  • Laptop 6800M.jpg
    Laptop 6800M.jpg
    168,7 KB · Aufrufe: 321
  • SSD.jpg
    SSD.jpg
    392,4 KB · Aufrufe: 336
  • DDR 3200.jpg
    DDR 3200.jpg
    338,5 KB · Aufrufe: 371
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Einfallslos^99 und Mcr-King
Ist das Ding besser reparierbar als die letzten paar Modelle? Gerade sowas wie die Tastaturmatte, die Asus gerne mal nicht austauschen lässt?
 
  • Gefällt mir
Reaktionen: Mcr-King
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Floppy5885 schrieb:
Aber dafür bringt das Legion bereits ein WQHD+, 500 Nits 165 Hz HDR Display mit.
Und nicht ein Full HD 300Nits. WQHD gibt es hier bei Asus auch nur mit Aufpreis.
Bei der Displaygröße braucht kein Mensch eine höhere Auflösung, zumal du dich mal richtig informieren solltest, denn bei dem gequetschten Format musst noch mal unnötig Pixel berechnen. Ich sag nur 16:10. (wirst selber merken)
Weder die 500 Nits noch HDR sind hier herausragend, das sind mehr Gimmicks. In der Sonne zockt eh kein Gamer und da tun es auch andere Displays.
Sind sogar alles Gründe warum dem Ding noch eher als eh schon der Saft ausgeht. Schalt da mal auf 500 Nits... die Realität ist das man weit unter 300 agieren wird im Alltag. Das ist nur wegen HDR und da sind die Nits schon wieder alles andere als überragend.

Lenovo hat da übrigens sehr viele im Angebot, kp welches du mit FullHD meinst, da gibt es selbst in aktuell abverkauften noch ältere und auch aktuelle mit 144 Hz die sehr gut sind.
Hab die tatsächlich so gut wie alle schon mal in echt gesehen und bei 15 Zoll ist es total egal außer man nimmt ein Display welches wirklich keines der Features hat. Allerdings würde ich selbst bei einem 17 Zoller nicht unbedingt über FullHD gehen (am Notebook!) das sieht man bei Games sowieso dann nicht bei den kleinen Displays (ist ja auch logisch)
Am TV lohnen sich höhere Auflösungen auch er bei der entsprechenden Diagonale. Was willst am TV mit 4k auf 32 Zoll?
Mal abgesehen davon das es eine Leistungsgeschichte ist, die meisten Notebooks haben eine abgespeckte 3070 / 3060 drin mit weit weniger TDP, da geht dann die Luft aus.
Informieren ist hier angesagt.
Und deine Definition von "Mist" ist lustig, denn genau genommen ist das HDR im Pro auch "Mist" da es natürlich nicht mithalten kann mit gescheitem HDR eines High-End TVs. Ist eben ein Notebook ^^
 
  • Gefällt mir
Reaktionen: Mcr-King
500 nits am Laptop im Zug/Hotel reichen dicke. Ein TV steht u.U. im Wozi bei sehr hellem Licht, ...klar das man dann mehr Nits auch brauchen kann.
Wichtig ist nur der Kontrast und Schwarz, mal abwarten was Onkel Föhn dann so berichtet.

Am PC habe ich mit 600 Nits@32" sogar den Nachtmodus an.

Und 16:10 ist doch für Office net verkehrt, glaube net das so ein Teil nur von unbedarften onlyGamern geholt
wird. Das sieht mir mehr nach gestandenen Usern aus, die auch mal dran arbeiten, ... und das nötige Kleingeld
für ne 2TB + 32Gig haben.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Floppy5885 schrieb:
@Lord_Helmi

Anno 1800
Max Settings 2560*1600 vorher 38-45 FPS,
Nach dem Ram-wechsel 50-60 FPS.

Selbst bei BF V (Shooter) max Settings 2560*1600
Vorher 80-100FPS,
jetzt 110-140 FPS.

Ganz ehrlich, ich glaube das es was ausmacht, aber niemals ca. 40% wie in deiner Ausführung.
 
XTR³M³ schrieb:
Das geht in den meisten Lappys nach hinten los, weil der Speicher XMP nutzt für CL16. Den hatte ich verbaut, der lief dann auf CL22 bei 2667MHz. Die beste Lösung ist der Kingston von @Lord_Helmi, der schafft die CL20 auch bei JEDEC Einstellungen, also ohne XMP.
SV3N schrieb:
Sowohl bei AMD ab der RX 6800 als auch bei Nvidia ab der RTX 3070 wurde im Desktop schon nicht mehr auf Effizienz geachtet.
Bei der RX 6800 wurde nicht auf Effizienz geachtet? Das ist wohl die falsche Wortwahl, denn laut eurem Test ist die 6800 10% effizienter als die 6700XT, auf dessen GPU die 6800M basiert. Ich gehe eher davon aus, dass die GPU schlicht zu groß für Lappys ist. Schließlich braucht man da ja auch mehr Speicherchips und damit vermutlich ein aufwändigeres PCB. Außerdem ist sie natürlich auch teurer und der große Chip lässt sich vermutlich nicht so leicht auf ein Laptop taugliches TDP Limit bringen.
 
  • Gefällt mir
Reaktionen: Mcr-King und bad_sign
XTR³M³ schrieb:
Onkel Föhn schrieb:
Hab schon eins bestellt :love:
und wird gleich mal gepimpt ...
Vorher unbedingt prüfen ob der Laptop XMP unterstützt. Viele tun es leider nicht.
FX-Multimedia schrieb:
Ganz ehrlich, ich glaube das es was ausmacht, aber niemals ca. 40% wie in deiner Ausführung.
40% wäre echt heftig, aber bis zu 20% sind durchaus drin, je nach Benchmark. Jarrods Tech hatte damals sogar bei SotTR 1080p 20% gemessen, nur durch RAM.
 
  • Gefällt mir
Reaktionen: Mcr-King und Onkel Föhn
Oberst08 schrieb:
Bei der RX 6800 wurde nicht auf Effizienz geachtet? Das ist wohl die falsche Wortwahl, denn laut eurem Test ist die 6800 10% effizienter als die 6700XT, auf dessen GPU die 6800M basiert.
???

Bei Desktop-GPU´s finde ich den Effizienztest von TPU in CP2077 sehr aussagekräftig:
(ne 6700xt ist deutlich über Sweetspot eingestellt ggü. ner 6800nonXT, kann also im Laptop nur besser werden)
 

Anhänge

  • efficiency.png
    efficiency.png
    99,8 KB · Aufrufe: 246
  • Gefällt mir
Reaktionen: Onkel Föhn
GerryB schrieb:
Bei Desktop-GPU´s finde ich den Effizienztest von TPU in CP2077 sehr aussagekräftig:
(ne 6700xt ist deutlich über Sweetspot eingestellt ggü. ner 6800nonXT, kann also im Laptop nur besser werden)
Oder alternativ bei Igor. Wobei ich die Werte bei TPU komisch finde. So viel schneller ist die 6900XT nicht gegenüber einer 6800XT, dass die so viel effizienter sein könnte. Und soweit ich das im Kopf habe, war die 5600XT auch effizienter als die 5700 (natürlich auch je nach Auflösung).
Aber im Prinzip hast du Recht: Die 6700XT bietet mehr Sparpotential, weil sie viel stärker gepusht ist. Allerdings war die ursprüngliche Aussage ja auch, dass bei der 6800 und der 3070 (Desktop) nicht auf Effizienz geachtet wurde, was gerade bei den beiden Karten eben nicht wirklich stimmt. Eigentlich sind das die effizientesten Karten von AMD und NV im aktuellen Lineup, was ja auch TPU belegt.
 
Die 6900 kann extrem effizient @UVen. Da kommt netmal die 6800 ran, ne XT gleich gar net.
Sobald die Effizienzmessung bei nem festen Fps-Limit erfolgt, trennt sich die Spreu vom Weizen.

Mal als Bsp. die 6900@165W asic von Duvar mit dem UWP-HAGS-Treiber:
(für den gleichen Grafik-Score verbraten alle anderen Grakas, selbst@UVen, deutlich mehr Watt, z.Vgl. mal mein Score 6800@224W asic. ...ein 18k Score wäre für ne 6800 dann zu sehr über Sweetspot, geht aber bei DaHell)
 

Anhänge

  • Duvar@165Wasic.png
    Duvar@165Wasic.png
    1,3 MB · Aufrufe: 217
  • 915@2533-1998_2132FT_PL3.png
    915@2533-1998_2132FT_PL3.png
    539,8 KB · Aufrufe: 218
  • DaHell@6800strixx_HAGS.JPG
    DaHell@6800strixx_HAGS.JPG
    77,7 KB · Aufrufe: 222
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Kandira schrieb:
Quasi eine RX 5700 XT Leistung fürs Notebook.
Eher 6700XT ...

https://www.notebookcheck.com/Zurue...-Laptop-GPU-im-Performance-Test.548251.0.html

MfG Föhn.
Ergänzung ()

Barren Militia schrieb:
"Das hierzulande nicht angebotene ROG Strix G17 Advantage Edition bietet dieselben Optionen, nur eben in 17,3"

Hauptsache kein grosses Display für den deutschen Markt. Will ja auch hier garantiert keiner haben... Dämlich, diese Winz-Displays in NBs mit soviel Leistung!
War eigentlich auch auf der Suche nach einem 17,3 " (WQHD) mit 5980HX CPU und 6800M (12 GB) GPU.
Aber wie Du ja bereits erwähnt hast, Deutschland und so ... :pcangry:

MfG Föhn.
Ergänzung ()

XTR³M³ schrieb:

@Lord_Helmi

"Vorher unbedingt prüfen ob der Laptop XMP unterstützt. Viele tun es leider nicht."

Meiner einer hat diesen bestellt (CL 18), da 1,2 V.
Hatte schon mal ein Kit mit 1,35 V (CL 16), das lief dann allerdings NICHT mit 3200 MHz (wegen kein XMP im BIOS/UEFI) ... :freak:

https://geizhals.de/g-skill-ripjaws-so-dimm-kit-32gb-f4-3200c18d-32grs-a1540740.html?hloc=at&hloc=de

MfG Föhn.
 

Anhänge

  • 6700XT vs. 6800M.jpg
    6700XT vs. 6800M.jpg
    358,2 KB · Aufrufe: 231
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: GerryB
Zurück
Oben