RTX 3080ti FE Video Ausgabe defekt aber Output über die IGPU nutzt die volle Leistung?!?

NoiseBomb schrieb:
Klar warum sollte man sowas tun wenn die Outputs funktionieren.
Energie sparen. Wenn meine RTX 3090 alle 3 Monitore antreibt -> 50W. Die iGPU schafft es auf dem Desktop mit < 1W. Die 3090 verbraucht aber laut HWInfo immer noch ~10W selbst wenn nichts angeschlossen ist und sie nicht aktiv rechnet. Hier fehlen dann doch extra Dinge die es im Notebook gibt.
NoiseBomb schrieb:
Trotzdem bin ich positiv überrascht das das Ganze so reibungslos funktioniert
Das ist spätestens seit Windows 10 ein Windows Feature. Da so wie du es machst auch in sehr vielen Notebooks genutzt wird, ist das auch mit den Intel und Nvidia Treibern recht gut getestet und stabil.
Wenn man aber zB den primären Monitor an der Nvidia hat und weitere an der iGPU dann wird es zickiger. Mit ein paar älteren Intel Treibern gab es crashes. Mit dem neuesten starkes Ruckeln, weil der irgendwie die iGPU doppelt so stark belastet wie ein älterer Treiber...
NoiseBomb schrieb:
Bisher hatte ich keinerlei Probleme mit irgendeinem Spiel und der overhead scheint sich auch in Grenzen zu halten.
Der Overhead ist letztendlich nur die PCIe Bandbreite nach FPS * Pixel * 3 Byte. Da deine GPU im Desktop vermutlich mit PCIe 4 x16 läuft, also über 20GB/s an Bandbreite hat, fallen die Frametransfers viel weniger auf, als zB in Notebooks wo teilweise nur x8 3.0 genutzt wird.

NoiseBomb schrieb:
obwohl laut datasheet nur DP 1.2 von der iGPU unterstützt wird
Uhh, der erste Erfahrungsbericht. Ich hatte für meine Z690 Wahl Gigabyte komplett ausgeschlossen wegen dieser Angaben. Asus war einer der wenigen Anbieter die explizit vollen Support angegeben haben (wobei DP 1.4 alleine oft reines Marketing ist. Es muss entweder HBR3 dabei stehen, oder eine Auflösung die quasi nur mit HBR3 möglich wäre um sicher zu sein).
NoiseBomb schrieb:
auf dem Mainboard von DP 1.2 auf DP 1.4 eher nur von besserer Schirmung und besserem Lane management ist.
Intel Specs sagen, das Board braucht Re-Timer (also quasi Verstärker-Chips) damit HBR3 geht. Es bleibt die Frage offen, ob die Hersteller solche Limits ins BIOS hardcoden (es muss ja auch zB konfiguriert werden, ob etwas ein HDMI Output ist etc.. An der CPU sind das die selben Pins),
oder das für Displayport schlichtweg die normalen Displayport Verfahren nutzt um die maximale Geschwindigkeit zu finden (für Kabel sieht der Displayport Standard vor, dass mit Testmustern durchgetestet wird um herauszufinden welche Geschwindigkeit das Kabel kann).
Aber ich hatte ehrlich gesagt erwartet, dass die Hersteller die in ihre Specs nur DP 1.2 oder HBR2 oder nur UHD@60 schreiben HBR3 blockieren um Beschwerden über Aufälle etc von Nutzern zu vermeiden.

Wäre jetzt spannend ob Gigabyte tatsächlich die ReTimer verbaut aber es nicht gut genug war für eine DP 1.4 Angabe oder es schlicht nicht getestet hat und die Kunden mal schauen lässt... Oder ob das wirklich spontan entschieden wird und du halt mit EMI etc glück hast, dass es gerade so geht.

Im Gegensatz zu älteren Platformen kam Sockel 1700 ja direkt schon mit DP 1.4 Support heraus, es macht also auch keinen Sinn, dass wie bei 1200 die Mainboards am Anfang nur für DP 1.2 validiert waren, weil es nur solche CPUs zu kaufen gab...
Ergänzung ()

Hast du eigentlich verifiziert, dass du RGB 8 Bit nutzt? In Window's erweiterten Anzeigeoptionen wird das detailliert gelistet. Ansonsten könnte dir der Grafiktreiber auch automatisch eine niedrigere Qualität eingestellt haben, um die Auflösung mit der Refreshrate noch zu erreichen... Dann wären immerhin Gigabytes Specs nicht fehlerhaft / unvollständig.

PS. die iGPU kann auch Adaptive Sync. Das ist unter den Global Settings im Intel Control Center versteckt, wenn ein passender Monitor angeschlossen ist. Sollte mit allen modernen G-Sync Monitoren gehen und auch mit allen G-Sync kompatiblen (offiziell oder inoffiziell)... Nur ältere G-Sync Module gehen vermutlich nicht, aber das konnte ich noch nicht testen (aber bald...)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NoiseBomb
@Ray519 erstmal Dank für die ganzen Infos scheint als hätte da jemand Ahnung vom Fach :D. Da 240hz bisher Problemlos läuft müssten die ReTimer also eigentlich verbaut sein oder kann es trotzdem sein das ich einfach Glück hatte das es bisher nicht gezickt hat? Ich meine, ich hatte schon DP 1.1 Verbindungen die mehr Mucken gemacht haben...
Weißt du welche Bauteile abseits der CPU noch für so einen Output benötigt werden? Hätte jetzt erstmal vermutet das da ja wahrscheinlich nicht einfach direkt die CPU mit dem DP Port verkabelt ist und gut (in dem Fall könnte man ja einfach wie bei einem Kabel testen wie weit man gehen kann und dann die maximale unterstützte Bandbreite freigeben). Heißt aber auch das ich jetzt erst mal wieder auf 144hz runter gehen werde da 240hz nicht unterstützt wird und ich nicht noch ein Mainboard frittieren will nur weil es außerhalb der Specs läuft.
Vielleicht liegt in den 240hz ja auch das Problem mit meinen Graka outputs? Hatte immerhin 1440p @240hz und 2x 4k @60 an der Graka dran. Klar waren die 2 4K Monitore nur im Desktop aber das ist ja denke ich mal dem Output Controller egal. Keine Ahnung ob das so funktioniert ich spekulier hier nur aber noch kann ich testen, wenn mir Nvidia die Versandmarke schickt nicht mehr.
 
NoiseBomb schrieb:
nicht einfach direkt die CPU mit dem DP Port verkabelt ist
So ins Detail gehen meine Kenntnisse nicht, aber ich glaube schon das das ziemlich direkt mit der iGPU verbunden ist. Plus die paar Leitungen die zum Chipsatz gehen.

Kaputt gehen kann dadurch nichts. Wenn da aktive Komponenten dazwischen wären, die kein HBR3 können, würde es nicht gehen (und du hast bis jetzt ja auch nicht nachgewiesen, dass überhaupt eine HBR3 Verbindung eingesetzt wird. WQHD@240Hz geht mit anderen Tricks auch ohne HBR3.

Das schlimmste was passiert, wenn du die Outputs einer GPU "überlastest" ist Ruckeln, evtl auch an anderen Stellen im System die auf dem selben RAM zugreifen und evtl bei maximaler Last länger warten müssen. Davon sollte keine GPU schneller kaputt gehen...

Da ist ein Teildefekt/Schwachstelle ab Werk oder ein Hitzeproblem um Welten wahrscheinlicher...
 
  • Gefällt mir
Reaktionen: NoiseBomb
Das Hizeproblem würde ich mal ausschließen da die Karte direkt einen Wakü Block und einen 360er Mora zum spielen bekommen hat. Die kennt thermisch nichts über 75°C, nicht mal mit furmark und p95 im Torture. Kann ich irgendwo sehen ob HBR3 aktiv ist?
 
Wenn der Monitor das nicht unter einem Diagnose / Verbindungsdetail Menüpunkt anzeigt, kenne ich unter Windows mit Nvidia oder Intel keinen Weg.

Deshalb ja, die exakten Auflösungsdetails, wie sie Windows anzeigt. Damit und dem Monitormodell, kann man die Bandbreite die das benötigt ausrechnen. Wenn die oberhalb von HBR2 liegt, muss es HBR3 sein.
 
  • Gefällt mir
Reaktionen: NoiseBomb
Windoof sagt:
2560x1440 bei 239,985 Hz mit 8bit RGB bei SDR
Adaptive Sync habe ich manuell deaktiviert weil es etwas gemuckt hat und HDR geht mir bei Windows einfach nur auf den Sack. Ständig ändert sich irgendwo die Helligkeit etc. evtl. konfiguriere ich den Kram aber auch einfach nicht richtig.
Monitor ist ein Samsung Odyssee G7 in 32" Model laut Windows LC32G7xT
 
Das sollte dann definitv HBR3 sein...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NoiseBomb
würde ja heißen 2560x1440x240x8x3=21,23 GBit/s wenn ich das richtig verstanden habe oder?
Ergänzung ()

Jetzt stelle ich mir natürlich die Frage ob da noch mehr geht :D. Wäre ja schon schön wenn ich einen 2. Monitor irgendwie verbunden bekomme. Hatte DP nicht irgendeine Funktion mit der man Monitore Daisychainen kann? die Frage ist ob das der Monitor auch kann und ob ich nach dem Monitor auf HDMI adaptieren könnte (der Fernseher den ich sonst damit betreibe hat leider kein DP). Leider müsste ich dann aber entweder den Fernseher mit 1080p o.Ä. betreiben oder auf 165hz zurück gehen da WQHD@240+4K@60 addiert 33,18 Gbit/s ergeben dürfte was leider DP 1.4 übersteigt.
 
Zuletzt bearbeitet:
Die benötigte Bandbreite fällt höher aus, als nur die reinen Pixel die du siehst (eher ~25Gbit/s von ~25,9).
Mehr geht nur mit DSC. Mit sowas wie den Club3D MST+DSC Adaptern. So einen DSC+MST Adapter + dann noch auf HDMI kann zickig sein. (wird dann vermutlich aktive Adapter brauchen).

@Drewkev
MST gibt es seit DP 1.2. DSC und HDR ist erst ab DP 1.4 drin.
Aber das sind mehr interne Features der iGPU und der Treiber und unabhängig von der Geschwindigkeit, die ja eigentlich in HBR1, 2 oder 3 angegeben werden müsste.
Selbst wenn ein Mainboard-Hersteller die Geschwindigkeit auf HBR2 limitieren würde, sollten DSC und MST weiterhin wunderbar gehen, genauso wie das auch mit HDR der Fall ist.

Gerade deshalb sind solche Angaben wie "DP 1.4" wertlos. Weil manch Monitor-Hersteller schreibt das nur dran weil er HDR kann und es dass erst seit der 1.4 Spezifikation gibt. Der Monitor mag aber nur HBR1 oder 2 als Geschwindigkeit können. Genauso wie Intel seine iGPUs lange als DP 1.2 bezeichnet hatte, sie aber mit einem neueren Treiber acuh schon seit 8th gen HDR können...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NoiseBomb
Echt? Mein altes Dell XPS 9Q33 mit Haswell (4th gen) konnte das schon. zB 2x Dell U2515H (auch MST mit DP 1.2/HBR2).

Also zumindest Intel kann MST also seit mindestens 4th gen. Bei Nvidia ist die älteste GPU die ich habe und mit der ich getestet habe eine GTX 980 Ti. Aber der Nvidia Support hat mir in anderem Zusammenhang auch gesagt, dass MST nicht offiziell auf GeForce untersützt ist (bei Quadro mit selben Chips aber schon lange).

Ohne MST würden auch die ganzen Docks nicht gehen Dell WD19, Lenovo USB-C Gen 2 Dock. Die machen auch immer angaben, welche Monitor Kombinationen noch mit HBR2/DP 1.2 Geräten gehen.

(Dell bezeichnet die dabei technisch korrekt als HBR2. Lenovo schreibt DP 1.2 in seine Resolution-Tabellen, meint aber exakt das gleiche...)
 
Ok ich seh schon, vielleicht sollte ich mein Glück im Unglück nicht überstrapazieren. Mit einem Bildschirm kommt man ja glücklicherweise auch klar. :D
Vielen Dank für euren aufschlussreichen Rat und die tollen Erklärungen zum Thema. Immer schön wenn niemand dumm sterben muss :)
 
Zurück
Oben