Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
RX6600 XT VRAM - Taktet nicht runter - Lösung für Multi-Monitor-Setup?
- Ersteller eehm
- Erstellt am
Und wie spielen hier noch die Hz rein?Alexander2 schrieb:schon alleine wenn man die sich verändernden Werte mal ausrechnet.
Das sind jetzt ja reine Pixel (statisch).
Ja, aber da müsste ich verstehen was wirklich reinspielt, dann könnte man ggf. hier noch etwas versuchen!NikoNet schrieb:Hast du eventuell die Möglichkeit etwas anderes als 60 Hz dort auszuwählen zum Testen?
Alexander2
Fleet Admiral
- Registriert
- Aug. 2014
- Beiträge
- 15.516
Womöglich die Gigabyte/s die der VRam stemmen muss? Schließlich ist es ja der VRAMeehm schrieb:Ist es die Füllrate?
Edit:
((2560*1440)+(3840*2160))*60Hz*10Bit Farbtiefe/ 8/1024/1024= 856Gbyte/s hab ich mich verrechnet?
Edit:
gibt ja viele 8bit frc Monitore, damit dürfte man wohl eher rechnen.
Und nicht vergessen, jedes einzelne bit kostet strom, auch wenn ein einzelnes bit lächerlich wenig strom brraucht so summiert sich das bei milliarden und mehr bit zusammen.
Zuletzt bearbeitet:
beckenrandschwi
Commander
- Registriert
- Aug. 2004
- Beiträge
- 2.234
Ich habe auch seit Jahren ein 3- Monitor Setup. Erst 1x24" + 2x19", dann über mehrere Stufen nun 2x24"+1x32". Und auch verschiedene Grafikkarten. GTX280, 580, 780, 980ti und nun 2080Ti. Immer ist der Verbrauch ab 3 Monitoren wesentlich höher, als bei 2 Stück. Der RAM taktet immer auf max.
Ich habe keine Lösung bisher gefunden und mein Apell an CB bei der Leistungsaufnahme auch ein 3-Monitor Setup zu testen geht seit Jahren ins leere.
Wobei es schon besser geworden ist. Die GTX980Ti verbrauchte noch 70W im Leerlauf, die RTX2080Ti "nur" noch 45W.
Ich habe keine Lösung bisher gefunden und mein Apell an CB bei der Leistungsaufnahme auch ein 3-Monitor Setup zu testen geht seit Jahren ins leere.
Wobei es schon besser geworden ist. Die GTX980Ti verbrauchte noch 70W im Leerlauf, die RTX2080Ti "nur" noch 45W.
Zuletzt bearbeitet:
Nee denke das passt.Alexander2 schrieb:((2560*1440)+(3840*2160))*60Hz*10Bit Farbtiefe/ 8/1024/1024= 856Gbyte/s hab ich mich verrechnet?
Edit:
gibt ja viele 8bit frc Monitore, damit dürfte man wohl eher rechnen.
Ich habe jetzt sogar mit 6bit getestet und einmal HDMI statt DP.
Aber alles keine Lösung. Der VRAM bleibt auf High.
Wäre ja wegen dem Strom schon schlimm genug, aber leider hat die Karte als untere Drehzahl 1400 U/min
Testweiße habe ich jetzt mal einen 92 mm Lüfter unter die Karte "gebaut". Aber hier weiß ich nicht, ob da nicht was auf dauer kaputt geht.
Dazu mache ich noch einen anderen Thread auf.
Danke euch.
Multi-Monitor ist selbst in 2026 wohl kein easy going!
Alexander2
Fleet Admiral
- Registriert
- Aug. 2014
- Beiträge
- 15.516
Nein, Getho Mod ist fein, nur nichts dadurch in andere Lüfter hängen lassen.eehm schrieb:ob da nicht was auf dauer kaputt geht.
Holzinternet
Commander
- Registriert
- Dez. 2013
- Beiträge
- 2.559
Ich hab das gleiche Problem mit einer RX7900XTX. 3 Bildschirme, 2x 32" 1440p @144Hz & 1x 29" 1080p UW @60Hz.
Der Speicher der GraKa rennt auch im Windows Idle bei max. Dadurch habe ich permanent 100 Watt Leerlaufverbrauch. Alles ausprobiert. Sämtliche Auflösungen, sämtliche Wiederholfrequenzen. Lediglich wenn ich einen Bildschirm anschließe taktet der RAM runter. Am Ende war ich so angefressen und genervt das ich die 7900XTX aus dem System geworfen habe. Letzte Woche.
Hab dann meine Reserve 3060 12GB ausgepackt und eingebaut. Und et Voila. 3 Bildschirme. 2x 1440p@ 144Hz, 1x 1080p UW@ 60Hz, Windows Idle 30 Watt. Meine alte Grafikkarte, RTX4070, vor der XTX konnte das ebenfalls. Aber die hat mittlerweile meine Frau und gibt sie nicht mehr her. Also erstmal 3060 angesagt.
Lange Rede, am Ende kann ich aus Erfahrung sagen das die RTX 3000 und RTX 4000 das leisten können. AMD mit der 7000 Serie nicht. Und wie es aussieht auch deine 6000 Serie nicht.
Versuch mal von nem Bekannten eine RTX zum testen zu bekommen und schau ob was für Ergebnisse bei Dir rauskommen.
In mein System kommt auf lange Sicht keine AMD Grafikkarte mehr.
Gruß
Holzinternet
Der Speicher der GraKa rennt auch im Windows Idle bei max. Dadurch habe ich permanent 100 Watt Leerlaufverbrauch. Alles ausprobiert. Sämtliche Auflösungen, sämtliche Wiederholfrequenzen. Lediglich wenn ich einen Bildschirm anschließe taktet der RAM runter. Am Ende war ich so angefressen und genervt das ich die 7900XTX aus dem System geworfen habe. Letzte Woche.
Hab dann meine Reserve 3060 12GB ausgepackt und eingebaut. Und et Voila. 3 Bildschirme. 2x 1440p@ 144Hz, 1x 1080p UW@ 60Hz, Windows Idle 30 Watt. Meine alte Grafikkarte, RTX4070, vor der XTX konnte das ebenfalls. Aber die hat mittlerweile meine Frau und gibt sie nicht mehr her. Also erstmal 3060 angesagt.
Lange Rede, am Ende kann ich aus Erfahrung sagen das die RTX 3000 und RTX 4000 das leisten können. AMD mit der 7000 Serie nicht. Und wie es aussieht auch deine 6000 Serie nicht.
Versuch mal von nem Bekannten eine RTX zum testen zu bekommen und schau ob was für Ergebnisse bei Dir rauskommen.
In mein System kommt auf lange Sicht keine AMD Grafikkarte mehr.
Gruß
Holzinternet
Alexander2
Fleet Admiral
- Registriert
- Aug. 2014
- Beiträge
- 15.516
Naja, aber 15w mehr ist meilenweit entfernt von 100w im idle.
Und ich weiß ja auch nicht was bei Windows so alles abgeht, aber selbst mit erhötem Takt hats bei mir mit Video abspielen dann 30w
Ist mitm 240Hz 2560x1440 Monitor (HDR an also 10 Bit auch)
Ist auch ne 7900 XT wie man sieht.
Edit: Und nein, kein Undervolting.
Und ich weiß ja auch nicht was bei Windows so alles abgeht, aber selbst mit erhötem Takt hats bei mir mit Video abspielen dann 30w
Ist mitm 240Hz 2560x1440 Monitor (HDR an also 10 Bit auch)
Ist auch ne 7900 XT wie man sieht.
Edit: Und nein, kein Undervolting.
Zuletzt bearbeitet:
- Registriert
- Mai 2010
- Beiträge
- 2.959
@eehm
Ich mache bei jeder meiner Karten einen Ghetto-Mod. Auch bei der AsRock-Challenger ist es ziemlich einfach, weil es einfach nur 4 Verschraub-Punkte sind. Keine Clips o.ä. und auch keine Kühler-Demontage, wenn man sich auch nur etwas geschickt anstellt.
3 von 4 Schrauben sieht man direkt von oben:
Die 4. Schraube liegt zwischen PCB und Kühler, aber es ist so viel Platz, dass man mit gewinkeltem Schraubenzieher durchaus dran kommt, ohne den Kühler demontieren zu müssen.
Die Karte selbst hat einen normalen MiniPWM-Anschluss.
Es kann also ein normaler Adapter auf FullSize-PWM oder auch ein Y-Adapter für 2 PWM-Lüfter angesteckt werden.
Dann schließt man noch 2x normale 92mm-Lüfter mit voller Bautiefe (25mm) an und dann is fertig.
Die Stock-Lüfter sind einfach Müll bzw. auch die Lüftersteuerung. 20% PWM sind halt gleich 1400rpm.
Wenn du z.B. einen bzw. zwei Noctua NF-A9 PWM draufschnallst, ist die Karte sofort unhörbar.
Der Lüfter hat einen Drehzahlbereich von 400-2000rpm. Wenn die Karte also 20% PWM anlegt, hast du 400rpm, statt 1400rpm. Und durch den viel höheren statischen Druck und Luftdurchsatz der Lüfter auch eine bessere Kühlung.
Also einfach einen Adapter für 7-8€ und 2 gute 92mm Lüfter und dann passt das.
Sollte Noctua zu teuer sein, gibt es bei Arctic auch gute DaisyChain-fähige Lüfter für 8-9€ (z.B. Arctic P9 PWM PST).
Ich mache bei jeder meiner Karten einen Ghetto-Mod. Auch bei der AsRock-Challenger ist es ziemlich einfach, weil es einfach nur 4 Verschraub-Punkte sind. Keine Clips o.ä. und auch keine Kühler-Demontage, wenn man sich auch nur etwas geschickt anstellt.
3 von 4 Schrauben sieht man direkt von oben:
Die 4. Schraube liegt zwischen PCB und Kühler, aber es ist so viel Platz, dass man mit gewinkeltem Schraubenzieher durchaus dran kommt, ohne den Kühler demontieren zu müssen.
Die Karte selbst hat einen normalen MiniPWM-Anschluss.
Es kann also ein normaler Adapter auf FullSize-PWM oder auch ein Y-Adapter für 2 PWM-Lüfter angesteckt werden.
Dann schließt man noch 2x normale 92mm-Lüfter mit voller Bautiefe (25mm) an und dann is fertig.
Die Stock-Lüfter sind einfach Müll bzw. auch die Lüftersteuerung. 20% PWM sind halt gleich 1400rpm.
Wenn du z.B. einen bzw. zwei Noctua NF-A9 PWM draufschnallst, ist die Karte sofort unhörbar.
Der Lüfter hat einen Drehzahlbereich von 400-2000rpm. Wenn die Karte also 20% PWM anlegt, hast du 400rpm, statt 1400rpm. Und durch den viel höheren statischen Druck und Luftdurchsatz der Lüfter auch eine bessere Kühlung.
Also einfach einen Adapter für 7-8€ und 2 gute 92mm Lüfter und dann passt das.
Sollte Noctua zu teuer sein, gibt es bei Arctic auch gute DaisyChain-fähige Lüfter für 8-9€ (z.B. Arctic P9 PWM PST).
Zuletzt bearbeitet:
Danke dir, das würde ich mir dann denke ich schon zutrauen.Mr. Smith schrieb:Die 4. Schraube liegt zwischen PCB und Kühler, aber es ist so viel Platz, dass man mit gewinkeltem Schraubenzieher durchaus dran kommt, ohne den Kühler demontieren zu müssen.
Vielen Dank, das klingt auch einfach.Mr. Smith schrieb:Es kann also ein normaler Adapter auf FullSize-PWM oder auch ein Y-Adapter für 2 PWM-Lüfter angesteckt werden.
Bei den Lüftern würde ich dann auf die Noctua Redux zurückgreifen. Die sollten sicher auch passen.
Muss man ggf. die Drehzahl beschränken, dass die zwei neuen Lüfter nicht wesentlich mehr Strom aus dem Ausgang ziehen wie die originalen und somit die Karte beschädigen?
Oder ist es ggf. besser die Lüfter einfach ans Mainboard zu hängen?
Und die 92mm Lüfter dann einfach mit dünnen Kabelbindern fixieren oder?
Noch eine peinliche Frage.
Wie bekomme ich die Karte wieder raus?
Ich komme ja nicht mehr an die PCIe Entriegelung, weil da jetzt die Karte drüber ist.
- Registriert
- Mai 2010
- Beiträge
- 2.959
Wenig statischer Druck und in diesem UseCase sicher nicht der ideale Lüfter.eehm schrieb:Bei den Lüftern würde ich dann auf die Noctua Redux zurückgreifen. Die sollten sicher auch passen.
Such einen Lüfter mit einem Schaufel-artigerem Rotorblatt. Beim Redux ist das Blatt sehr steil (= wenig Druck).
Der normale NF-9 macht 40% mehr Druck und auch der billige Arctic ist hier deutlich besser.
Der holt den Druck zwar aus der Drehzahl, aber der hat potentiell sogar den doppelten Druck des Redux'.
Nein.eehm schrieb:Muss man ggf. die Drehzahl beschränken, dass die zwei neuen Lüfter nicht wesentlich mehr Strom aus dem Ausgang ziehen wie die originalen und somit die Karte beschädigen?
Die FullSize-Lüfter ziehen weniger Strom, als die Stock-Lüfter.
Die Stock-Lüfter haben 12V*0,45A = 5,4W Leistung/Verbrauch (max.).
2 gute 92mm Lüfter brauchen nicht mehr als 2,5 - 3,0W (max.).
Da könnte man locker auch 5 Lüfter draufhängen. Dem Anschluss ist das völlig egal.
Nein.eehm schrieb:Oder ist es ggf. besser die Lüfter einfach ans Mainboard zu hängen?
Die Karte soll sich selbst regeln; unabhängig vom UEFI oder irgendwelchen Lüfterkurven, die man ja auch mal falsch einstellen könnte. Die Lüfterregelung der Karte ich absolut ausreichend, wenn gute Lüfter angeschlossen werden.
Außerdem funktioniert die Karte so einfach immer. Egal ob du den PC neu aufsetzt oder whatever.
Kommt auf deine Möglichkeiten an.eehm schrieb:Und die 92mm Lüfter dann einfach mit dünnen Kabelbindern fixieren oder?
Es wäre die gängigste Lösung. Einfach an der Spange befestigen, an der aktuell der Shroud verschraubt ist.
Optional kann man auch selbst einen Shroud 3D-drucken. o.ä.
Da kommt man immer ran.eehm schrieb:Noch eine peinliche Frage.
Wie bekomme ich die Karte wieder raus?
Ich komme ja nicht mehr an die PCIe Entriegelung, weil da jetzt die Karte drüber ist.
Die Verriegelung geht auch immer noch auf, wenn du dort eine 3-4 Slot GPU einbaust.
Du machst dir da Gedanken über Probleme, die eigentlich keine sind.
Es muss ja nicht von unten entriegelt werden.
Du kannst ja auch einfach bei der Backplate von oben den Slot entriegeln.
Zuletzt bearbeitet:
Nein, leider nicht!Bono35 schrieb:Refreshrates für beide Monitore auf 120 HZ setzen, Freesync auf beiden an - Problem gelöst.
Ich habe 3 Bildschirme
Bono35
Commander
- Registriert
- Juli 2015
- Beiträge
- 2.967
Dann wäre der Wechsel auf eine Nvidia-Karte in Deinem Fall zu empfehlen. Diese haben eben eine Display Engine die im Multimonitor Betrieb wesentlich entspannter mit den Pixel Clocks der GPU umgeht. Mit drei Bildschirmen wird das Problem mit ner AMD Karte so nicht lösbar sein.
Für zwei Displays gibt es Workarounds. Für drei wird es dann mit AMD schwer. Da wird der VRAM nicht runtertakten.
Für zwei Displays gibt es Workarounds. Für drei wird es dann mit AMD schwer. Da wird der VRAM nicht runtertakten.
Ähnliche Themen
- Antworten
- 7
- Aufrufe
- 1.220
- Antworten
- 536
- Aufrufe
- 103.380