ASUS P8Z68-V Pro Gen3 x8 -> x16 ?

DeusoftheWired

Fleet Admiral
Registriert
Juni 2009
Beiträge
14.366
Hallo,

ich habe ein kleines Problem mit meinem Z68-V Pro Gen3 (komplettes System hier).

Im Moment sind die PCIe-Lanes auf x8 im ersten und x8 im zweiten Slot aufgeteilt, GPU-Z und auch 3Mark11 zeigen PCIe 2.0 x16 @ x8 2.0. Da ich im Moment aber kein CF/SLI verwende (Karte steckt im erstem PCIe-Slot, marineblau, und kann selbstverständlich x16), würde ich sie bzw. den Slot gern im x16-Modus laufen lassen. Ich weiß, der Unterschied ist nur meß- aber nicht spürbar. Trotzdem möchte ich gern diese Option nutzen, wenn das Board sie schon bietet.

Dummerweise finde ich im Handbuch des Boards nur eine Anleitung zur Aufteilung der Modi des dritten PCIe-Slots, nicht aber des ersten.

Sollte das Board erkennen, ob eine bzw. zwei GPUs gesteckt sind und anhand dessen automatisch x16/- bzw. x8/x8 auswählen, oder muß ich die Nutzung des Slots im UEFI direkt auswählen? Finde dort aber wie gesagt keine Möglichkeit dazu.
 
Bei GPU-Z ist neben der Anzeige zu den PCIe-Daten ein Fragezeichen,
wenn man da draufklickt, kommt ein Test der die Grafikkarte auslastet
und dann wird auch der maximale Wert angezeigt.

Im Leerlauf oder bei geringer Belastung steht da nicht unbedingt x16
das wird je nach Last dynamisch eingestellt.

Schonmal getestet ??
 
Zuletzt bearbeitet:
Yep, hab das Fragezeichen allerdings auch neulich erst entdeckt. Die GPU läuft unter der künstlichen Last und in Spielen etc. aber leider auch immer nur in x8.
 

Anhänge

  • x8x16.png
    x8x16.png
    288,9 KB · Aufrufe: 237
Hab grad noch mal geschaut, danke für den Tipp!
Sind seit dem letzten UEFI-Update zwei neue Versionen rausgekommen. Ich spiele mal die 3402 jetzt ein und gebe dann Rückmeldung.

€dit: Nope, hat nix gebracht. Immer noch x8.
 
Zuletzt bearbeitet:
Ist das BIOS der Grafikkarte evtl. mal modifiziert worden? Die Anzahl der Shader (1120 = HD 6870) und die Größe des VRAM (1GB = HD 6850) passen nämlich nicht zusammen. Soweit ich weiss, wurde die HD 6870 nie mit 1GB VRAM ausgeliefert. Sollte das BIOS modifiziert sein, kann das Problem evtl. dadurch verursacht werden.

Laut GPU-Z ist die Karte auch übertaktet. Vielleicht einmal mit den Standardtaktraten laufen lassen, um hier einen Fehler ausschließen zu können.

Viel Erfolg.
 
Hab das BIOS der GPU nie verändert oder ein anderes eingespielt. Takt, VRAM und Shader sind deshalb anders, da es keine reine von AMD/ATI ist, sondern die Sapphire Radeon HD 6870 DiRT3.
Habe mit Sapphires OC-Tool TRIXX zwar in der Vergangenheit mal ein wenig die Grenzen der Karte ausgelotet, betreibe sie aber im Moment mit dem vom Hersteller vorgegebenen Takt.
 
OK, sorry. Wieder etwas dazu gelernt.

In Sapphire-TRIXX gibt es die Möglichkeit die Einstellungen für zwei Grafikkarten zu synchronisieren. Vielleicht dort einen Haken gesetzt? Wenn ja, evtl. testweise einmal ändern.
 
Ehhm eventull liegt es einfach an einem Auslese-Fehler?^^
Kommt öfters vor.
 
mwh.re schrieb:
OK, sorry. Wieder etwas dazu gelernt.

In Sapphire-TRIXX gibt es die Möglichkeit die Einstellungen für zwei Grafikkarten zu synchronisieren. Vielleicht dort einen Haken gesetzt? Wenn ja, evtl. testweise einmal ändern.

Häkchen ist draußen, das kann es auch nicht sein. :/

Mumbira schrieb:
Ehhm eventull liegt es einfach an einem Auslese-Fehler?^^
Kommt öfters vor.

Kann natürlich sein. Dann würden den aber unterschiedliche Programme (GPU-Z, 3DMARK11, TRIXX) gleich falsch auslesen.
Außer mit einem Benchmark fällt mir leider keine Möglichkeit zum Testen ein, ob jetzt x8 oder x16 benutzt wird. Oder gibt’s da noch was anderes?
 

Anhänge

  • trixx.png
    trixx.png
    369,6 KB · Aufrufe: 195
Laut Mainboard-Handbuch sollte das Board erkennen, wenn nur eine Grafikkarte eingesetzt ist und diese dann mit PCI-E 2.0 x16 betreiben, vorausgesetzt der zweite Grafikkarten-Steckplatz wird nicht von einer anderen Erweiterungskarte genutzt.

CF/SLI im AMD/ATI Catalyst Control Center wieder deaktiviert (Handbuch Kapitel 5.1.5)?
 
Im zweiten und dritten Slot steckt keine Karte, die restlichen Slots sind auch leer.
CF hatte ich nie aktiviert, demzufolge auch im CCC nichts. Mir ist aber aufgefallen, daß sogar im CCC nur x8 als maximale Buseinstellung angegeben wird.
 

Anhänge

  • ccc.png
    ccc.png
    99,1 KB · Aufrufe: 189
Wenn möglich, die iGPU der CPU im BIOS komplett deaktivieren (die iGPU teilt sich mit den beiden PCI-E x16-Steckplätzen einen IRQ)

Wenn möglich, alle USB3-Geräte abziehen (der USB3-Controller teilt sich mit den beiden PCI-E x16-Steckplätzen einen IRQ)

Die Grafikkarte in den zweiten PCI-E x16-Steckplatz einsetzen (evtl. ist die PCI-E-Anbindung auf dem Board ja fehlerhaft, eher unwahrscheinlich, aber... :))

Hat die Grafikkarte denn schon einmal mit PCI-E x16 auf dem Board funktioniert? Wenn nicht, dann könnten auch der Steckplatz oder die Karte verschmutzt oder defekt sein.
 
iGPU ist deaktiviert, USB3.0-Geräte sind nicht angeschlossen.

Der zweite Slot ist doch nur mit x8 angebunden. Wäre seltsam, wenn es da mit x16 funktionieren würde. Na, egal, hab die Büchse jetzt sowieso offen und probiere es mal in dem Slot. Würde mich aber stark wundern.

x16 konnte ich bisher noch in keiner Anzeige lesen, egal ob GPU-Z, CCC, 3DMark11 oder TRIXX.

Hab gestern noch ein wenig zu dem Problem gegooglet. Bei vielen, die das Problem x8 statt x16 hatten, hat ’ne Reinigung oder einfaches Aus- und Wiedereinbauen geholfen. Deswegen eben mal die GPU ausgebaut, Kontakte gesäubert, Kontakte im ersten PCIe-Slot ebenso, hat aber nichts gebracht. :/

€dit: GPU im zweiten Slot bringt wie erwartet keine Veränderung.
 
Zuletzt bearbeitet:
Gut zu wissen, d3nN1z. :D

Ich gehe ja auch nicht von einem Serienfehler aus. Wenn das so wäre, gäbe es viel mehr Treffer bei einer Suche nach dem Problem. So langsam hab ich jetzt aber alles durch, was das ganze per Software auslösen kann. Muß mich wohl leider mit diesem kleinen Hardwaremakel abfinden.

Besorge mir nächste Woche mal ’ne vergleichbare Karte von ’nem Kumpel und schaue, wie sich das Board mit der verhält. Dann kann ich die Fehlerquelle wenigstens auf Board oder GPU eingrenzen.
 
Schon verschiedene Grafikkartentreiber ausprobiert?

Meine Sapphire HD 6850 arbeitet mit dem Catalyst 12.1 ohne Probleme zusammen. Alle weiteren Treiberupdates habe ich wegen der fehlenden OpenCL-Unterstützung unter WinXP ausgelassen.

Evtl. ASUS und/oder SAPPHIRE kontaktieren. Vielleicht ist das Problem ja bekannt und es gibt eine Lösung.
 
Puh, das ist natürlich auch noch ’ne Idee. Hab noch alle Versionen seit der 12.1 auf der Platte. Kann ich ja der Reihe nach mal durchprobieren. Muß ich etwas Bestimmtes beachten, wenn ich downgrade? DriverSweeper, abgesicherter Modus etc.?
 
So, ein Arbeitskollege hat mir heute zum Testen seine HIS 7850 GHz Edition mitgegeben.

Ernüchterndes Ergebnis nach Treiberinstallation und Testlauf: CCC, GPU-Z, TRIXX und 3DMark11 sagen wieder nur 8x. :(

Liegt wohl also doch am Board. Gebe meine 6870 dem Arbeitskollegen aber morgen mal mit, damit er sie bei sich testen kann, um einen Fehler der Karte auszuschließen.

Werde mich wohl an den ASUS-Support wenden müssen. Das kann ja heiter werden…
 

Anhänge

  • x8x16_2.png
    x8x16_2.png
    35,9 KB · Aufrufe: 181
Zurück
Oben