RX 6600xt nur auf PCIe 3.0

Solange du nur in 1080p unterwegs bist würde ich das nicht so kritisch sehen, vielleicht gibts da einzelne Games die durch die reduzierten Bandbreite etwas langsamer laufen, aber in Summe macht das nicht viel aus.
Falls du in WQHD unterwegs bist --> falsche Karte, dann wär ich auch eher bei der RX 6700 XT
 
Auch wenn die RX 6700 XT die deutlich bessere Empfehlung wäre, eine RX 6700 XT kostet nochmals eine Ecke mehr. Viele wollen nicht so viel ausgeben. War bei mir nicht anders. Eigentlich war mir die RX 6600 XT schon zu teuer...
War ja beim TE evtl nicht anders.
 
Oh ok sorry, dann habe ich da wohl gepennt. Mir war immer so als wenn das Board mal PCIe 4.0 konnte.
 
PeacemakerAT schrieb:
Falls du in WQHD unterwegs bist --> falsche Karte, dann wär ich auch eher bei der RX 6700 XT
Aber jetzt nicht wegen der Anbindung, mit wenigen Ausnahmen verliert die Karte beim Test von Techpowerup auf Full HD mehr FPS als in höheren Auflösungen. Letztendlich ist es da aber auch wieder nicht wild weil es sowieso gut spielbare Bereiche sind.

trYYY schrieb:
Mir war immer so als wenn das Board mal PCIe 4.0 konnte.
Es gab 400er Chipsatz Bretter die das mit einem Beta BIOS konnten, bei deinem gabs glaub keines und sowieso wärst du dann auf ein uralt AGESA festgenagelt.
 
Vielleicht hilft das Video von igorsLAB etwas auf die Sprünge, er macht ja immer viel Brimborium mit seinen Messungen ;-)

 
An diesem Beispiel sieht man, wie bei durch Hardwareeinschränkungen die Produkte quasi nur noch im Kompatibilitätsmodus laufen. Statt den Bandbreitenvorteil von PCI 4.0 zu benutzen, wird das Interface halbiert, so dass man mit 8x PCIE 4.0 nur auf die gleiche Geschwindigkeit wie mit 16x PCIE 3.0 kommt. Verwendet man jedoch ein PCIE 3.0 Board, läuft das ganze mit nur 8x PCIE 3.0, halb so schnell wie mit 2010 eingeführten PCI 3.0 Standard, also PC Steinzeit.

Kombiniert man eine RTX 3050 oder eine RX 6500/6600 (XT) mit einen PCI 3.0 Board oder CPU kann man nur ein viertel der Bandbreite von 16x PCIE 4.0 nutzen. Sobald der der GPU Speicher ausgeht wird das zum Problem.

Das Schlimme daran ist zum einen, dass es besonders die Kombination der Einstiegsprodukte bei AMD betrifft (selbst der kommende Ryzen 5 5500 ist betroffen), und zum anderen, dass eigentlich (fast) alle AM4 Board hardwareseitig PCI 4.0 tauglich wären, da die GPU direkt mit der CPU verbunden ist.

Gerade bei langsamen GPUs könnte ein 16x PCIE 4.0 Interface den Speichermangel kompensieren.
 
Das reduzierte Interface war halt der Versuch die Karten fürs Mining uninteressant zu gestalten, blöd halt das die damit fürs Gaming auch schwer gelitten haben.
 
Stormfirebird schrieb:
Laufen die Karten da nicht in der Regel mit x1? Soweit ich weiß ist das einfach kosteneinsparung. Im Falle der 6500 ist es halt zu viel (oder wenig xD) des guten.
Ehrlich gesagt keine Ahnung, Mining hat mich noch nie interessiert!
Wenn es nur Kostengründe wären, frage ich mich wieso früher jede GTX xx50er Karte volle 16 Lanes hatte.
 
PeacemakerAT schrieb:
frage ich mich wieso früher jede GTX xx50er Karte volle 16 Lanes hatte
Irgendjemand muss halt auf die Idee kommen, macht AMD auch noch nicht so lange bei den kleineren Gaming Karten und mit den x4 ist das glaub das erste mal. Nvidia hat ihre 3050 auch direkt mal auf x8 beschnitten.
 
  • Gefällt mir
Reaktionen: Zipfelklatscher und Verak Drezzt
AMD-Flo schrieb:
Mit PCIe 3.0 und zukünftigen Spielen wird das Problem größer.
so wie schon bei PCIe 2.0 und 1.0 ?

https://www.pugetsystems.com/labs/a...ne-Scaling-in-OctaneRender-and-Redshift-1259/

 
@AMD-Flo
Im Prinzip bleibt nur eine Karte: NVidia 3090
Die hat gutes RT und als einzige genügend VRAM für die Zukunft
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JackA und AMD-Flo
Zurück
Oben