Flaschenhals PCI-E 1.0?

Nero Atreides

Lt. Commander
Registriert
Jan. 2004
Beiträge
1.303
Mal ne Frage:

ich überspringe immer eine ("echte") Generation Hardware bei CPUs und Grakas. CPUs kaufe ich immer am Ende vom Lifecycle, Grakas am Anfang. Bei mir läuft aktuell ein C2D 8400@3,6 GHz auf einem Board mit Intel P965 zusammen mit einer 8800GTX und 4GB DDR2-800.

Jetzt will ich die Graka austauschen, wenn der neue GT300 von NVIDIA rauskommt.

Kann jemand fundiert sagen, ob für eine Karte, die mal geschätzt ca. doppelt so schnell sein sollte wie eine GTX 285, ein PCI-E 1.0-Interface einen Flaschenhals bildet oder ob das eher zu vernachlässigen ist?

Dankeeeeee.
 
danke :) sogar mit quelle...
 
Die Tests gelten natürlich nur unter Windows Vista (DX 10).

Bei DX9 unter Xp gibts keine nennenswerten Unterschiede, es sei denn, Du würdest ein Crossfire/Sli System aufbauen wollen. Dann würde PCIe 2.0 (unter Xp) Sinn machen.

Kommt jetzt nur noch auf Dein Betriebssystem an.

Gruß
sunzi
 
woher weißt du,daß bei winXp ohne cf/sli, keine nennenswerte unterscheide zwischen 1.0 und 2.0 sind?
mfg gino
 
Kommt auf die Spielengine drauf an, bei ner Singlekarte werdens meiner Einschätzung nach auch bei der nächsten Generation nicht mehr als maximal 10% Unterschied sein.
 
Echt? Ich schon. GTA4 mit Downsamling, aktuelle Spiele mit 16xS ... da strauchelt eine GTX280 gewaltig.
 
Sehe das ähnlich wie yeeha, meine gtx-280 oc kackt immer wieder ab, z.B. bei Age of Conan mit DX10 (Bei manchen Stellen 20 FPS), oder bei The Last Remnant mit 4x AA. Es gibt noch viele weitere Beispiele. 16xSSAA ist zwar auch eines davon, aber eigentlich ist alles über 8xMSAA totale Performanceverschwendung ohne Vorteile
 
MSAA glättet nur Polygone ... der Rest flimmert lustig weiter *Augenkrebs*
 
@gino0407

Weil die Anzahl der Lanes in Verbindung mit dem Datendurchsatz mehr Einfluss auf die Größe des Flaschenhalses hat.
Die Grundlagenwerte zu PCIe 1.0 und 2.0 findest Du bei Wikipedia.

Außerdem besagt der oben verlinkte Test, dass auf einem Vista-System getestet wurde (DX10). Andere Tests (hardwareluxx printed [puh, eine der letzten drei Ausgaben]) besagen weiterhin, dass es einen messbaren Unterschied in der Performance zwischen DX9 und DX10 gibt, wenn die entsprechenden DX10-Features auch von der Software genutzt werden.

Gruß
sunzi

/EDIT
Habe noch einen interessanten Link zu dem Thema gefunden. Der Artikel ist zwar etwas älter, jedoch sollte die grundsätzliche Aussage bestehen bleiben (lasse mich gerne auch eines besseren belehren! ;)):

http://www.tomshardware.com/de/Graf...16-x8-x4-Crossfire,testberichte-239907-4.html

Die nächsten Seiten enthalten weitere interessante Testergebnisse!

Auch die PCGH liefert entsprechende Ergebnisse:

http://www.pcgameshardware.de/aid,6...ate-in-mehr-Leistung-nieder/Grafikkarte/Test/

Gruß
sunzi
 
Zuletzt bearbeitet:
Das ist gut, dass diese Diskussion hier geführt wird. Dieselbe Frage stelle ich mir nämlich auch geade.

Mich verwirrt etwas dieser Artikel:
http://www.pcgameshardware.de/aid,644337/PCGH-Test-Das-bringt-PCI-Express-20/Grafikkarte/Test/
Fazit
Crossfire-Sympathisanten profitieren klar von der verdoppelten Bandbreite. Nutzer von neuen Single-Grafikkarten verlieren in einem Mainboard mit PCI-E-1.1-Slot im allerschlimmsten Fall zehn Prozent Leistung - ein Defizit, das sich durch gezielte Interface-Übertaktung kompensieren lässt.
10% weniger Leistung?? Da kann doch was nicht stimmen.


Bei mir geht die Frage allerdings noch weiter...
Mein Board lässt kein OC zu. Die CPU, ein Q8200, hat einen FSB von 333MHz. Für OC brauche ich dann mindestens FSB450.
Grafikkarte ist eine GTX260.
Aktuelles Board:
ASRock Penryn1600SLI-110dB mit nForce 650i SLI

Ist die Kombination aus OC und PCIe 2.0 ein guter Grund für ein neues Board?


Und was auch noch dazukommt: Die Graka läuft für heute im PCIe x8. Dort ist sie kaum langsamer. Insofern glaube ich nicht so Recht daran, dass PCIe 2.0 was rausreißen kann. Die genaue Revision meines PCIe weiß ich nicht, es kann aber durchaus sein, dass es nur Version 1.0 ist.:freak:
 
Zuletzt bearbeitet:
@Topic: Der Threadsteller hat nach dem GT300 gefragt, dieser wird eine ganze Ecke schneller als eine GTX280 werden. Wenn man davon ausgeht, dass die GTX280 in mind. 95% der Fälle für DX9 voll ausreichend ist, wird Jemand einen GT300 (etwa 512 Shader, 512 Bit Speicherinterface und GDDR5 VRAM) für DX9-Titel holen? Anders gefragt: 400-600€, um GTA IV mit 16xSSAA spielen zu können?
@1337 g33k: Eher das OCing wäre der Grund, um ein neues MB zu holen, die 0-10% Performancevorteil bei einer GTX260 wären eine nette Zugabe. FSB450 ist allerdings bei einem Quad ein relativ stolzer Wert, den gewiss nicht jedes (Marken)MB erreicht.
 
GTAIV kann man mit keinem Geld der Welt mit Kantenglättung spielen...
Die Engine unterstützt es nicht. Evtl. per Zusatzgerät, welches das Signal aufbereitet ist es machbar.

Beim GT300 ist es allerdings wieder so, dass das Teil dann einen riesen Speicher haben wird. 2GB sind locker drin. Insofern wird da wohl eher wenig auszulagern sein und der Flaschenhals PCIe wird eher unwesentlich sein.


@chacha73: Ich sag's mal so: Das Board soll die 3GHz nicht verhindern. Dafür bräuchte ich schonmal einen FSB von fast 430MHz.
 
Zurück
Oben