Bericht Bericht: PCIe 3.0 vs. PCIe 2.0

MrEisbaer

Commodore
Dabei seit
März 2007
Beiträge
4.525

Teralios

Commander
Dabei seit
Mai 2008
Beiträge
2.631
Der kleine aber feine Unterschied ist aber, dass der PCIe-Controller bei dein Intel in der CPU sitzt (seit SandyBridge), nicht im Chipsatz. Bei AMD ist der PCIe-Controller noch über den HyperTransport angeschlossen und wenn sich meine Rechnungen nicht als ganz Falsch rausstellen, macht PCIe 3.0 16x bei AMD Prozessoren und dem HT-Link kaum sinn, da sich alles da die knapp 25,5GiByte/s pro Richtung teilt.
 

Gandalf2210

Captain
Dabei seit
Mai 2010
Beiträge
3.730
Gab hier im forum mal nen schönen test dazu da hat der Tester einfach Kontakte zugeklebt selbst mit pcie mit PCIe 2 x4 War es mit leicht spürbaren Performance Verlusten noch gut spielbar
 
R

r00ter

Gast
naja - besser heute einen neuen standard mit reserven eingeführt, als in morgen nicht zu haben, wenn man ihn braucht.

im mom macht der standard wohl nur sinn, bei auflösungen von weit über 1080p und quad sli systemen.
 

Haldi

Vice Admiral
Dabei seit
Feb. 2009
Beiträge
6.199
Haja.... Toll. nun wissen wir das PCI-E nicht verlangsamt bei Single GPU... jedenfalls haben wir nun einen Test mehr im Internet auf den wir verweisen können.....

Aber man sieht schon das Multi-GPU Einbussen hat,wenn kein CPU limit besteht. Wann kommen die Tri und Quad setup tests ? Oder ist das völlig unwichtig da ja eh niemand so etwas benützt ?

PCI-E Lanes und BUS übertakten tu ja heute eh niemand mehr oder ? (ja ich weiss, von 100mhz zu 103mhz ist nicht besonders viel...)
 

pineapplefreak

Lieutenant
Dabei seit
Okt. 2011
Beiträge
792
Ich finds ja ziemlich krass, dass die HD7970 mittlerweile fast 10% vor der 680 liegt...

Und bitte keine Fanboy disskussion...
 

marcol1979

Banned
Dabei seit
Juni 2004
Beiträge
8.199
Das Ergebnis war ja klar und zeigt das selbst PCIe 1.0 noch sowas von ausreicht. :lol:
 

Smagjus

Rear Admiral
Dabei seit
Feb. 2011
Beiträge
5.981
Warum schneidet denn die 7970 so viel besser ab als die 680? O.o
Die Auswahl der Benchmarks, die Einstellungen, die Treiber. Alles spielt mit in das Ergebnis rein. Es lohnt sich auf jeden Fall einen detailieren Blick in die Benchmarks der Spiele zu werfen, die man selbst auch spielt, um darauf die Entscheidungsgrundlage zu bilden. So groß wie vor wenigen Jahren ist der Unterschied nicht mehr, dass man sagen könnte xx ist besser als yy, nimm die.
 

Merle

Fleet Admiral
Dabei seit
März 2009
Beiträge
11.302
Dennoch beruhigend für mich mit PCIe 3.0 x 8 :p Also praktisch kein Verlust :p Hatte mir schon Gedanken gemacht (gefühlt wars aber so oder so in Ordnung).
Wie gesagt, netter kurzer Test, aber irgendwie erwartungsgemäß.
 

G3cko

Lieutenant
Dabei seit
Feb. 2006
Beiträge
915
Warum schneidet denn die 7970 so viel besser ab als die 680? O.o
Man muss sich ja nur mal die reine Rohleistung bzw das Datenblatt ansehen. Früher waren es noch unterschiedliche Architekturen bei AMD und Nvidia. Da man sich aber nun immer weiter annähert und beide eine 1D-Architektur einsetzten wird über kurz oder lang sich die Karte klar absetzen.

von HD5000 -> Hd6000 -> HD7000 gab es immer einen Architekturwechsel und es ist klar das es hier und da noch ein paar Fehler gibt und das ganze noch nicht super optimiert ist. GCN wird aber nun wie bei Nvidia ersteinmal das Maß der Dinge für mehrere Jahre sein.

https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/2/
Der GK104 war von der Chipbezeichnung auch nie High-End.
 

moep99

Lt. Commander
Dabei seit
Juni 2008
Beiträge
1.024
Freut euch doch über den 1% Bonus, tut ihr bei Treibern doch auch :p
 

KillerKarli

Banned
Dabei seit
Dez. 2012
Beiträge
35
Tja , was erwartet man von Computerbase.
Wie Lange haben wir jetzt PCI-e 3.0 ?
Jetzt kommt ein test ?
Ich lach mich weg
 

OZZHI

Rear Admiral
Dabei seit
Juli 2009
Beiträge
5.773
@G3cko, immer der gleiche Spruch über Nvidia's GTX 680. Ich kann das nicht mehr hören. Die GTX 680 spielt im High End Bereich mit, also ist sie auch eine High End Karte. Du glaubst doch nicht wirklich, dass Nvidia "bessere" Produkte aka "Big Kepler" zurück halten würde, wenn sie schon bereit wäre. :rolleyes:

@CB
Es wäre interessant Spiele zu testen, welche den Vram der GPUs füllt, dann sieht man vielleicht grössere Unterschiede bei den Tests.

mfg ODST
 

Visualist

Lt. Commander
Dabei seit
Feb. 2006
Beiträge
1.312
Wie kann man so einen mist bei Multi GPU Testen::(
Man hätte einen 2600K auf 4,5 GHZ Takten können und den 3770K @4,5GHZ ja verwenden können bzw das CPU OC mit Cinebench so anpassen anpassen können das die CPUs gleich schnell sind und dan 8Fach PCie2.0 VS 8Fach 3.O machen können im CF und SLI.

Egal schwer entäuscht von dem Test 2 Völlig verschiedene Sockel 6 Kern VS 4 Kern da zu CF /SLI @2.0 16 vs 3.0 8Fach.
Das einzige was der Multi GPU Test Zeigt ist das Intel Highend Chipsatz für 2 Grafikkarten sein Geld nicht Wert ist.:D:D

Einen beseren vergleich hätte man mit 2600K und 3770K hinbekommen im Multi GPU Test da beide CPUs auf 2*8Fach spliten halt nur in 2.0 und dan in 3.0.:mad:
Den 3.0 *8Fach ist wie 2.0 *16 Fach von der Leistung.
 
Zuletzt bearbeitet:

Troik

Cadet 4th Year
Dabei seit
Dez. 2012
Beiträge
72
Ich hab mit dem Test so meine Schwierigkeiten, unabhängig davon was ich spiele oder berechne, ist am Ende doch total egal da die Menge an Daten die durch den Bus muss, doch viel kleiner ist, oder?

Also die maximale Datenmenge die die Karte pro Sekunde verarbeiten müsste wäre doch Pixel x Farbtiefe x FPS
Also für FullHD @ 60fps z.B. 1920x1080x24x60= ~2.99Gigabit, das heißt ich müsste schon 2 Monitore anschließen und die auf 120hz laufen lassen um zumindest mal auf ~12Gigabit zu kommen.

Und das sind ja nur die Daten die aus der Karte zum Monitor müssen, die Daten die tatsächlich über den Bus müssen um Daten mit Ram und CPU zu tauschen, müsste doch deutlich kleiner sein, hat hier mal jemand konkretere Zahlen was den so tatsächlich in einem normalen Usecase durch den Bus geht?

Für das Aufdecken von Denkfehlern bin ich natürlich auch dankbar.
 
Top