Bericht Bericht: PCIe 3.0 vs. PCIe 2.0

wertewandel schrieb:
warum steht überall im text "HD7970 GHz Edition" und in den Grafiken nur "HD7970"?
was soll die verarsche? es ist die übertaktete version und nicht die ursprüngliche, die würde sich niemals von ner gtx680 absetzen.
bitte ausputzen. ;)

dann mach ich dir nen vorschlag hd7970 vs. gtx680 ohne boost
Ergänzung ()

akuji13 schrieb:
Die Ghz Edition ist ein ganz offizielles AMD Produkt:
http://www.amd.com/de/products/desktop/graphics/7000/7970ghz/Pages/radeon-7970GHz.aspx

Sie als schnelleste Single GPU von AMD anzuführen ist also völlig legitim.

genauso ist es, aber das wollen viele nicht sehen das ihre gtx680 schlechter ist als so eine marke wie amd.
 
genauso ist es, aber das wollen viele nicht sehen das ihre gtx680 schlechter ist als so eine marke wie amd.
Ui, tiefer Schlag, für die simple Forderung, den Namen zu präzisieren (es gibt nunmal 2 7970 - auch wenn viele das nicht sehen wollen lol).

Hier gehts nicht um seine Karte. Ich war über die Tabelle auch sehr verwirrt beim ersten überfliegen.
Nach dem Lesen wars dann klar.

Bei 7970 vs 680 erwartet man erst einmal andere Werte. Dass es dann doch die GHz ist, geht aus dem Text hervor, ist aber direkt nicht erkennbar, weder bei Titel noch bei Tabelle...
 
wertewandel schrieb:
warum steht überall im text "HD7970 GHz Edition" und in den Grafiken nur "HD7970"?
was soll die verarsche? es ist die übertaktete version und nicht die ursprüngliche, die würde sich niemals von ner gtx680 absetzen.
bitte ausputzen. ;)

Dann schau dir diesen Test an. Dort wurde mit aktuelle Treiber von AMD und Nvidia gemessen. Da ist die 925MHz 7970 schon minimal schneller als eine 680 und 75MHz mehr für die 7970 bringen die 7970 GHz Edition um 12% vor die 680.
http://ht4u.net/reviews/2013/50_directx_11_grafikkarten_im_test/index31.php

Nachträglich muss man natürlich noch erwähnen, dass dieser Test auf HT4U seinesgleichen sucht und wohl nicht finden wird. 50 Grafikkarten, alle neu vermessen mit den aktuellen Treiber.
 
Zuletzt bearbeitet:
Ein Klasse Test. Danke.

Ich habe aber einige Fragen.

OpenCL/GPGPU Benchmarks:
Viele in OpenCL geschriebene Programme versuchen es zu vermeiden, Speicher vom Host zum Device (Host sind in diesem Kontext die CPU/RAM und Device die GPU), denn die Rechengeschwindigkeiten der GPUs gegenüber der CPU sind nur dann sinnvoll nutzbar, wenn die Speichertransfers möglichst gering gehalten werden. Software, die also numerische Modellierungen auf die GPU auslagert, wäre demnch implizit schon dergestalt optimiert, daß die Transfers kaum ins Gewicht fallen.

Wie schaut es denn bei den verwendeten Benchmarks aus? Meines Wissens ist das Ziel der OpenCL Benchmarks die Vermessung der GPU, nicht des Interfaces.

Die Einführung der Sandy-Bridge-E CPUs stand unter keinem guten PCIe 3.0-Stern, hatte Intel doch große Probleme mit der Evaluierung. Bis heute ist nicht bekannt, ob an den Gerüchten, daß der PCIe 3.0-Rootkomplex der CPU in den E-Typen defekt sei, etwas dran ist. Indizien sprechen eher dafür, denn es gibt Probeleme mit den E5-XEON Prozessoren und PCIe 3.0. Deshalb, so sagt man, hat XEON Phi auch nur PCIe 2.0 und nVidia läst seine neuen Kepler-basierten K20 trotz PCIe 3.0 Hardware nur auf PCIe 2.0/2.1 in Betrieb nehmen.

Wenn ich nun lediglich die PCIe 3.0 und PCIe 2.0/2.1 Messungen nebeneinander sehen würde, könnte man den Eindruck gewinnen, daß selbst bei offiziellem PCIe 3.0 lediglich intern 2.0 genutzt wird. Letztlich könnte man das nur dann sicher ausschließen, wenn man 100% sicher ist, daß auf beiden Seiten die PCIe 3.0 Speizifikation zur Anwendung kommt.

Im Vergleich mit PCIe 1.0 aber zeigt sich dann in den meisten Tests - selbst bei den meisten GPGPU-Benchmarks, daß das neue Interface wenig Beitrag zu leisten vermag - das ist natürlich so nicht haltbar, wenn obiges bzgl. OpenCL-Anwendungen Gesagte zutreffen sollte. Zumindest deutet der OpenCL CAPS Test soetwas an. Dann allerdings ist der Unterschied zwischen PCIe 2.0 und 3.0 doch mit knappen 10% eher sehr gering und würde doch die neue technik ad absurdum führen, wenn dann nicht der weitere Verdacht bestünde, daß die Zielhardware zwar ein nach PCIe 3.0 spezifiziertes Interface ausweist, intern die GPU aber lediglich PCIe 2.0 Bandbreite nutzen kann.

Auf der letztjährigen CES gab es laut einigen Berichten ja bereits X79-Platinen mit PCIe 3.0. Auch wurden PCIe 3.0-Platinen für den LGA2011 gezeigt, die seinerzeit nur mit einem Sandy-Bridge für den Hausgebrauch (LGA1556) bestückt werden konnten. Dort zeigte sich aber bei PCIe-SSD Geräten, daß Dank der viel engeren Toleranzen und der qualitativ besseren Hardware für PCIe 3.0 selbst PCIe 2.0 hardware bis zu 10% Mehrleistung schaffte - einfach elektrisch, ohne daß jetzt wirklich PCIe 2.0 Protokolle gefahren wurden.

Und genau das hinterläßt bei mir bezüglich der OpenCL-GPGPU-Tests, die offenbar die Host-Device-Bandbreite dann doch testen (CAP Test), ein verzerrtes Bild. Wäre nur ein Sandy-Bridge-E Mainboard mit X79 zum Einsatz gekommen, hätte ich böswillig gemutmaßt, daß PCIe 3.0 drauf steht, hinter den Kulissen aber seitens Intel nur PCIe 2.0 genutzt/geschaltet wird. Ich nehme mal an, das ist bei den aktuellen LGA155-Ivy-Bridges nicht der Fall und sie gelten als "repariert". Dann bleibt nur, daß die Graphikkartenhardware gar nicht darauf ausgelegt ist bzw. ausgelegt werden kann, die PCIe-3.0 Hardware wirklich nutzbar zu machen.

Und jetzt ist die Gretchenfrage, was man eigentlich zeigen will. Hier war es, ob Graphikkarten von PCIe 3.0 profitieren - ich würde sagen, es dauert noch das eine oder andere Jahr, bis das der Fall ist.

Mich persönlich würde es brennend interessieren, inwieweit PCIe 3.0 überhaupt nutzbar ist - einerseits mit den aktuellen Prozessoren, die angeblich PCIe 3.0 können sollen und wiederum mit entsprechender Hardware, die davon den größten Nutzen ziehen sollte. Und da fällt mir eigentlich nur ein Vergelich ein, der moderne SAS 2.0 Controller mit PCIe 3.0 heranzieht, die komplett mit den schnellsten SSDs bestückt sind. Es ist bekannt, daß der derzeit schnellste und günstigste SAS-fähige Chip, ein Chip von LSI Logic, mit entsprechenden SSDs den SAS 2.0 Peer-to-Peer "Bus" (eigentlich darf man das ja nicht Bus nennen) sättigen kann. Damit könnte man doch auch einen Test fahren, um zu sehen, ob sich zumindest in Fragen der Latenzen PCIe 2.0 und PCIe 3.0 unterscheiden.

Ich bin jedenfalls etwas verwirrt. Ich meine damit, man schaue sich doch die Preise aktueller Platinen an: 100 Euro und präzise/empfindliche Technik? Workstationmainboards namhafter Hersteller (und damit meine ich NICHT ASUS!) bewegen sich mit qualitativ höchstwertiger Hardware (Supermicro, als Beispiel, oder die produkte, die EVGA an Kunden im Auftrage liefert, von denen der Massenmarkt allerdings selten etwas mitbekommt). Sehr interessant wäre dann die Fragestellung, was denn wirklich ein "Enthusiastenmainboard" der 300 - 400 Euro Klasse im Vergleich zu den sich in ähnlichen Preisregionen bewegenden professionellen Workstationmainboards wert ist. Ich hege trotz aller vollmundiger Werbeversprechungen und "Solid Capacitor"-Schummeltexten meine Zweifel und würde das gerne mal in einem Test verifiziert - oder im Idelafalle - falsifiziert sehen.
 
Ich find mit dem Test hättet ihr noch bis zur nächsten GPU-Generation hinauszögern können, wenn ich mich richtig erinnere, habt ihr das Thema schon beim Test der 7970 abgehandelt.
Inhaltlich natürlich trotzdem lesenswert :)
 
Eisenfaust schrieb:
Ein Klasse Test. Danke.



Wenn ich nun lediglich die PCIe 3.0 und PCIe 2.0/2.1 Messungen nebeneinander sehen würde, könnte man den Eindruck gewinnen, daß selbst bei offiziellem PCIe 3.0 lediglich intern 2.0 genutzt wird. Letztlich könnte man das nur dann sicher ausschließen, wenn man 100% sicher ist, daß auf beiden Seiten die PCIe 3.0 Speizifikation zur Anwendung kommt.

der test zeigt einfach die kapazitäten von 3.0 nicht auf. dazu muss man aktuell schon 4 grakas auf 3 monis betreiben. erst hier siehst du, was 3.0 zu leisten vermag.

wenn du 2.0/3.0 an 4x 680er mit 3 monis vergleichst, siehst du einen detulichen unterschied.
3.0 geht böse ab, aber dass kannst du mit einer oder sogar 2 gpus bei 1080 nicht sehen.
3.0 will gefordert werden. 3.0 hat einen gewaltigen durchsatz und bietet 2.0 gegenüber enorme voteile.
dass die meisten diesen test hier auf ihr single gpu system übertragen und sich freuen, dass 3.0 ihnen eh keine vorteile bringen würde, ist halt nur die halbe wahrheit.

ich hab mir mal die mühe gemacht und einen entsprechneden test rausgesucht http://www.overclock.net/t/1220962/...y-and-computer-edition-2012/370#post_16915399

The interesting part was that while running PCI-E 2.0, the GPU utilization dropped way down as would be typically seen if you are "CPU" limited.

!!!ab einer bestimmten konfig wird 2.0 die grakas ausbremsen!!!

die können nicht mehr rechnen, als man über den bus wieder wegschaufeln kann

man kann dem cb test nicht vorwerfen, er sei schlecht, immerhin wird mit einem realitätsnahen setting getestet. in diesem setting kann man aber den vorteil von 3.0 nicht ziegen.
 
Zuletzt bearbeitet:
MrEisbaer schrieb:
War abzusehen das es selten einen Spürbaren Unterschied beim Zocken zwischen PCIe 1.x, 2.x und 3.x gibt.

Klar gibt es wenige Ausnahmen, aber die sind eher zu vernachlässigen und 15% merkt man nicht wirklich beim Zocken (bei z.B. 64 FPS sind es 9,6 FPS unterschied).

Ich gebe dir zwar eigentlich Recht, dass die Unterschiede marginal und zu vernachlässigen sind, aber da hast du dir ein schlechtes Beispiel ausgesucht.
Denn bei Single GPU ist es ja nur ein lächerliches Prozent Unterschied zwischen 2.0 und 3.0

15% hat man ja nur bei Multi GPU und zwischen 1.0 (was ja keiner mehr hat) und 3.0, und auch da nur bei bestimmten Spielen.
Und das kann man schon merken. Wenn meine fps von 60 auf 52 sinken merke ich das sofort. ;)
 
Interessant und gut, dass ihr euch die Mühe gemacht habt, das mal zu testen. Vielen Dank für einen weiteren aufschlussreichen Bericht! (die Berichte hier im Bereich Grafikkarten sind immer klasse!)
 
AMINDIA schrieb:
Dann schau dir diesen Test an. Dort wurde mit aktuelle Treiber von AMD und Nvidia gemessen. Da ist die 925MHz 7970 schon minimal schneller als eine 680 und 75MHz mehr für die 7970 bringen die 7970 GHz Edition um 12% vor die 680.
http://ht4u.net/reviews/2013/50_directx_11_grafikkarten_im_test/index31.php

Nachträglich muss man natürlich noch erwähnen, dass dieser Test auf HT4U seinesgleichen sucht und wohl nicht finden wird. 50 Grafikkarten, alle neu vermessen mit den aktuellen Treiber.


Danke für den Link der ist echt Super!
Man kann sogar die einzelnen Grafikkarten einzeln miteinander vergleichen!

Ich verstehe immer noch nicht das es bei den Leuten nicht in denn Kopf passt das
die nVidia Karten zurzeit die langsameren sind?!
Muss Grün immer gleich schneller sein?

Mal davon abgesehen das die fast immer ein halbes Jahr später kommen
und nur gerade so schnell sind das sie die AMD Karten gerade noch schlagen.
(ein echtes Kunststück wenn man die Leistung der Konkurrenz genau kennt)

Diesmal ist die Taktik einfach nicht aufgegangen die 680 war zwar mal schneller
aber man hat die enormen Leistungsreserven der GCN wohl so richtig unterschätzt
und jetzt ist halt sogar eine "normale" 7970 schneller oder zumindest gleich schnell
(Ausreißer gibts immer)
Und bitte last das Pseudoargument weg das die 680 ja noch nicht die Vollausbaustufe ist.
Fakt ist für ne 680 legt man sowas 500€ hin für eine 7970 nichtmal 400€.
Für die gleiche Leistung und kein DX11.1

Sorry für das ganze OT aber das musste raus!
 
Ich verstehe immer noch nicht das es bei den Leuten nicht in denn Kopf passt das
die nVidia Karten zurzeit die langsameren sind?!
Muss Grün immer gleich schneller sein?
Ich glaube nicht, dass das der ausschlaggebende Punkt ist.
Die schenken sich zeitlich Momentan so wenig (die GHz Edition war aber perfekt platziert, zeitlich als auch von der Leistung)...
Meiner Meinung nach wars lediglich die Deklaration im Titel und der Tabelle.
In diesem Board und bei IT Interessierten ist es momentan bekannt. AMD liegt vorne. In dieser Generation.

Der "Glaubenskrieg" bezieht sich ohnehin nicht nur auf die Leistung. Es ist die Qualität der Treiber oder das Gerücht derer, die vermutlich einen stärkeren Einfluss haben.
 
Naja, ich würd mal sagen dass die PCIe Schnittstelle so wenig Einfluss auf die Benchmarks hat ist in etwa so verwunderlich wie der geringe Einfluss der SATA-Schnittstelle auf CPU-Benchmarks ;-)

Die Daten werden einmalig in die Karte geladen und die Berechnungen finden dann komplett intern statt. Deswegen ist es auch wichtig das eine Grafikkarte ausreichend VRAM hat, ansonsten tritt der selbe Effekt wie beim PC mit zu wenig RAM ein... Swapping das heftig bremst.
 
Jesterfox schrieb:
Naja, ich würd mal sagen dass die PCIe Schnittstelle so wenig Einfluss auf die Benchmarks hat ist in etwa so verwunderlich wie der geringe Einfluss der SATA-Schnittstelle auf CPU-Benchmarks ;-)

Die Daten werden einmalig in die Karte geladen und die Berechnungen finden dann komplett intern statt. Deswegen ist es auch wichtig das eine Grafikkarte ausreichend VRAM hat, ansonsten tritt der selbe Effekt wie beim PC mit zu wenig RAM ein... Swapping das heftig bremst.

Genau!
Darum wärs mal interessant zu sehen wie sehr es bremst wenn die Daten nicht mehr in den Vram passen also mit
Karten die "nur" 512MB oder 1GB VRAM haben.

Oder echte GPGPU anwendungen.
Wie man bei den GPGPU Tests bei AMD ja schon gesehen hat,
kann da die Anbindung enorme Auswirkungen haben.

Bei meiner jetzigen Karte hab ich es noch nicht geschafft den VRAM voll zu kriegen,
Bei meiner alten (2GB) hat sogar schon Crysis Warhead die 2 GB voll gemacht.
(Crysis scheint sich aber zu limitieren selbst bei meiner 7970 geht die Auslastung nie über 2GB@64Bit)
 
Wenn die Auslastungsanzeige des VRAM auf Vollanschlag geht ist noch nicht wirklich alles dicht. Ein Teil des VRAMs ist meist noch mit alten Daten belegt die zwecks Caching da noch drin stehen. Leider kann man sich das beim VRAM nicht so aufschlüsseln lassen wie beim normalen RAM.
 
die grafikkarten-entwicklung hinkt hinterher, kein wunder wenn so viele wegen 10 -20 % mehr leistung so viel geld ausgeben
 
Don Sanchez schrieb:
15% hat man ja nur bei Multi GPU und zwischen 1.0 (was ja keiner mehr hat) und 3.0, und auch da nur bei bestimmten Spielen.
Und das kann man schon merken. Wenn meine fps von 60 auf 52 sinken merke ich das sofort. ;)

Aber auch nur wenn man die Zahle sieht merkt man es, wenn man keine Zahlen sieht, merkt man es nicht mehr, da das Menschliche Auge ab ca. 30 Bilder/Sekunde keinen Unterschied mehr wahrnimmt ;)

Zwar mag es einige Menschen geben die eine Ausnahme bilden, aber 99% merken es gar nicht wenn sie keine Zahlen sehen.
 
Artikel
Trotz der zahlreichen Änderungen kann PCIe 3.0 mit einer vollständigen Abwärtskompatibilität aufwarten, so dass man ohne Weiteres eine PCIe-3.0-Grafikkarte auf einem alten PCIe-2.0- oder gar PCIe-1.0-Mainboard betreiben kann.

Diese Aussage trifft nur zum Teil zu,
einige Kombination aus neuer Grafikkarte und altem Mainboard funktionieren nicht,
wie man hier: https://www.computerbase.de/forum/t...cie-1-1-boards-keine-kompatibilitaet.1130253/ sehen kann.
 
Netter Test. Aber leider fehlt mir der Performance Index für x8, x4 und x1 Anbindung. Ich weiß es ist derzeit nicht ganz so relevant aber wenn schon die Hardware da ist würde ich mich freuen wenn zumindest ein x1 Test machbar wäre. Da dürfte der Performance Index umso mehr interessieren und welche Grafikkarten Architektur besser skaliert.

Warum frage ich überhaupt so etwas? Nun es gibt ja die Möglichkeit Grafikkarten an Notebooks anzuschließen und hier hat man nur eine x1 Verbindung und hier geht es dann wirklich um jeden Frame... Und man hat ja immer eine Verdopplung.

Dies ist für bestimmte Leute die nur ein Notebook nutzen sehr interessant und vor Allem wie der Performance Einbrauch @ GPU-Computing sich verhält...

Für alle anderen Interessenten hier ein Thread diesbezüglich:
http://forum.techinferno.com/diy-e-gpu-projects/2109-diy-egpu-experiences-[version-2-0].html
 
Nicht der Rede wert.....
 
Zurück
Oben