Bericht Bericht: PCIe 3.0 vs. PCIe 2.0

Kartenlehrling schrieb:
welches Mainboard mit PCIe1.1 nimmt den C2D E8400 auf ?
Wohl fast jedes mit einem P35 sofern es ein BIOS-Update spendiert bekam. Mein P5K-E WiFi-AP gehört auch dazu.


@Topic
Guter und informativer Test.
Die getesten Karten haben ja recht viel VRAM. Interessant wäre es z.B. bei recht flotten Karten, die aber weniger VRAM haben. Z.B. 650Ti oder PCIe 1.1 vs. 2.0 bei einer 560Ti 1GB o.ä.
 
Elkinator schrieb:
welcher grafikchip ohne eigenen ram wird per PCIe 3.0 x16 angebunden?

dann ist der test wohl doch noch verfrüht...
 
Rulf schrieb:
dann ist der test wohl doch noch verfrüht...
das wird man NIE testen können, in zukunft sind die gpus ja in der cpu integriert und nicht mehr als extrachip den man per PCIe anbinden muß..
 
KillerKarli schrieb:
Tja , was erwartet man von Computerbase.
Wie Lange haben wir jetzt PCI-e 3.0 ?
Jetzt kommt ein test ?
Ich lach mich weg

wo genau ist dein problem?
wenn dich der test nicht interessiert weil er so veraltet ist, les ihn doch einfach nicht. :rolleyes:

außerdem finde ich es interessant den test mit aktuellen grafikkarten (gegenüber den grakas vom release pcie 3.0) zu sehen und zu wissen, dass es auch aktuell keinen unterschied bringt.
 
Elkinator schrieb:
das wird man NIE testen können, in zukunft sind die gpus ja in der cpu integriert und nicht mehr als extrachip den man per PCIe anbinden muß..

du meinst jetzt apus...aber ich gebe dir recht...bei der derzeitigen entwicklung werden sich wohl was den mobilen bereich betrifft socs durchsetzen...da spart man dann auch ein haufen energie für überflüssige busse...
 
Sehr schöner Artikel.

Erstmal noch ein kleiner Fehler (meiner Meinung nach):
1. Seite, PCIe 3.0 im Überblick, 2. Absatz: "übertragen konnte, sind es beim PCIe-2.0-Nachfolger bereits 16 Gigabyte."
Sollte hier nicht eher "sind es beim Nachfolger PICe-2.0 bereits 16 Gigabyte." heißen? Zumindest ist es so eindeutiger, weil hier eben auch vom Nachfolger von PCIe 2.0 die Rede sein könnte.. der ja 32 Gigabyte (insgesamt) hat.

Woran liegt es, dass PCIe 3.0 so gar nicht schneller ist - selbst beim Computing? Ich hätte gedacht da kann es gerade seine Karten ausspielen, oder was limitiert da im Moment so stark (oder rechnet die GPU einfach zu langsam?)?. Es kann ja schlecht nur an der Programmierung liegen, allein wenn man quasi Rendering auf der GPU betreibt über CUDA oder OpenCL ist meiner Meinung nach halt eine Steigerung zu erwarten (oder wenn man in diversen Videorenderprogrammen lediglich Effekte auf der GPU berechnen lässt) - da hier vor allem eine gute und schnelle Kommunikation von CPU und GPU hilfreich sein sollte?
 
Ich denke das mit dem PCIe 3.0 die grakas untereinander besser kommunizieren. Sieht man auch im Test da sind es glaube ich 7% was 3.0 zu 2.0 schneller ist.
 
Ununhex schrieb:
Woran liegt es, dass PCIe 3.0 so gar nicht schneller ist - selbst beim Computing?[/COLOR]
daran das die mögliche bandbreite für aktuelle karten einfach viel zu hoch ist, soviele daten kann keine verarbeiten.
war ja auch bei AGP damals so das x8 bei der einführung nichts brachte weil x4 noch mehr als genug bandbreite für alle karten lieferte.
 
Ich fände es wünschenswert beim Wechsel von PCIe3 auf PCIe4 einfach die Anzahl der maximal möglichen Lanes pro Slot von 16 auf 8 zu verringern. Das würde hoffentlich zu besser designten Boards führen.
 
ODST schrieb:
@G3cko, immer der gleiche Spruch über Nvidia's GTX 680. Ich kann das nicht mehr hören. Die GTX 680 spielt im High End Bereich mit, also ist sie auch eine High End Karte. Du glaubst doch nicht wirklich, dass Nvidia "bessere" Produkte aka "Big Kepler" zurück halten würde, wenn sie schon bereit wäre. :rolleyes:

Das ist kein Spruch. Chipgröße, Ausstattung etc sprechen dafür. Nach dem man zu G80 Zeiten vergeblich versucht hat den Kontrahenten zu überrennen und eingesehen hat das das nicht klappt schröpft man nun lieber den Kunden. Sicherlich High_end ist das Maximal Verfügbare, aber auch war noch nie ein High-End Chip so klein. Übrigens ist GK110 als Tesla-Karte vorhanden. Aber darum geht es nicht. Die 7970 hat eine klar höhere Rohleistung und setzt sich daher besonders in GPGPU-Anwendungen ab. Das ist letztendlich nur die logische Schlussfolgerung aus dem Datenblatt.
 
smalM schrieb:
Ich fände es wünschenswert beim Wechsel von PCIe3 auf PCIe4 einfach die Anzahl der maximal möglichen Lanes pro Slot von 16 auf 8 zu verringern. Das würde hoffentlich zu besser designten Boards führen.
das wird leider nicht passieren:(

eine aufteilung in 1, 3, 6 lanes würde auch vollkommen reichen, dann spart man noch mehr ein.
 
PCI Express 3.0 ist für wissenschaftliche Simulationen die entweder heterogene Systeme oder GPU-Cluster nutzen ein Segen. So lange man Benchmarks durchführt in denen der Durchsatz des Buses nicht der Flaschenhals ist, ist das eh Zeitverschwendung. Aber immer wenn Dinge nicht komplett in den GPU Speicher passen wird es interessant.
 
Tenjin schrieb:
simple Verdoppelung der Frequenz, die bei PCIe 3.0 bei acht anstatt fünf Gigahertz

wenn 5x2 neuerdings 8 ist, ist das ganze wohl doch nicht so simpel

G3cko
von HD5000 auf HD6000 gab es keinen wechsel, hd5x = vliw5d hd69xx = vliw4d

@warum 7970 schneller asl 680
bei amd haben die neuen treiber eben mehr leistung rausgeholt als die von nvidia

Doch den gab es!!
Von HD4000 auf HD5000 waren es 5D Shader ABER
erst ab der HD 6000er Serie wurde das Design auf 4D umgestellt!
Ich hatte vor meiner 7970 eine HD6970 bin mir da sehr sicher!
Sonst halt Wikipedia:

http://de.wikipedia.org/wiki/ATI-Radeon-HD-5000-Serie

http://de.wikipedia.org/wiki/AMD-Radeon-HD-6000-Serie

Da steht das nochmal ganz deutlich!

@Topic
Ich habe selber ein System mit PCIe 3.0 und muss sagen ich
bin für jeden Vorteil und Leistungszuwachs dankbar.

Was mich aber auch interessiert hätte wäre die geringere
Latenz durch den kleineren Overheap.

Ein Test dazu würde mir sehr gefallen Falls man das überhaupt
messen kann.
 
King Kryson schrieb:
Netter Test. Ab das Ergebnis war ja von Anfanf an schon klar :)
Naja, wenn man bedenkt, dass PCIe 3.0 x4 gleich PCIe 1.0 x16 entspricht und sich die Menge derer anschaut die meinen x4 wäre zu langsam zum Zocken, dann kann ich dem nur widersprechen. Insofern bin ich froh über den Test... Liefert mir wieder Argumente gegen solche Schlaumeier... ;)

MfG, Thomas
 
wundert mich dass überhaupt irgendwo merkbare unterschiede zu merken sind. naja, was solls, wird eh überall verbaut ab jetzt, extra kosten tuts nix, also why not
 
Zurück
Oben