News „PCIe 3.0“-Standard verschiebt sich bis 2010

Naja ich glaube damit wird mann leben können, aktuell wird ja PCIE 2.0 eh noch nicht ausgelastet also was solls, und die nächste Gen Grafikkarten lastet die Anbindung bestimmt auch nicht aus.

Viel wichtiger ist Usb 3.0 und SATA 3 da zumindest USB schon arg bremmst SATA2 wird auch nichtmehr lange reichen bei der SSD Entwicklung.
 
Naja aber es ist doch meistens so, dass in 99% der Fälle, das Gerät was am Interface hängt bremst und nicht das Interface selber ;) Theoretisch liegt z.B die max. Geschwindigkeit von SATA II bei 300MB/s in beide Richtungen. Das erreichen selbst SSDs nur ganz ganz selten. Oder USB 2.0 mit maximalen 60MB/s. Ich kenn kein Gerät, dass das ausreizt...Genau so wie bei PCIe 2.0.
 
Man sollte an die Vergleiche des Stromverbrauchs zwischen Hauptprozessor und Grafikkarte vielleicht anders herangehen: Wenn man statt der gesamten Grafikkarte nur den Grafikprozessor mit dem Hauptprozessor vergeicht, klingt es vielleicht weniger riesig. Auf High:End-Karten steckt noch 1 GiB GDDR3 mit 1242 MHz und 512b breiter Anbindung - man sollte nicht davon ausgehen, dass der nichts verbraucht
 
@Kasmopaya:
Zugegeben, sicherlich habe ich das etwas überspitzt formuliert (Energiebedarf vs Leistung) und es ist eher eine Befürchtung, die ich habe, als eine Wahrheit (ist wohl der überschwänglichen Neugier und Freude wegen meiner Grafikkartentests geschuldet). ;)
Aber dennoch meine ich, sollte der Anspruch an eine hohe Effizienz auch für Enthusiansten-Produkte gelten.
Wir haben eben eine etwas unterschiedliche Ansichtsweise.
Das 4770er Modell zeigt zwar gute Ansätze, aber das überzeugt mich noch nicht ausreichend.
Die Green-Modelle 9600 und 9800 haben nun alles andere als überzeugt (Test von computerbase). Nur Taktfrequenzen nach unten anpassen reicht eben nicht aus.

Nehalem und Phenom sind meiner Meinung nach schon deutlich effizenter wie die Vorgänger- und insbesondere wie die Vorvorgängermodelle:
http://ht4u.net/images/reviews/2009/leistungsaufnahme_cpus_praxis//phenom_vs_phenom2.png
http://ht4u.net/reviews/2008/intel_nehalem_core_i7/index30.php
Nicht nur der Energiebedarf ist geringer, sondern auch die Leistung höher.
Das zumindest der Nehalem noch Optimierungspotential hat, ist unbestritten; beim Phenom ist wohl leider nicht mehr so viel drin.
Einen Vergleich der Effizenz zwischen CPUs und GPUs habe ich nicht ziehen wollen, das ist so ziemlos sinnlos, da die GPU auf wenige Spezialanwendungen zugeschnitten ist und eine CPU so gut wie alles andere bewältigen muß.

@bensen:
Nun, daß mit den CPUs lasse ich so nicht gelten. Du hast ja selbst geschrieben, daß ein Leistungszuwachs erfolgt ist bei gleichbleibendem Energiebadarf. Nichts anderes habe ich behauptet (relativer und absoluter Vergleich).
Du hast ja in punkto Leistungs- und Energiebedarfszuwachs bei Grafikkarten recht, siehe oben.
Ich werde am WE die HD4830 und zwei HD4670 im CF testen, ich tendiere eher zu den zwei 4670, aber mal sehen, meine 2600XT muß jetzt endlich raus.
 
Zuletzt bearbeitet:
Warum dann deine Aufregung? Mal davon ab hast du behauptet bei den GPUs zieht ne Verdopplung der Leistung führt auch eine Verdoppelung des Verbrauches nach sich, was ja nachweislich nicht stimmt.
Wenn das Topmodell momentan HD4670 wäre wärst du zufrieden?

Ist doch gut so. Wer Rechenleistung um jeden Preis will, bekommt sie. Wer ne sparsame Karte haben will kauft sich ne verbrauchsarme Mainstreamkarte.
 
Zuletzt bearbeitet:
ich frag mich ja, ob dann auch gleich Stromkabel mit eingeführt werden, die 10 Pins haben und 225W auf dem Kabel abgeführt werden dürfen.
 
Irgendwo hab ich gelesen das Netzteilhersteller eine deutliche Zunahme am 1KW-NT´s sehen, da muss es ja für Gründe geben.
Was bringt PCIe 3.0 denn dem "Normalkunden" ? nichts soweit ich das beurteilen kann also können die sich gerne auch noch länger Zeit lassen ,lieber ordentlich abwärts kompatibel und Stabil als vll 4Fps mehr noch dieses Jahr für Quad-CF-Benutzer.
grüsse
 
@SamSoNight
Oder USB 2.0 mit maximalen 60MB/s. Ich kenn kein Gerät, dass das ausreizt...Genau so wie bei PCIe 2.0.

http://de.wikipedia.org/wiki/Universal_Serial_Bus

USB 2.0 hat eine maximale Tranferrate von 480Mbit/s (60MB/s), aber pro Richtung nur 240 MBit/S (30MB/s).
Und diese 30 MB/s werden von nahezu jedem Gerät (z.B. externe HDs) mit vernünftigem Controler ausgereizt.

USB 2.0 ist schon seit geraumer Zeit absolut ausgereizt und limitiert auch sehr stark (externe HDs könnten locker um die 100 MB/s.

Wer einmal 100GB und mehr per USB verschoben hat, weiss wie zeitaufwendig das ist...

Gruß

Doc
 
Freude wegen meiner Grafikkartentests geschuldet)
Deine Grafikkartentests?

Aber dennoch meine ich, sollte der Anspruch an eine hohe Effizienz auch für Enthusiansten-Produkte gelten.
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
Gilt doch, also bei NV zumindest hat die CPU keine Chance ins Sachen Effizienz. Wie du schon gesagt hast vorerst nur in Anwendungen die sich gut parallelisieren lassen. Bei Larrabee ist damit aber Schluss...


Das 4770er Modell zeigt zwar gute Ansätze, aber das überzeugt mich noch nicht ausreichend.
Was überzeugt denn nicht? Der einzige Schwachpunkt ist ja der mittelmäßige Idle Stromverbrauch und der ist gegenüber CPUs nicht mal so hoch wie du denkst. Wie MountWalker schon geschrieben hat wird bei einer CPU nur ein einzelner Chip gemessen. Bei der Grafikkarte wird alles, also GPU, Spannungswandler, PCB, VRam gemessen. Idle Messungen von CPUs relativieren sich schnell, rechne mal die CPU-Spannungswandler des Mainboards, Arbeitsspeicher, Spannungswandler des Arbeitsspeichers etc. mit ein und dann können wir weiterreden.

Nicht nur der Energiebedarf ist geringer, sondern auch die Leistung höher. Einen Vergleich der Effizenz zwischen CPUs und GPUs habe ich nicht ziehen wollen, das ist so ziemlos sinnlos, da die GPU auf wenige Spezialanwendungen zugeschnitten ist und eine CPU so gut wie alles andere bewältigen muß.
Cpus treten auf der Stelle, warum glaubst du kommt Intel mit dem Larrabee, der kann dann alles, hoffentlich auch effizient genug mit einer neuen Architektur...

Ich werde am WE die HD4830 und zwei HD4670 im CF testen, ich tendiere eher zu den zwei 4670, aber mal sehen, meine 2600XT muß jetzt endlich raus.
2 low end Karten mit zu wenig Vram im CF? Das erklärt dann so einiges deiner Aussagen... Probier mal die HD 4770, 1000mal besser als low end CF und zur Zeit sogar auf Lager bei Mindfactory(Drive City): http://geizhals.at/deutschland/a426956.html
oder du wartest auf die sehr gute Asus:
http://geizhals.at/deutschland/a450149.html
https://www.computerbase.de/artikel/grafikkarten/radeon-hd-4770-von-asus-und-sapphire-test.1043/
 
Zuletzt bearbeitet:
Interessiert mich nicht wirklich!
Die aktuellen Grafikkarten können noch nicht einmal den 2.0 Standart voll nutzen!
Also warum ein 3.0
>Bleibt für mich sinnfrei!
 
PCIe wird nicht nur für Grafikkarten genutzt. Da damit alle Onboardgeräte verbunden werden, wäre ne schnellere Version nicht schlecht. Eilt zwar nicht, aber besser früher als zu spät.
 
2 low end Karten mit zu wenig Vram im CF? Das erklärt dann so einiges deiner Aussagen... Probier mal die HD 4770, 1000mal besser als low end CF...
Du irrst, mit der Annahme, daß eben eine 4770 besser sein soll wie zwei 4670 CF.
http://www.tomshardware.com/de/Zotac-HIS-Sapphire-IceQ-Radeon,testberichte-240361.html
Das CF-Gespann liegt bei verschiedenen Spielen um zweistellige Prozentpunkte vor einer 4770, bei einem Idle-Verbrauch von etwas über 16 Watt. Eine 4770 verbraucht allein schon doppelt so viel, wenn diese Karte nix zu tun hat.
http://ht4u.net/reviews/2009/sapphire_radeon_hd_4770/index10.php
http://ht4u.net/reviews/2009/asus_radeon_eah_4770/index11.php

Offenbar profitieren die neuen Spiele sehr deutlich von Multi-GPU-Lösungen und können ein solches Gespann besser ausnutzen, wie eine GPU mit ähnlichen technischen Spezifikationen (RV740 hat soviel Streams wie zwei RV730 zusammen).
Bei der 4670 scheint auch Powerplay wesentlich besser umgesetzt worden zu sein. Nicht nur die Taktraten (GPU & RAM) können sehr weit nach unten gesenkt, auch die Spannung der GPU wird sehr deutlich gesenkt (von 1,27V auf 0,89V). Daß die GDDR5-Chips bei der 4770 für den hohen Idle-Verbrach sorgen, ist Dir sicherlich bekannt. Ich vermute, daß selbst die neuen Treiber da keine Abhilfe schaffen werden können - ein neuen BIOS vielleicht - aber ich denke, daß daß da eher technische Grundprobleme verantwortlich sind.
Ich hatte auf eine 4750 gehofft, da könnte es wahrscheinlich durch GDDR3 sehr gute Werte im Idle geben. Aber diese Karte ist alles andere als in Sicht.
Nunja, beim Thema sind wir ja schon lange nicht mehr. :evillol:
 
MFelgate schrieb:
Du irrst, mit der Annahme, daß eben eine 4770 besser sein soll wie zwei 4670 CF....
Das gilt aber mit Microrucklern- man braucht mit diesen Microrucklern der Multi-GPU-Lösungen mehr "Avarage FPS", als ohne. ;)
 
Du bist Opfer der Testmethoden geworden. Die Balkenlänge ist hier reine Verarschung am Kunden und leider machen die Tester bei dem Wahnsinn auch noch mit, die realen FPS sind weit drunter und Multi-GPU ist auf keinen Fall ausgereift, oder wird von allen Spielen gleich gut unterstützt.
Du musst dich besser informieren oder du wirst eine böse Überraschung erleben. Eine single GPU wird dein low-end CF alt aussehen lassen...
 
Zurück
Oben