die müssen ihr zeug verkaufen, vielleicht bringts ein paar watt.melemakar schrieb:Und wie wäre das zu erklären?
Würde mich mal interessieren (bzw allgemein von der Verbrauch? Controller? Graka? (wohl eher nicht))
mfg
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „PCIe 3.0“-Standard verschiebt sich bis 2010
- Ersteller Wolfgang
- Erstellt am
- Zur News: „PCIe 3.0“-Standard verschiebt sich bis 2010
Airbag
Fleet Admiral
- Registriert
- Aug. 2008
- Beiträge
- 12.192
Er beschneidet doch. Und das bei Dual GPU Karten, jedoch nur bei hohen settings.Beschneidet der PCIe 2.0 x16 Slot eigentlich die Grafikkarten,
weswegen ein PCIe 3.0 sehr sinvoll wäre
Eisenfaust
Banned
- Registriert
- Feb. 2007
- Beiträge
- 1.212
Eigentlich ist es egal, ob der Standard noch dieses Jahr oder erst nächstes Jahr verabschiedet werden kann und erste Geräte kommendes oder erst in zwei Jahren auf dem Markt sind. PCIe 2.0 wird in modernen Rechnern derzeit kaum, außer von Graphikkarten, genutzt und bei Verwendung eines PCIe 2.0-PEG sind meiner Meinung nach die Möglichkeiten bei weitem noch nicht ausgeschöpft - legt man die theoretischen Leistungslimites als Maßstab an.
Aber vielleicht sind es ja gerade diese theoretischen Limites, die in der Praxis aufgrund von Designschwächen nicht erreicht werden können - oder ist jetzt schon abzusehen, daß ein Engpaß binnen der kommenden 12 Monate auftritt, der sofortige Lösungen fordert? Selbst wenn SATA-III nun schneller als erwartet erscheinen sollte, so liegen die derzeitigen Beschränkungen eher bei den Chipsätzen und den propreitären Interfaces, zum Beispiel DMI bei Intel oder die ähnlich konzipierte Kopplung der SB bei AMD. Da beide Kopplungen schon quasi-PCIe 2.0 bei 4 Lanes verwenden, könnten diese auf 8 Lanes aufgebohrt werden. Wie man es aber dreht und wendet, der Standard ist noch nicht akut!
Das sollte eigentlich all diejenigen, die noch in diesem oder kommenden Jahr eine Neuanschaffung planen, freuen, denn so ist die neu erworbene Hardware nicht gleich 'altes' Eisen.
@Airbag: Kannst Du das präzisieren? Was meinst Du mit 'Settings'? Die Bandbreite auf einem PCIe 2.0-PEG beträgt doch theoretisch 8GB/s per Lane, also 4GB/s pro Richtung. Sind moderne GPUs schon so hungrig, daß sie eine Bandbreite von 4 GB/s anfordern können?
Aber vielleicht sind es ja gerade diese theoretischen Limites, die in der Praxis aufgrund von Designschwächen nicht erreicht werden können - oder ist jetzt schon abzusehen, daß ein Engpaß binnen der kommenden 12 Monate auftritt, der sofortige Lösungen fordert? Selbst wenn SATA-III nun schneller als erwartet erscheinen sollte, so liegen die derzeitigen Beschränkungen eher bei den Chipsätzen und den propreitären Interfaces, zum Beispiel DMI bei Intel oder die ähnlich konzipierte Kopplung der SB bei AMD. Da beide Kopplungen schon quasi-PCIe 2.0 bei 4 Lanes verwenden, könnten diese auf 8 Lanes aufgebohrt werden. Wie man es aber dreht und wendet, der Standard ist noch nicht akut!
Das sollte eigentlich all diejenigen, die noch in diesem oder kommenden Jahr eine Neuanschaffung planen, freuen, denn so ist die neu erworbene Hardware nicht gleich 'altes' Eisen.
@Airbag: Kannst Du das präzisieren? Was meinst Du mit 'Settings'? Die Bandbreite auf einem PCIe 2.0-PEG beträgt doch theoretisch 8GB/s per Lane, also 4GB/s pro Richtung. Sind moderne GPUs schon so hungrig, daß sie eine Bandbreite von 4 GB/s anfordern können?
Zuletzt bearbeitet:
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.577
Vielleicht bereiten die ja die Standards besonders großzügig vor, damit auch Intels Larrabee noch läuft 
Offensichtlich haben die Jungs auf jeden Fall keinen Stress damit die Entwicklung von PCIe 3.0 abzuschließen. Dor möcht ich auch arbeiten
@ Tekpoint
Ist kein Produkt sondern ein Standard ;-)
Offensichtlich haben die Jungs auf jeden Fall keinen Stress damit die Entwicklung von PCIe 3.0 abzuschließen. Dor möcht ich auch arbeiten
@ Tekpoint
Ist kein Produkt sondern ein Standard ;-)
Hättest du auch so vergessen können. Wenn Ende09 die Spezifikation finalisiert würde, kannste bis Mitte2010 bei weitem noch keine fertigen Produkte kaufen.Sw@rteX schrieb:toll![]()
ich wollte mir anfang nächstes jahr ein board mit usb 3.0 + sata 3 + pcie 3.0 kaufen.
das kann ich dann wohl entgültig vergessen und meine pläne für nen neuen rechner nochmal ändern.![]()
300W, ist schon längst mit PCIe 2.0 möglich.Whoozy schrieb:300 Watt Verbrauch damit rechnen die in Zukunft? Alles klar sowas kommt bei mir nicht rein das ist einfach nur noch krank.
Allerdings macht mich der Artikel auf PCGH etwas ärgerlich. Ein neuer Stecker tut doch nicht not.
Ob da jetzt nen 6er auch in die 8er Buchse reinpasst ist doch egal.
Und mehr Energie ist auch nicht nötig. Mit 2 jetzigen 8pin Steckern wäre man schon bei 375W. Mehr bekommt man auch mit 3 Slots nicht vernünftig gekühlt.
melemakar
Lieutenant
- Registriert
- Mai 2005
- Beiträge
- 783
DvP schrieb:Vielleicht bereiten die ja die Standards besonders großzügig vor, damit auch Intels Larrabee noch läuft![]()
Genau das ahbe ich mir auch gedacht, als von 300W die Rede war...
laresx5
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 746
Leute, kauft euch neue HW, die Kassen müssen klingeln.
Hauptsache inkompatible.
Was, sie benutzen noch PCIe2.0, ist ja total überholt, es gibt jetzt 3.0.
Warum auch immer! Ist doch mal wirklich wieder Pseudo.
Ich glaube die Graka's dürfen mehr als die 75Watt bei 2.0 verbrauchen, oder bring ich jetzt was durcheinander.
Hauptsache inkompatible.
Was, sie benutzen noch PCIe2.0, ist ja total überholt, es gibt jetzt 3.0.
Warum auch immer! Ist doch mal wirklich wieder Pseudo.
Ich glaube die Graka's dürfen mehr als die 75Watt bei 2.0 verbrauchen, oder bring ich jetzt was durcheinander.
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.577
laresx5 schrieb:Ich glaube die Graka's dürfen mehr als die 75Watt bei 2.0 verbrauchen, oder bring ich jetzt was durcheinander.
Ist natürlich immer die Frage wie viel die Karte direkt über den Slot ziehen darf bzw. wie viel Saft über die zusätzlichen Kabel geliefert werden muss.
MFelgate
Lt. Junior Grade
- Registriert
- Mai 2009
- Beiträge
- 301
Ich glaube die Graka's dürfen mehr als die 75Watt bei 2.0 verbrauchen, oder bring ich jetzt was durcheinander.
Ein PCI-E-Steckplatz liefert max. 75 Watt, der Rest muß von zusätzlichen Quellen wie PCIE-6- und/oder PCIE-8-Stromsteckern kommen. Die PCIE-2.0-Spezifikationen erlauben maimal 300 Watt (75W vom Slot + 75W PCIE-6-Stecker + 150W PCIE-8-Stecker).
Es besteht meiner Meinung nach keine Notwendigkeit, diese Grenze nach oben zu verschieben. Das würde ja den gezwungenen Bemühungungen der GPU-Hersteller für die Entwicklung energieeffizenter GPUs den Wind aus den Segeln nehmen.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
USB 3 und SATA 3 kannst du per PCIe-Karten problemlos nachrüsten und PCIe 3 brauchst man für die nächste Generation also GT300 auch noch nicht, wobei eine GTX 395 wahrscheinlich schon langsam davon profitieren würde. Es gibt zum Glück wenige Games die viel PCIe Leistung brauchen, Grafikkarten mit zu wenig Vram profitieren aber stark, weil sie ständig aus dem Arbeitsspeicher laden. Also denkt daran, viel Vram gleicht vorallem PCIe 1.0 Karten positiv aus. Und so wird es auch in Zukunft mit PCIe 2.0 Karten sein...Sw@rteX schrieb:toll![]()
ich wollte mir anfang nächstes jahr ein board mit usb 3.0 + sata 3 + pcie 3.0 kaufen.
das kann ich dann wohl entgültig vergessen und meine pläne für nen neuen rechner nochmal ändern.![]()
S
Stuntmp02
Gast
Am wichtigsten ist die Kompatibilität zu den alten Standards. Ich will sowohl eine PCIe-Gen-1 Grafikkarte in einen Slot-Gen-3, als auch andersrum stecken können. Aber das soll soweit auch unterstützt werden, also sehe ich nur Vorteile im neuen Standard
M
Muscular Beaver
Gast
Na wenigstens ist es kein komplett neuer Slot.
Dann muss man sich nämlich nicht zwingend ein neues Mainboard kaufen.
Dann muss man sich nämlich nicht zwingend ein neues Mainboard kaufen.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
@MFelgate
Für SLI oder CF Karten sollte die PCIe Spec schon angehoben werden. 400-500Watt währen hier nicht verkehrt. Eine GTX 295 1.0 hat 316Watt unter 100% Last eine HD 4870 X2 hat gleich 373Watt unter 100%. Eine HD 4890 X2 mit 2x 8Pin und geschätzten ca.450Watt unter 100% wird es wahrscheinlich genau deswegen nicht geben: https://www.computerbase.de/news/grafikkarten/ati-partner-bringen-radeon-hd-4890-x2.24645/
Mit Wasserkühlung sind dann solche Wattmonster auch locker zu bändigen...
Für SLI oder CF Karten sollte die PCIe Spec schon angehoben werden. 400-500Watt währen hier nicht verkehrt. Eine GTX 295 1.0 hat 316Watt unter 100% Last eine HD 4870 X2 hat gleich 373Watt unter 100%. Eine HD 4890 X2 mit 2x 8Pin und geschätzten ca.450Watt unter 100% wird es wahrscheinlich genau deswegen nicht geben: https://www.computerbase.de/news/grafikkarten/ati-partner-bringen-radeon-hd-4890-x2.24645/
Mit Wasserkühlung sind dann solche Wattmonster auch locker zu bändigen...
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Einerseits richtig, selbst der 300W + 75W Ansatz der neuen 12pin Versorgung ist etwas zu schwach.Kasmopaya schrieb:Für SLI oder CF Karten sollte die PCIe Spec schon angehoben werden. 400-500Watt währen hier nicht verkehrt.
Andererseits haben AFR Karten dem Markt genug geschadet, das muss nicht noch schlimmer werden. Diese 400W MGPU Treter dürfen sich "FPS-mäßig" nicht weiter von den SGPU Karten entfernen.
MFelgate
Lt. Junior Grade
- Registriert
- Mai 2009
- Beiträge
- 301
@Kasmopaya:
Beide Beispiele entsprechen aber nicht der PCIe-2.0-Spezifikation. Das haben auch ATi und Nvidia zugegeben bzw. ist es den Detailbeschreibungen der Referenzmodelle zu entnehmen.
Ich meine nur, es muß eine andere Lösung geben, um mehr Leistungsfähigkeit bei zumindest gleichbleibenden Energiebedarf bereitstellen zu können. Die Typen in den Enwicklungsabteilungen dürfen eben nicht nur mit der Ausrede daherkommen, "Wir brauchen mehr Watt". Das ist schlichtweg nicht mehr zeitgemäß und fern ab jeglicher zu respektierenden Innovationsleistung. Bei den CPUs hat es doch auch geklappt, daß zumindest der Energiebedarf bei steigender Leistung sinkt - nicht nur im relativen Vergleich, sondern auch absolut.
Bei den GPUs geht der Trend in Richtung Leistungsverdopplung bei Verdopplung des Energiebedarfs.
Du siehst, mir geht es weniger um den Abtransport der Wärmeentwicklung, sondern eher um den massiven Energieeinsatz, der notwendig ist für die Erzeugung von ein paar Bildern mehr pro Sekunde. Im Übrigen, stößt die Wasserkühlung auch mal an die Grenzen des Machbaren. Möchtest Du dann auf flüssigen Stickstoff setzen?
Beide Beispiele entsprechen aber nicht der PCIe-2.0-Spezifikation. Das haben auch ATi und Nvidia zugegeben bzw. ist es den Detailbeschreibungen der Referenzmodelle zu entnehmen.
Ich meine nur, es muß eine andere Lösung geben, um mehr Leistungsfähigkeit bei zumindest gleichbleibenden Energiebedarf bereitstellen zu können. Die Typen in den Enwicklungsabteilungen dürfen eben nicht nur mit der Ausrede daherkommen, "Wir brauchen mehr Watt". Das ist schlichtweg nicht mehr zeitgemäß und fern ab jeglicher zu respektierenden Innovationsleistung. Bei den CPUs hat es doch auch geklappt, daß zumindest der Energiebedarf bei steigender Leistung sinkt - nicht nur im relativen Vergleich, sondern auch absolut.
Bei den GPUs geht der Trend in Richtung Leistungsverdopplung bei Verdopplung des Energiebedarfs.
Du siehst, mir geht es weniger um den Abtransport der Wärmeentwicklung, sondern eher um den massiven Energieeinsatz, der notwendig ist für die Erzeugung von ein paar Bildern mehr pro Sekunde. Im Übrigen, stößt die Wasserkühlung auch mal an die Grenzen des Machbaren. Möchtest Du dann auf flüssigen Stickstoff setzen?
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Ja neue Architekturen kommen alle paar Jahre mal raus...Ich meine nur, es muß eine andere Lösung geben, um mehr Leistungsfähigkeit bei zumindest gleichbleibenden Energiebedarf bereitstellen zu können.
Doch dürfen sie, für CF oder SLI das ist der absolute Enthusiast Bereich bei Mulit-GPU 1000Watt, 2000Watt alles egal, Hauptsache die letzen FPS oder Benchmark Rekorde werden geknackt. Meinen Segen haben sie, ist ja auch kein Massenmarkt...Die Typen in den Enwicklungsabteilungen dürfen eben nicht nur mit der Ausrede daherkommen, "Wir brauchen mehr Watt". Das ist schlichtweg nicht mehr zeitgemäß und fern ab jeglicher zu respektierenden Innovationsleistung.
ähh Nehalem effizienter? Nicht wirklich, 130Watt TDP und auch in der Praxis schlägt sich dieser theoretische Wert mit mehr Hitze und Leistungsaufnahme durch.Bei den CPUs hat es doch auch geklappt, daß zumindest der Energiebedarf bei steigender Leistung sinkt - nicht nur im relativen Vergleich, sondern auch absolut.
Oder Phenom I effizienter? Nö nicht wirklich...
CPUs effizienter als GPUs? ...
Schon wieder falsch: HD 4770 und die Green Modelle von NV machen es vor und die neuen effizienteren Architekturen sind noch nichtmal raus...Bei den GPUs geht der Trend in Richtung Leistungsverdopplung bei Verdopplung des Energiebedarfs.
500Watt für Multi-GPU reichen doch vorerst und das ist für eine Wasserkühlung kein Problem, du tust ja so als ob die Wasserkühlungen schon am Ende währen, obwohl sie noch nichtmal richtig gefordert werden...stößt die Wasserkühlung auch mal an die Grenzen des Machbaren.
Zuletzt bearbeitet:
Das ist alles andere als richtig. Die CPUs haben auch kaum an Rechenleistung zugelegt. Vergleiche mal die letzten 3 Jahre bei den CPUs und GPUs.MFelgate schrieb:Bei den CPUs hat es doch auch geklappt, daß zumindest der Energiebedarf bei steigender Leistung sinkt - nicht nur im relativen Vergleich, sondern auch absolut.
Bei den GPUs geht der Trend in Richtung Leistungsverdopplung bei Verdopplung des Energiebedarfs.
CPU: QX6800->i7 965 Leistung nicht mal verdoppelt, Verbrauch konstant
GPU:7900GTX->GTX285 Leistung mehr als vervierfacht, Verbrauch verdoppelt
Die Performance steigt bei den GPUs viel schneller. Eben auch schneller als die Fertiger mit den Shrinks hinterherkommen.
Ich sehe da aber kein Problem. Wer ne sparsame Karte will, bekommt auch eine. Nur das es eben viel schnellere Modelle gibt, die eben mehr verbrauchen.
Nimm doch zB die HD4670. Die ist extrem sparsam und hat ca. die Leistung einer 2900Pro welche wohl mind. das 3x verbraucht.
Zuletzt bearbeitet:
perfectsam
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.426
Ist mir egal, dass sich der verspätet, habe mir gerade ein neues Sys gekauft 
Ausserdem: Fällt der Geschwindigkeitsunterschied wie bei PCIe 1.1 vs 2.0 aus, dann ist's eh halb so wild.
Ausserdem: Fällt der Geschwindigkeitsunterschied wie bei PCIe 1.1 vs 2.0 aus, dann ist's eh halb so wild.