News Nvidia-Grafikkarten mit PCIe 2.0 schon im Oktober?

Da stimm ich dir voll zu Zwirbelkatz.

Beispiel ein Rechner will nicht funktionieren ... "dann Tausch mal die Grafikkarte oder die RAMs vom anderen PC der hier steht" Ja klar passt das :D

kann mir vlt. jemand was zu #58 sagen? :)
 
Also was manche hier für einen Schmarn verzapfen... alle PCIE2-fähigen Karten laufen in PCIE1-fähigen Boards und alle PCIE1-fähigen Karten laufen in PCIE2-fähigen Boards. Die Stromversorgung über den Slot ist nach wie vor bei 75W. Alles weiter kommt über zusätzliche Stecker! Diese Angabe von 300W gilt mittlerweile sogar für den PCIE1-Standard, in der letzten Revision wurde die Stromversorgung dahingehend erweitert. (Stand in der letzten oder vorletzten PCGH)
 
Wenn ich dich richtig verstehe möchtest du wissen, ob du PCI E 2 abwarten sollst? Da ja angeblich (!!!) die aktuellen normal - PCIE Karten drin laufen sollen ist es eigentlich egal.

Ist ja kein schlechter Zeitpunkt aufzurüsten im Moment. Ram Preise noch relativ weit unten, Motherboards stabil, Cpus im Preiskampf.
100% Gewißheit hat man leider nie, wie meine Anekdote auf #60 anreißt...

Wenn du solchen Schwierigkeiten entgehen willst hilft nur eines. Du musst kompromislos PReis/Leistung kaufen. Wieso also nicht z.B. das DS3 - das kostet 50€ weniger, die der Hardwarerezession zum Opfer fallen können.

Keiner kennt die Fakten der nächsten Grakageneration, denke ich mal.
 
@ 60

wenns nach dir ginge würden wir immernoch mit Sockeln aus 486 er zeiten, edo ram, isa slots und seriellen und parallelen schnittstellen arbeiten, nur damit man alles zusammenstecken kann.

ich finde fortschritt gut, auch wenns jetzt nur DDR2 - DDR3 ist, was zwar einzeln gesehen nur 1 % mehr leistung bringt, aber wenn man alle komponenten zusammenrechnet doch 50 % mehr leistung rauskommt.

als beispiel an die WOW-Süchtigen (bin auch einer): Ein Helm mit + 30 zauberschaden hört sich nach nix an, aber wenn man alle gegnstände zusammenrechnet kommt man auch mal auf +500 zauberschaden ;)
 
Ich habs extra so formuliert, damit so ein
§($%/§'"$% wie du ihn schreibst nicht dabei rum kommt. Scheinbar verstehen manche einfach keinen Spaß.

Oder aber du bist nicht in der Lage, den ironischen Ton raus zu lesen. Naja, ist ja jedes mal so. Was solls.
Klar muss Fortschritt sein, aber es ist eindeutig erkennbar, das 50% allen Fortschritts Marketing sind.
 
die höhere geschwindigkeit finde ich gut, aber das noch mehr strom gegeben wird finde ich ist kein richtiger weg, die Graka´s sollen auch mal mehr auf verbrauch getrimmt werden, bei CPU`s ist das ja normal geworden, und ich denke nicht, dass es ATi und nVidia nicht hinbekommen würden
 
@vesh: wo stehtn da was von höherer geschwindigkeit, es handelt sich hier um bandbreite (nicht geschwindigkeit)

stell dir ne 10-spurige autobahn vor wo genau 2 autos langfahren. brauchste die 10 spuren wirklich? haben diese 10 spuren was mit geschwindigkeit der 2 autos zu tun? ich glaub nich
 
Zuletzt bearbeitet:
Was soll das denn bitte, schon wieder so ein übler Refreshaufguss wie beim Wechsel von AGP4x auf AGP8x bei der Geforce 4 bzw. von AGP8x auf PCIe 1.0 wie bei der Geforce (5) FX, dachte es soll ein G92, bzw G81oder G90 kommen und jetzt sowas. Da ist ja kaum Performancegewinn zu erwarten. Punkto Stromverbauch gibts dann nur zu sagen, dass dann drei Anschlüsse a 75 Watt auf der Karte verbaut sind, und 75 Watt wie bereits bei PCIe1.1 über das Mainboard geholt werden dürfen. Sprich die Anzahl der auf den Karten verbauten Anschlüsse reduziert sich auch nicht.
 
was kann man dagegen haben? es ist doch vollkommen kompatibel

und denkt mal ein wenig weiter, muss ja nicht nur für grafikkarten passen
ein raidcontroller wird sich freuen
so reichen schon kleinere slots aus um vernünftige bandbreiten zu gewähren

btw: es sind keine 3 anschlüsse à 75 watt
der 8pol peg stecker liefert 150w
 
Der zukünftige PCI/e *16 2.0 Slot liefert 150Watt und nicht 75Watt, daß war/ist noch bei 1.1 der Fall.
 
Zuletzt bearbeitet:
300Watt über eine Schnittstelle halte ich für nicht korrekt. Vielen Verbrauchern wird nicht auffallen wie viel Strom ihre Grafikkarte zieht. Wenn man ein extra Käbelchen reinstecken muss fällt das eher auf. (Ich spreche hier aber dennoch von Leuten die wenigstens ein ein bisschen Ahnung von Pcs haben)

Überall wird mit gesenktem Stromverbrauch geworben, vorallem bei den Prozessoren (Speicher und SSDs ja auch) und jetzt kommt man hier Nvidia entgegen indem man mal schnell 300 Watt ohne zusätzliches Kabel absaugen kann.

Ich hätte einen Schritt in die andere Richtung besser gefunden. Das die Bandbreite weiter erhöht wird war ja absehbar. Das ist der Fortschritt^^
 
Der Slot liefert nicht 300Watt sondern 150Watt, hatte ich das nicht gerade einen Post über dir geschrieben?:freak:
 
Bis auf die aberwitzigen 300 Watt Stromverbrauch braucht PEG 2.0 nur theoretische Neuerungen die wirklich bringen... das war schon mit AGP auf PEG 1 so...
 
ob sich PCIe 2.0 lohnt oder nicht wird sich dann zeigen.

Aber was ich jetz schon wieder befürchte ist, das kein mensch die neuen Karten (PCIe 2.0) von den alten Karten (PCIe 1.1) unterscheiden kann, da es ja beides z.b. 8800 GTX + Herstellerendung sind.

Und es wird sicherlich eine übergangsphase geben in der beide neu verkauft werden, wohlmöglich noch unter dem selben namen.

Ich hoffe das sich Nvidia da was einfallen lässt das dies nicht so wird
 
Was immer alle mit dem Stromverbrauch haben ... klar, sind 300 Watt heftig, aber es stellt ja auch nur die max. Aufnahme dar, niemand sagt, die Teile fressen 300 Watt, sobald sie laufen.

A propos Stromverbrauch: Hat mal jemand bei seinem Deckenfluter im Wohnzimmer geschaut? Darin stecken Halogenlampen mit 300 - 500 Watt. Und?
Da kommt´s doch wohl auf ´nen PC der ins. 300 - 500 Watt zieht (wenn überhaupt) nun auch nicht mehr an, oder sehe ich das falsch?

Anderes Thema ...

Merke:
Die Hersteller neuer Technologien der IT, gerade im Consumerbereich, arbeiten ausschließlich profitorientiert ... sie wären dämlich, täten sie´s nicht.
Die Bestätigung dieser Strategie spiegelt sich hier täglich im Forum wieder.

Technisch völlig Unerfahrene lesen nur:

„...Boaah, PCIe 2.0! Mehr Bandbreite! Das brauche ich, habe ja schließlich "nur" 1.1 !
Abwärtskompatibel ist es? Super! Dann hole ich mir auch so eine Karte!
Wo bekomme ich die her? Jawoll! Preisvergleicher!...“

Dann geht´s los mit:

„...Hab meine da und da her. Die sind echt gut dort....“

Dann folgen Themen hier auf cb.de so à la:

„...Karte läuft nicht auf PCIe 2.0, sondern es wird nur 1.1 angezeigt ... warum?...“

Naja ... wenns´schee macht. :rolleyes:
 
Wie sieht dann die Stromversorgung meines Rechners später aus?
Wenn ich mit ca. 100 Watt für den Prozzi rechnen muss, 600 Watt für ein SLI-System und dann noch ca. 100 Watt für Festplatten, Laufwerke, Soundkarte.... rechne, sitze ich ja am Ende mit nem 850 Watt-Netzteil da!
Und rechne ich den Verbrauch mal mutig aus, um mein System 365 Tage i Jahr jerweils 4 Stunden laufen zu lassen, brauche ich mein kleines Privat-AKW im Keller!!!
Nee, so nicht. Solange hier nicht die Graka-Hersteller Nvidia und AMD/ATI in der Lage sind, stromsparende und trotzdem schnelle GPUs auf den Markt zu werfen, werde ich dies nicht auch noch unterstützen!
 
Zurück
Oben