PCIe 6pin und 8pin

Permodan

Cadet 3rd Year
Registriert
Nov. 2013
Beiträge
43
Hi Leute,

da ich generell vor dem Kauf von Hardware mir auch versuche Gedanken zu machen wie die Technik funktioniert bin ich beim Kauf meiner neuen Graka, ( zu sehen in meinem anderen Thread ), darauf gestoßen das neue Grakas folgendes benötigen:

1x 6pin + 1x 8pin
2x 8pin
oder Ältere wie meine GTX 460
2x 6pin

Jetzt hab ICH mir zb eine HD 7970 ausgesucht. Diese sind mit 1x 6pin und 1x 8pin angegeben. Ich habe aber nur 2x 6pin.
Ich weiß auch das es ein Adapter gibt.


Jetzt zu meiner Frage:
Was entstehen für Nachteile beim Benutzten eines Adapters? Immerhin fallen doch ( so denke ich ) 2 Kabel einfach weg. Somit ist doch weniger Watt / Ampere vorhanden?


Kenn ihr Links wo, ohne Fachwörterlexikon, Laien erklärt wird wie die PCIe Stecker funktionieren? Evtl wieviel Strom fliest etc.

Hab bis jezt rausbekommen: 6pins haben 3 Plusleitungen und 3 Masseleitungen. Auf jeder Plusleitung fliesen 75 Watt. Auf Wikipedia wiederrum steht das ein 6pin nur 150 Watt leisten kann?

Genauso wie bei Grafikkarten angegeben wird: Verbrauch > 250W. In Benchmarks ist der Verbrauch tatsächlich 340 Watt ( beispiel 7970 GHz Edition ). Desweiteren gibt der Hersteller aber auch was von 500 Watt an. Ja was soll ich da als Laie glauben? :)

Evtl kann es ja jemand kurz und knackig erklären :) oder kennt schöne Links die ich noch nicht angetroffen habe.
 
Permodan schrieb:
Hi Leute,


Genauso wie bei Grafikkarten angegeben wird: Verbrauch > 250W. In Benchmarks ist der Verbrauch tatsächlich 340 Watt ( beispiel 7970 GHz Edition ). Desweiteren gibt der Hersteller aber auch was von 500 Watt an. Ja was soll ich da als Laie glauben? :)

Hier auf Computerbase zumindest wird der Verbrauch des Gesamten Systems angegeben! Das würde schonmal diesen Unterschied erklären.
 
Der Verbrauch in den Benchmarks, wenn du die auf CB meinst, bezieht sich aufs GESAMTSYSTEM, nicht nur auf die Grafikkarte!
Die Herstellerangaben sind stets zu hoch, damit auch irgendwelche 20€ Netzteile mit angeblich 600 Watt, aber viel geringerer Realleistung mit der Hardware laufen.
PS: Hast du ein Markennetzteil? Poste doch mal bitte.
 
6pin: 75 Watt
8pin: 150 Watt
PCIe Slot: 75 Watt

Der Benchmark war aber bestimmt das ganze System und nicht nur die Grafikkarte.

Adapter kann man nutzen, sind ja nicht umsonst bei der Grafikkarte dabei - was hast du denn genau für ein Netzteil?
 
Aha, das mit dem Gesamtverbrauch ist doch schon mal ein guter Tipp ;) Wo genau ich den 340Watt Benchmark gesehen habe weiß ich nicht mehr :-)

Kann mir jetzt noch einer bezüglich den Pins aushelfen?
Ergänzung ()

Netztteil: Cool Master GX 650W, vor 3 Jahren gekauft. Ich glaube das Aktuelle hat 1x 6pin und 1x 8pin laut Hersteller. Hat meins noch nicht. Es hat 2x 6Pin
 
Wiki sagt:

"Die erste Version der Zusatzstecker hat sechs Pins und kann bis zu 75 Watt liefern, wodurch die dem Gerät maximal bereitgestellte Leistung auf 150 Watt steigt, bei Nutzung zweier solche Stecker sogar auf 225 Watt. In der Spezifikation von PCI Express 2.0 wurde ein neuer Zusatzstecker mit 8 Pins definiert, der maximal 150 Watt führen kann. Für noch höhere Leistungen kann ein zusätzlicher Stecker mit 6 Pins genutzt werden, der jedoch nur weitere 75 Watt führt, wodurch die maximale Aufnahmeleistung einer PCI-Express-Karte auf 300 Watt begrenzt ist (75 Watt vom Steckplatz, 150 Watt erster Stecker, 75 Watt zweiter Stecker).Neue leistungsfähigere Grafikkarten, die seit Anfang 2011 auf dem Markt sind, sehen die Verwendung von zwei 8-Pin-Steckern vor. Somit steigert sich die maximale Leistungsaufnahme auf 375 Watt. (75 Watt vom Steckplatz, 150 Watt erster Stecker, 150 Watt zweiter Stecker)."
 
Du hast 2x 6+2 - also sollte das locker gehen ohne Adapter!
Watt ist auch mehr als genug vorhanden.
 
Ich hab leider KEIN 2x 6+2pin. Ich habe lediglich 2x 6pin.
Ergänzung ()

Jetzt, nach 5x Wiki durchlesen, versteh ich den Text endlich. Also MEIN System kann damit 225 Watt führen. 75 vom Steckplatz, 75 für 1x 6pin + nochmals 75 für ebenfalls 1x 6pin.

Heißt es fehlen mir 25 Watt um die Grafikkarte auf maximal laufen zu lassen.

Nehmen wir mal an ( rein aus Interesse ), die Karte würde EXAKT 250 Watt verbrauchen auf 100% Leistung. Ich spiele ein Spiel das EXAKT 100% Leistung braucht und damit 250 WATT verbraucht. Was würde passieren? Die Karte bekommt ja nur 225 Watt! Und selbst mit nem Adapater fliest ja kein Zusatzstrom, der Karte wird nur vorgegaugelt das genug Strom da wäre ( so versteh ich das richtig?? )
 
Das wäre nicht schlimm. Ist ja nur bei Leistungsspitzen, dauerhaft zuviel Strom durchjagen wäre weniger gut.
Also schliess den Adapter an, und fertig. Die 75 Watt sind vorgegeben, damit nicht zuviel Strom durch die Leitungen fliesst, das Netzteil liefert auch mehr. 10% sind eh unproblematisch.
 
OHHHH MEIN GOTT ICH SCHÄM MICH SO!!! Ich entschuldige mich 1000x. Im Kabelsalat den ich mir grad mal angesehen habe, sind mir tatsächlich 2 Stecker aufgefallen die aus den 2x 6pin = 2x 8pin machen!! Sind mir noch nie aufgefallen da ich ja nur die 2x 6Pin verwende. PEINLICH!!!

Trozdem um die Kompetenz aufzubessern:

Fliesen durch diese Art Stecker wie ich sie habe jetzt 75 Watt oder tatsächliche 150 Watt? Weil der Stecker ja nicht immer ein 8Pin ist. Man kann ihn ja downgraden zum 6Pin.
 
Permodan schrieb:
Fliesen durch diese Art Stecker wie ich sie habe jetzt 75 Watt oder tatsächliche 150 Watt?

Es fließt nur soviel Strom wie benötigt wird Ergo wenn die Graka 70 Watt will gibt es 70 Watt, bei 75 gibt es 75 Watt und mehr lässt das Kabel nicht zu wenn es nur der 6 Pin ist.
 
Ich schäm mich immernoch ;-(!! Zu guter Letzt, wo wir hier grad am Plaudern sind:

Welche Karte würdet ihr EUCH persönlich kaufen wenn ihr die zwei zur Auswahl hättet:

HIS R9 280x
-260 Euro
-scheinbar ( bin nicht sicher ) Vcore veränderbar
- >190 W

XFX 7970 GHz
-250 Euro
-3 Gratisspiele die mich nicht umhauen
-Vcore fest
- 250 W
 
Zuletzt bearbeitet:
Zurück
Oben