News Nvidia Ampere: Details zum neuen 12-Pin-PCIe-Anschluss für Netzteile

Ach bitte, soll das wirklich gängige Praxis sein dass Leute ihre 1000€ GPUs mit so dämlichen Splittern betreiben?

Abseits der Specs des neuen Stecker wirkt das hier einfach nur als vorgeschobener Grund.
 
  • Gefällt mir
Reaktionen: Otsy und JackTheRippchen
Hach, wäre schön, wenn man den AWG-Bezeichnungsmüll gleich mit auf den Müllhaufen der Geschichte werfen würde.
Aber den US-Amerikanern bricht ja auch sofort ein Zacken aus der Krone, wenn sie das SI-Einheitensystem nutzen müssten.
 
  • Gefällt mir
Reaktionen: lkullerkeks, DAASSI, Fritzler und 7 andere
Es wird Zeit, dass von 12V auf 24 oder gar 48VDC gegangen wird. Welche Komponente im PC wird denn noch direkt mit 12V oder 5V versorgt? Ein 48V Netzteil arbeitet viel effizienter, als ein 12V NT. Auch die Ströme wären um den Faktor 4 kleiner.
Alles ein Relikt aus den 1980ern...
 
  • Gefällt mir
Reaktionen: Ernie75, Grundgütiger, menace_one und 4 andere
Wie die ganzen „Experten“ hier heulen und alles besser wissen obwohl sie scheinbar gar nichts wissen. Meine Güte.

Technisch ist dieser Move absolut sinnvoll. Schaut euch das Video von Igor an, lernt mal Grundsatzwissen und hört auf mit dem ständigen Kindergarten.

Mimimi NVIDIA hat mir meine Schaufel weggenommen...
 
  • Gefällt mir
Reaktionen: Ernie75, Disco Pongo, 7r1c3 und 14 andere
@DAASSI gibt immer wieder daus, die sich so Zeug holen. Am Netzteil wird gerne gespart, und hinterher rumgejammert.
Hier hat auch schon einer geschrieben, das er hofft das sein Hersteller für sein uraltes Netzteil nen Adapter bereitstellt. Da kann man nur den Kopf schütteln...
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG, Mr Peanutbutter und Aduasen
wern001 schrieb:
Ich hatte mehrere Ati 7990 mit 2x 8Pin stecker da sind unter Dauerlast (Mining) auch die Stecker weggebruzelt
[Bild]
Wenn ich mir die Kabel und Stecker ansehe, lags wohl eher am China Böller. ;)

Ich hoffe auf passende Kabel von Cablemod für mein AX850 sofern es nötig sein sollte. Einen Adapter werde ich mir sicher nicht einbauen.
 
  • Gefällt mir
Reaktionen: Otsy und KCX
OZZHI schrieb:
Wenn ich mir die Kabel und Stecker ansehe, lags wohl eher am China Böller. ;)

War ein Thermaltake Netzteil
 
Man kauft sich eine neue 500-2000€ GPU, aber wegen einem neuen Anschluss, der möglicherweise zusätzliche 10-15€ Kosten für ein neues modulares Kabel oder einen Adapter verursachen könnte, geht man auf die Barrikaden und regt sich auf?

Wen juckt das? Der 8 PIN PCIe Standard ist nun mal veralteter Schrott, theoretisch könnte man mit entsprechendem Leitungsquerschnitt auch 480 Watt über 1x 8 PIN jagen, dafür müsste man aber von der Buchse, über den Stecker, bis zum Kabel und Netzteil eine gewisse Mindestqualität garantieren, die deutlich über dem Mindestmaß des Standards liegt.

Das Problem hat man in der Vergangenheit damit gelöst, Grafikkarten mit 2-3x 8 PIN vollzukleistern. Funktioniert, ist aber auch nicht ideal.

Jetzt steckt ihr eure 2-3x 8 PIN eben in einen Adapter statt in die GPU oder tauscht ein modulares Kabel aus. Wo ist der Unterschied? Muss man sich da wirklich so sehr drüber aufregen?
 
  • Gefällt mir
Reaktionen: Bulletchief, ..::Borni::.., FeelsGoodManJPG und 5 andere
Ratterkiste schrieb:
Bei Igor gibt es einen Artikel, der die technischen Hintergründe beleuchtet warum es zu der neuen Norm kommt.

Fazit: kein Dickmove von nVidia um den Mob in Wallungen zu bringen, sondern ein längst überfälliger Schritt um von einer Konvention aus dem Jahre 1857! wegzukommen, welche auch heute noch den China-Schrottnetzteilgurken die dünnsten Kacklitzen erlaubt.

Edit: da war jemand schneller...
der gute mann wollte in seinem video lustig rüber kommen, aber dass das awg-system 1857 erfunden wurde, hat nichts damit zu tun, dass heute awg20 in billignetzteilen verbreitet ist. wenn jetzt statt awg20 das besser geeignete awg16 für den stecker verwendet wird, heult auch niemand rum, dass das ebenso aus 1857 ist...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: m4rci, Recharging, FeelsGoodManJPG und 4 andere
LipsiaV schrieb:
Wie die ganzen „Experten“ hier heulen und alles besser wissen obwohl sie scheinbar gar nichts wissen.
Hab das Video von Igor gesehen und jetzt? Sinnvoll für die ganzen Leleks da draußen, aber mehr nicht. Wenn du so gut informiert bist, dann verrate uns doch den Vorteil gegenüber 2x8pin? Für den, der ein vernünftiges Netzteil und Kabel hat, bedeutet das nur ein neues Kabel kaufen zu müssen.. mehr nicht.
Ergänzung ()

KlaasKersting schrieb:
3x 8 PIN eben in einen Adapter
Das Kabel bzw. den Adapter will ich sehen..
 
  • Gefällt mir
Reaktionen: cru5h3r
verstehe den Sinn nicht dahinter. 2x8 Pin funktioniert doch bisher. Gehe mal davon aus, dass die Partnerkarten ganz normale Anschlüsse haben. Der 12 Pin Anschluss wird sicherlich nur auf der Founders Edition zu finden sein.
 
GoZx schrieb:
Effizienz hat nichts damit zu tun wie viel Strom ein Gerät frisst oder wie gross dessen Kühler ist. Sondern wie viel Leistung in Relation zum Verbrauch entsteht ^^

Deinen Optimismus hätte ich gern...

Um die 2080Ti (250 Watt TDP) in Sachen Effizienz zu schlagen, müsste die 3090 bei spekulierten ~350 Watt Verbrauch mindestens 40% mehr Leistung bringen.

Möglich, dass das passiert, da gilt es die Tests abzuwarten, aber einen absoluten Verbrauch jenseits der 300 Watt empfinde ich persönlich als nicht mehr zeitgemäß.
 
  • Gefällt mir
Reaktionen: Flyerdommo, medsommer, tm0975 und 2 andere
G3cko schrieb:
Warum nicht 2x 8-PIN oder 2x 6-PIN. Warum muss dieser Verein wieder ein eigenes Süppchen kochen.
Artikel nicht gelesen oder verstanden?

Damit soll sichergestellt werden dass der Strom auch wirklich aus 2 Kabeln kommt und nicht nur aus einem gesplittetem!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: catch 22 und mikiiway
Fliz schrieb:
mal wieder in Richtung Effizienz zu forschen, statt immer bessere Kühllösungen und noch mehr Strom.

Es wir die ganze Zeit die effizient Verbessert. Da die Leistung überproportianl zur Leistungsaufnahme steigt, erhöht sich damit die Effizienz (Effizienz ist schließlich im dem Fall das Verhältnis aus Performance und Leistungsaufnahme). Außerdem wird niemand gezwungen das Topmodel zu kaufen, bei dem es darum geht die maximal mögliche Leistung zu erzielen unter Vernachlässigung der Effizienz. Eine 3060/3070 wird von der Effizienz nochmal deutlich besser sein als das Topmodel. Das war schon immer so, wird auch immer so bleiben, denn bei den Topmodellen kommt es eben primär auf Leistung an, doch ohne erhöhte Effizienz würde man hier auch schnell ein Limit erreichen, weil man die Graka nicht mehr versorgt oder gekühlt bekommt.
 
  • Gefällt mir
Reaktionen: Andybmf und Marc53844
Ratterkiste schrieb:
Bei Igor gibt es einen Artikel, der die technischen Hintergründe beleuchtet warum es zu der neuen Norm kommt.
Naja, nur weil die bei Nvidia mal wieder ein eigenes Süppchen kochen, ist es noch lange keine "Norm".
 
  • Gefällt mir
Reaktionen: Khalinor und Phobsen
SoDaTierchen schrieb:
Ich hätte es besser gefunden, sowas erst zu einem Standard zu erklären und dann einzusetzen. Aber offen mit "Innovationen" umgehen war ja noch nie Nvidias Stil.

Dann kauf es nicht. Wobei die "Masse" es so oder so tun wird.
Es gibt ja kaum eine Alternative.
Macht AMD mit, ist es definitiv vorbei.

Ich habe zwar auch für diverse Sachen Adapter, jedoch werde ich nicht mehr alles mitmachen.
Die Technik-Zeiten sind vorbei.

Z.B. braucht man für viele Smartphone eine Nadel um an die Micro-SD-Karte zu kommen.
Somit kann ich gleich die SD drin lassen und mein Smartphone anschließen.
Nervt etwas...
 
wetten dass irgendwann grafikkarten mit zwei solcher stecker erscheinen?
 
  • Gefällt mir
Reaktionen: KCX
Zurück
Oben