News Aqua Computer Ampinel: Aktive Lastverteilung für den 12V-2×6-Stecker

Capthowdy schrieb:
Was hat das schon wieder mit uns Deutschen zu tun?
Das könnte wirklich sein.
Mir fällt es, insbesondere hier in Deutschland, seit recht langer Zeit, unangenehm auf.
 
Bestimmt nur eine Frage der Zeit bis GPU's mit 24V versorgt werden.
 
  • Gefällt mir
Reaktionen: kaji-kun
Shoggy schrieb:
Entsprechende Inkompatibilitäten oder Problemfälle (so weit bekannt) werden wir natürlich in die Artikelbeschreibung aufnehmen.
Sehr nice, danke für den informativen Beitrag. Kann man das Gadget denn auch vorbestellen?
Bulletchief schrieb:
12vhpwr kommt ja nicht von nVidia, sondern wurde von der PCI-SIG spezifiziert (also auch durch AMD).
Nvidia und ich meine Intel waren allerdings die Treiber hinter dem verkorksten Standard. Und dass dieser rein rechnerisch nicht gut durchdacht ist und alles der Idee des einzelnen Connectors unterworfen wurde ist nicht optimal.
Da fiel man ordentlich auf die Schnauze. Dass immer wieder jemand kommt der dann sagt, dass es !nie! wirklich Probleme damit gegeben hätte ist genauso falsch, wie heute noch von der großen Gefahr zu warnen.

Die Wahrheit liegt bekanntlich irgendwo in der Mitte und da es statistisch nicht auszuschließen ist, dass eine 5090 auch mit aktuellen Adaptern von X1000 Karten die Hufe hochreißt, sind solche Bemühungen der Hersteller grundsätzlich rein positiv.
 
Zuletzt bearbeitet:
Fühlt sich irgendwie nicht richtig an. Wie schon viele geschrieben haben. 80 € bezahlen damit das Produkt sicherer wird und Sicherheit vermittelt. Aber, wenn es dazu noch blinkt ist es doch schon mal was. 😃

Habe eine Zotac 4090 und beobachte das mit dem Thermal Grizzly Adapter mein System instabil wird. Hoffe das das sich besser schlägt.
 
Das MatZe schrieb:
Habe mal nachgesehen.
Ist ein Be Quiet Straight Power BQT E8 700w.

Und seine 6+2 Pins. Auf dem Foto ist nur eines zu sehen. Sind aber 2 Stück.

Es sei denn, die gehen Aufgrund des Abstandes oder/und der Form nicht rein bei dem 12r Anschluss von Nvidia.

1759485100995.webp
 
estros schrieb:
Das heißt ja, der Adapter funktioniert auch ohne Aquasuite, wenn einem der Alarm reicht?!
Wieso nur Alarm? Da steht, doch das ohne Software im Fehlerfall die Sens Pins getrennt werden. Da sollte doch das Netzteil Abschalten, wenn ein Gerät 600 Watt zieht, aber die Sens Pins plötzlich nicht mehr verbunden sind.
 
@JohnMcLane87 den entscheidend Falschen Teil habe ich ja genannt. Und als Nebenschauplatz wenn dir ernsthaft GUIs unter Linux fehlen, es ist gar nicht mal so schwer fehlende selbst zu erstellen. Und eben als eigenen Beitrag einzubringen. Mit dem total simplen Tool Zenity zum Beispiel kannst du mit wenig arbeit so viel mal als Grafik umsetzen. Ist aber nen nochmal anderes Thema.
Davon ab bleibt es Offtopic.
 
Hyourinmaru schrieb:
es geht wieder los und es wird sich wieder gestritten, ob der Stecker Murks ist
Darum wird nicht gestritten da das bewiesen ist. Es wird darum gestritten warum vereinzelte den Stecker in Schutz nehmen. Den Herstellern freuts, die verhalten sich unauffällig und lassen das in Schutz nehmen des Stecker Standards von den User machen. ;) Damit sparen sie Geld und müssen sich nicht rechtfertigen.
 
Zuletzt bearbeitet:
Loopman schrieb:
Er funktioniert bei korrekter Anwendung wunderbar.
Man sollte halt 3rd-Party-Geraffel herauslassen und drauf achten, dass man den Stecker auch sauber verbindet.
Eben nicht. Schau doch das Video zu Ende vom Igor. Selbst mit einem neuen ATX 3.1 Netzteil und einer neuen RTX 5090 sind die ganzen Messungen außerhalb der Toleranz. Erlaubt sind 7,5 A, gemessen wurden bis zu 10,69A. Und das bei neuen Sachen ohne Adapter etc.Das sind ca. 42% überhalb der Spezifikation. Einach brutal. Und du sagst es ist alles wunderbar...
 
  • Gefällt mir
Reaktionen: OldNewUser, latexdoll, K0ntextlos und 5 andere
rentex schrieb:
Das bekommst du mit AMD bald ebenfalls, außer es gibt mal Vorgaben seitens AMD.
true gibt doch schon Hersteller die auch bei AMD GPUs diesen Müllstecker nutzen
 
@Alexander2 die inhaltliche Kritik an meinem Post ist mir entgangen bzw entgeht mir. Dafür bitte ich um Entschuldigung.

Aber immerhin sind wir sogar wieder on topic! :):

Ironie on
Wenn die Endnutzer des betreffenden Steckers eine Überwachung der Stromstärken auf den einzelnen Adern haben wollen, hätten sie sich es ja auch selber bauen können. Die Kollegen vom Elektronik Kompendium oder anderen Foren hätten bestimmt bei einem einfachen Schaltplan helfen können. Ironie Off

Ob das ganze wirklich als Argument für ein endkundengeeignetes Produkt herhalten kann, wage zumindest ich zu bezweifeln.
 
Mal so als Info am Rande: Es gab Reparaturshops, die laut Mitarbeiteraussagen Hunderte(!) von defekten 4090 eingeschickt bekommen haben.

https://www.tomshardware.com/news/technician-repairs-hundreds-rtx-4090-melted-connectors-every-month

Setzt man das in Relation zur ingesamt vergleichsweise geringen Zahl verkaufter 4090 (da sehr teuer, CB-Bubble bitte ausblenden), ist das schon - sagen wir mal - bemerkenswert.

Das Design der Leitungen wurde auf der 5090 übrigens nicht verändert:

Der Grund, warum es bei der 5090 nicht mehr so krass war, ist, dass viele Custom-Partner (also MSI, Asus usw) das Design der Platine so verändert haben, dass es eine Kontrolle der Ströme gibt: https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/65507-12vhpwr-12v-2x6-problematik-boardpartner-mit-bedenken-und-fehlgeschlagenen-lösungsansätzen.html

Also: Das ist ein Problem und der 12VHPWR-Stecker ist einfach scheisse und mit viel zu wenig Spielraum designed, ob man das jetzt wahrhaben will oder nicht.

EDIT & Zusatzinfo: Das hier besprochene Produkt macht natürlich nur bei einer 4090 oder 5090 Sinn, da nur dort so viel Strom fließt, dass es für den Stecker gefährlich wird. Alles bis zu einer 5080 verbraucht deutlich weniger und da braucht man sowas dann auch nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: latexdoll, Supie, Wintermute und 4 andere
Ich glaube nicht, dass nur Nvidia am Stecker schuld ist. Der Standard wird nicht allein von Nvidia entschieden, da sitzen viele im Boot.

Und das verstehen viele hier nicht! Ihr könnt doch mal Igor fragen, wer für den Stecker als Standard verantwortlich ist.
 
  • Gefällt mir
Reaktionen: Wintermute, LuxSkywalker, Alphanerd und eine weitere Person
Nvidia ist "Schuld" den Stecker tatsächlich einzusetzen (Referenzdesign) und Schuld am Boarddesign (Referenzdesign - weglassen der Kontrollen)
 
  • Gefällt mir
Reaktionen: Supie und CPUinside
Maine schrieb:
die legen eben auch Spezifikationen für den Stromstecker fest
Ich gehe davon aus das Nvidia den Standard letztendlich bei der PCI SIG durchgedrückt hat, da sie ein großes Interesse an einen kleinen Stecker hatten. Deswegen haben sie den neuen Stecker Standard dann anschließend auch sofort genutzt und es den Boardpartnern untersagt was anderes zu nutzen.
 
  • Gefällt mir
Reaktionen: qiller und CPUinside
Fraggil schrieb:
Erlaubt sind 7,5 A, gemessen wurden bis zu 10,69A.
Das wird einfach einfach falsch gesteckt sein und somit ein Anwenderfehler. Oder clickbait. Oder Panikmache.

Der Stecker ist zu 100% sicher!

/s
 
  • Gefällt mir
Reaktionen: Wintermute und Sk3ptizist
Mal ein ganz anderer Aspekt. Muss das alles so grenzwertig entwickelt werden? Ich meine, mehr FPS und Auflösung nur noch Dank noch höherer Stromaufnahme, die dann halt auch solche Probleme mit sich bringt.
 
llax schrieb:
Ich verstehe nicht ganz, wo das Problem liegt. Mein NT, ist glaube ich aus 2017 und hat 2 einzelne Adern.
Jede, 6+2.
Nvidia bringt viel später 12er Anschluss und kassiert Kritik von allen Seiten.

Anderseits, habe ich hier oft gelesen, man solle sein NT spätestens alle 5~7 Jahre erneuern, um keinen Schaden an seiner neu gekauften HW, die das alte NT mehr benasprucht, zu riskieren.

Wie alt müssen denn bitte betroffene NTs sein, wenn sie keine passende Anschlusse bieten, die schon mein 8 Jahre altes hat?

Oder verstehe ich da was falsch?
nicht kabel und ader/leitung verwechseln, grober fehler.
schau mal das video von buildzoid ein paar posts weiter oben, sehr lehrreich und...frustrierend.
der stecker an sich ist nicht das problem sondern nur wie er beschaltet wird, das haben nv und pci-sig fahrlässig vermurkst. aber hey, vllt kriegen sie ja noch korrigierte implementationsanforderungen mit ner v3 hin, mehr ist nicht nötig.

karten vor rtx40 haben nicht alle phasen zusammengelegt sondern auf die verfügbaren leitungen verteilt (wenn auch unnötig umständlich) - LEITUNGEN, ob im gleichen stecker oder nicht spielt dabei keine rolle.
wenn der gesamte strom vor den steckern gebündelt wird kann man auch bei 2x8pin einzelne leitungen verkokeln...und was anderes hat nvidia hier nicht gemacht.

nvidia hat sich von dieser semipassiven sicherheit verabschiedet und praktisch verboten es besser zu machen weil...noch ein paar cent billigerer bierdeckel mit möglichst wenig drauf.




Kabel gesamt 600W /12V /6 = 8,33A je Leitung
7,5A ist nicht die spezi, darunter tut das ding einfach noch nichts weil es noch weit genug innerhalb der spez ist.



für die die hier schreiben der stecker sei perfekt und nur der dumme user schuld...versichert ihr damit gratis gegen folgeschäden und kosten? dürften auch gerne zur fachgerechten montage / absegnung des korrekten sitzes der kabel & stecker vorbeikommen.
weil genau dafür sind standards für den endnutzer da.
oder sind das nur fanboys/aktionäre?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Supie und imperialvicar
Warum die EU hier nicht einschreitet ist mir ein Rätsel
Selbst Traktorsitze werden geregelt
Und USB-C für Apple
Aber ein ordentlicher Stromanschluss wird nicht vorgeschrieben
Unverständlich
Könnte die Redaktion bitte eine Umfrage starten und dann im Sinne aller ein Schreiben an die EU senden bitte
Danke
 
Zurück
Oben