News Aqua Computer Ampinel: 12V-2×6-Schutz ab 16:00 Uhr für 100 Euro erhältlich

Neodar schrieb:
Es ist eine absolute Erbärmlichkeit, dass bei einer 2500€+ Karte so eine Zusatzhardware nötig ist, damit der überteuerte Scheissdreck nicht evtl. abfackelt!
Das sehe ich auch so (und bin schon immer dieser Meinung)! Aber in der aktuellen Lage ist es ein kleiner Aufpreis.
 
feris schrieb:
Und wer sitzt in der PCI Sig federführend?
Na ja

As of 2024, the board of directors of the PCI-SIG has representatives from: AMD, ARM, Dell EMC, IBM, Intel, Synopsys, Keysight, NVIDIA, and Qualcomm. The chairman and president of the PCI-SIG is Al Yanes, a "Distinguished Engineer" from IBM. The executive director of the PCI-SIG is Reen Presnell, president of VTM Group (an association management company).
Über 800 Unternehmen sind Teil der PCI-SIG...

Neodar schrieb:
Es ist eine absolute Erbärmlichkeit, dass bei einer 2500€+ Karte so eine Zusatzhardware nötig ist, damit der überteuerte Scheissdreck nicht evtl. abfackelt!
Das Ding ist in etwa so nötig wie eine Zusatzversicherung für das Smartphone. "Nice to Have" um die eigene Paranoia zu beruhigen. Aber man weiß, das man gerade wahrscheinlich Geld für nichts ausgibt :P
 
Sehe ich das richtig, dass das Teil keinen Lüfter benötigt? Das wäre für mich ein absolutes Kaufargument für dieses Teil gegenüber dem WireView, sind doch gerade die kleinen Lüfter besonders nervig.
 
  • Gefällt mir
Reaktionen: Blackvoodoo
kachiri schrieb:
Über 800 Unternehmen sind Teil der PCI-SIG...
Und doch hat Nvidia 2022 den 12v-2x6 als Ersatz für den 12vhpwr eingeführt und Nvidia könnte 50% der aufgezählten Unternehmen aus der Portokasse aufkaufen!
Wenn Nvidia wollte, was sie nicht wollen, könnten sie es durchsetzen.
 
  • Gefällt mir
Reaktionen: SirKhan und feris
Und was ist der 12V-2x6? Ein optimierter 12VHPWR. Immer noch derselbe Stecker. Und den hat NV auch nciht alleine eingeführt. NV kann man hier maximal vorwerfen, dass sie den Stecker konsequent in den Markt drücken.
Und ich sehe auch den Stecker weniger kritisch, als viel mehr die aufgeblasene Leistungsaufnahme moderner Grafikkarten.
 
  • Gefällt mir
Reaktionen: honky-tonk
Syrato schrieb:
Ich glaube kaum, dass dieser Markt atm so lukrativ ist.
Gerade jetzt ist der Markt attraktiv. Bei den momentanen Preisen werden wohl einige ihre Investition besser im Auge behalten wollen.
 
  • Gefällt mir
Reaktionen: Return2Burn
Ltcrusher schrieb:
Aber...jetzt auf den Kaufpreis des Adapters bezogen, erinnert mich das ganze so ein bischen an die typischen Kunden, denen ein 20 Euro Schutzglas für ein Smartphone mit einem Wert von 1000 Euro oder mehr zu viel ist.
Brand vs. Spider Smartphone. Finde das Beispiel schon ein wenig falsch herangezogen. Dazu kommt das beim Smartphone man selbst der Verursacher ist beim Kabel ist man auf den Hersteller angewiesen.
 
Es ist traurig, dass man einen 12V-2×6-Schutz braucht.. Ich brauche für meine 2x 8Pin keinen Schutz.
 
Syrato schrieb:
Und doch hat Nvidia 2022 den 12v-2x6 als Ersatz für den 12vhpwr eingeführt und Nvidia könnte 50% der aufgezählten Unternehmen aus der Portokasse aufkaufen!
Wenn Nvidia wollte, was sie nicht wollen, könnten sie es durchsetzen.
Gut gemeinter Tipp, den ich auch beherzigen muss.
Schreibe in dein Notizbuch: Nvidia gut, es waren die bösen anderen. :lol:
Ergänzung ()

DocAimless schrieb:
Brand vs. Spider Smartphone. Finde das Beispiel schon ein wenig falsch herangezogen. Dazu kommt das beim Smartphone man selbst der Verursacher ist beim Kabel ist man auf den Hersteller angewiesen
Du hast recht. Wie viele Vergleiche hinkt dieser auch.
 
Wenn etwaige Probleme ausschließlich in Verbindung mit Dritthersteller-Kabeln bekannt sind, könnte man ja auch einfach den mitgelieferten(!) Adapter verwenden, der die Spezifikationen auch wirklich einhält?
 
mal so eine Frage an jene, die sich da auskennen... mit dem Load Balancing... ist es nicht eigentlich besser mit dem Gerät so früh wie möglich anzusetzen, also am Netzteil (noch "vor" dem Kabel), anstelle von erst unmittelbar an der GPU (und erst "nach" dem Kabel).
 
feris schrieb:
Müssten dann ja auch in der PCI Sig alles neu aufrollen, neues Kabel für neue Netzteile, neue ATX Spezifikation usw.
Wäre gar nicht nötig, ein etwas anderes Platinendesign würde reichen. Man könnte die Überlastung einzelner Adern verhindern, wenn die nicht alle direkt auf der Platine gebrückt würden, sondern einzeln auf die Spannungswandler geführt würden (bzw pro Ader die gleiche Anzahl Spannungswandler angeschlossen würde). Zumindest gilt das für den Weg in die Karte rein.

Das würde schon etwas helfen und wäre mit überschaubarem Mehraufwand im Platinendesign möglich. Der Weisheit letzter Schluss wäre auch das nicht, aber definitiv wäre es besser.
Ergänzung ()

catch 22 schrieb:
ist es nicht eigentlich besser mit dem Gerät so früh wie möglich anzusetzen
Spielt keine Rolle. Der Strom auf einer Ader ist über die volle Länge der gleiche, ob man die entsprechende Regelung an den Anfang oder an das Ende der Ader setzt ist völlig egal.
 
  • Gefällt mir
Reaktionen: LTCMike, scryed und catch 22
mtheis1987 schrieb:
@MichaW Der wird meine 5090 für ein paar weitere Jahre absichern. Da sind es mir die 100€ wert.

Außer Frage steht natürlich trotzdem, dass das Problem an der Quelle (NVIDIA) behoben werden sollte.
Gutes Kabel haben, den richtig einstecken und man braucht kein Adapter.
Man kann auch die Karte untervolten und mit dem geringeren Verbrauch sinkt auch die Chance das was passiert.
Nutze mein Corsair 2x8-Pin zu 12VHPWR-Kabel seit fast 3 Jahren mit einer 4090, 5080 und nun 5090, Bisher keine Probleme.
Aktuell läuft meine 5090 bei rund 350W oder weniger in Spielen.

mmdj schrieb:
Die 5080 betriffts wahrscheinlich extrem selten, die saugt bei absoluter spitze ca 400W, sonst ca 300W.
Mit UV kriegste die auf 250W ohne Leistungseinbußen.
Aber das Problem kann im Extremfall bereits ab 200W auftreten. Das ist allerdings bei 200W wie 6 Richtige im Lotto... nur das man DEN Gewinn nicht haben will.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Hab das WireView Pro II und das Teil macht was es soll. Die Software ist aber noch stark Beta und da muss das UI nochmal überarbeitet werden.
 
catch 22 schrieb:
mal so eine Frage an jene, die sich da auskennen... mit dem Load Balancing... ist es nicht eigentlich besser mit dem Gerät so früh wie möglich anzusetzen, also am Netzteil (noch "vor" dem Kabel), anstelle von erst unmittelbar an der GPU (und erst "nach" dem Kabel).
Macht im Grunde keinen Unterschied.
Heutige Netzteile sind Singlerail, heißt also der Strom kommt aus einer Quelle. Dann werden 6 Kabel an eine Quelle angeschlossen und laufen mit 6 Kabel wieder zu EINEM Abnehmer, also der GPU.
Load Balancing wäre wenn die Last auf jedem Kabel begrenzt ist, was aktuell bei keienr 12VHPWR Karte der Fall ist.
Es ist aber egal an welchem Ende sich das Loadbalancing befindet.

In der Vergangenheit war Loadbalancing so, das die GPU nicht eine Quelle als Abnehmer hatte, sondern 2-3.
Und jeder Abnehmer war auf eine bestimmte Menge begrenzt. Bei 450W z.b. konnte jede Quelle nur 150-200W ziehen. Und erst NACH der Begrenzung liefen sie auf der Platine zusammen.
Die letzte Nvidia Karte mit dem Prinzip war die 3090Ti, welche den 12VHPWR mit je 2 Kabel auf 3 Abnehmer aufsplittete. Da die 3090Ti mit 450W lief, waren das je 150W für 2 Kabel.
Karten mit 8-Pins haben normalerweise pro 8-Pin ein Abnehmer, also auch wieder max 150W.

SKu schrieb:
Hab das WireView Pro II und das Teil macht was es soll. Die Software ist aber noch stark Beta und da muss das UI nochmal überarbeitet werden.
Wireview misst und warnt, bzw kann den PC ausschalten, funktioniert also eher passiv.
Wenn das Wireview den PC auch nur einmal ausschaltet, musst du an deinen PC gehen und das Problem beheben.

Ampinel funktioniert aktiv. Wenn da mal eine Inbalance da ist, dann regelt das Ampinel und der PC läuft weiter.
Nur bei einer extremen Inbalance der Kabel muss man was machen, da auf Dauer zuviel Wärme auf den Ampinel einwirkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fahnder, NMA, LTCMike und 2 andere
theGucky schrieb:
Mit UV kriegste die auf 250W ohne Leistungseinbußen.
weshalb wird UV nicht von nvidia selber betrieben? so könnte man die karte ja besser vermarkten? ich meine über 50W ohne leistungseinbussen ist doch viel?
 
Sehr geil! Will aber noch mehr tests abwarten. Direkte integration in mein AquaComputer Ökosystem ist aber eine feine Sache. Die Sachen die ich bisher von denen benutzt habe funktionieren tadelos; OCTO, Splitty und FlowSensor.
 
Zurück
Oben