News „Phantomlink“: Sapphire übernimmt Asus' kabelloses Stecksystem für Nitro+

MalWiederIch schrieb:
Weltweit ist nur ein einziger 12V-2x6 (ungleich 12VHWPR) geschmolzen und da waren Drittanbieter-Adapter im Spiel

Ganz bestimmt. Vielen Dank für den Hinweis. Das Konzept des Steckers ist eine Totgeburt. Fakt.

So lange es geht, werde ich den Schrott meiden.

Die Hemmschwelle der Käufer ist leider viel zu niedrig, deswegen wird unter anderem auch so ein Müll weiterhin existieren.

Danke an der Stelle.

Einfach 2 dickere Leitungen + Sense Pins oder zur Abwechslung mal eine Steigerung der Spannung.

Ich hab es! Sitz gerade auf'm Klo, vielleicht daher der grandiose Einfall:

Stecker verstecken - gute Idee!
600-1000W übers Board jagen - dämlich
(aber gut, der Stecker ist auch dämlich, hat ja schon mal funktioniert)

Eine Stütze für die Graka mit integrierter Stromzufuhr! Natürlich nur 1x Strom & 1x Masse + Sense Pins und gut.

Es gibt viele sinnvolle Konzepte.
Auch schon lang bessere Stecker.

Aber wie es eben immer so ist, jeder macht seinen eigenen Quatsch. Dafür sind wir nicht reif genug. Einfach mal aus Fehlern lernen, zugeben und zusammen arbeiten wäre "zu einfach".

Wo bleibt da der Stolz?!
 
  • Gefällt mir
Reaktionen: Tepesch und Sebbi
Ich halte das System zwar für unnötig, weil für mich sichtbare, aber gut verlegte Kabel zu einem auf Optik getrimmten Build dazu gehören, gerade mit Custom-Sleeves machen Kabel durchaus auch was her im Rechner. Jedenfalls, wenn ich selbst mal wieder solch einen Build anstrebe.
Aktuell bin ich eher im Lager unscheinbar, dunkel und leise Unterwegs, ohne Einblick ins Gehäuse, auch da ist diese neue Stromversorgung unwichtig.
Es gibt aber durchaus einen Kundenkreis dafür, von daher ist es doch toll, mehr Auswahl als nur ASUS zu haben. Zumal Sapphire regelmäßig wirklich gute AMD GPU Custommodelle geliefert hat. Denen traue ich auch gute Mainboards zu.
 
xexex schrieb:
Hat man noch nie, sondern nur einzelne Anschlüsse.
Nö, ist Faktisch falsch. Bei der 3090ti Founders Edition wurden sehr wohl die Pins überwacht und Lastenausgleich durchgeführt. Dort wurden jeweils alle zwei Adern zu einem vom 12VHPWR zusammengeführt auf GPU-Seite.

xexex schrieb:
Zwei völlig unterschiedliche Dinge!
Wo sind das zwei Unterschiedliche Dinge? Der 12VHPWR ist nur ein Problem, weil irgendwo der Übergangswiderstand zu groß ist und die einzeln Adern nicht überwacht sind. Das wiederum führt dazu, dass über einzelne Adern deutlich über Spezifikation an Stromstärke gezogen werden kann, wodurch die Kabel gekokelt haben. Übergangswiderstände sind das eine, aber das unwichtigere, aber einen Lastenausgleich hätte geschmolzene Stecker verhindert, egal wie hoch der Übergangswiderstand ist/war. Worst Case wäre gewesen, dass du nur halt nicht deine 600W bekommst, sondern nur 450W, weil die Spezifikation von den Adern ausgereizt ist.

xexex schrieb:
So kann die ASUS Astral zwar einzelne Leitungen messen, um steuern zu können müsste jede einzelne Leitung auf unterschiedliche VRMs aufgeteilt werden. Es gibt keine einzige Karte auf den Markt die es so machen würde, hier bitte nicht auf irgendwelche sensationsgeilen Nachrichten reinfallen.
Die Asus Astral kann zwar die Leitungen messen, aber kann die nicht steuern. Außerdem halte ich nicht viel von der Lösung, die Asus gemacht hat, weil was wenn sich ein Technisch komplett ungebildeter so ne Karte holt. Denkt du, der weiß was anzufangen ist mit Ampere und was die Spezifikation von AWG18 ist? Denke nicht.
 
Da es ja viele Hersteller gibt, die die Lasten nicht regeln, wäre vielleicht die Möglichkeit ne Sperre auf dem MB zu realisieren 🤔 Ohne überlast auf bestimmte Phasen, keine Schmorrstecker? Zumindest so meine Idee! Wenn es NV nicht auf der GPU hin bekommt, vielleicht bekommen es die MB Hersteller hin, wenn es schon heißt, das die NT Hersteller es nicht können 🤷😎
 
HOCLN2 schrieb:
Wo sind das zwei Unterschiedliche Dinge?
Es sind zwei völlig unterschiedliche Dinge weil messen (Shunts) und Aufteilung einzelner Leitungen auf einzelne VRMs inklusive Load Balancing, durch verschiedene Logikschaltungen und mit unterschiedlichen Aufwand realisiert werden müssten.

HOCLN2 schrieb:
Nö, ist Faktisch falsch. Bei der 3090ti Founders Edition wurden sehr wohl die Pins überwacht und Lastenausgleich durchgeführt. Dort wurden jeweils alle zwei Adern zu einem vom 12VHPWR zusammengeführt auf GPU-Seite.
HOCLN2 schrieb:
aber man überwacht die einzelnen Adern nicht mehr,
Hat man auch dort nicht, sondern nahm einen damals "üblichen" Dreikanalcontroller teilte die Leitungen in drei Segmente und machte darüber einen Lastausgleich. Ein Load Balancing über einzelne Leitungen gab es noch bei keiner Karte und ist prinzipiell völlig überflüssig.

Wegen weltweit einem Fall der breit getreten wurde, möchtest du gerne für jede Karte mehr bezahlen? Ich nicht. Alternativ kannst du dir ja die Astral kaufen, dort werden ja einzelne Leitungen überwacht und dann zusammengeführt.
Ergänzung ()

HOCLN2 schrieb:
was die Spezifikation von AWG18 ist?
Es ist übrigens AWG16 und wie du schon richtig sagst, als Endkunde braucht man sich darüber keine Gedanken mehr zu machen. Alle 12V-2x6 Kabel müssen 1zu1 und in AWG16 ausgelegt sein, ganz im Gegenteil zu dem früheren Mist, von man von Y-Adaptern, bis zu AWG 20 Kabeln schon alles gesehen hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HOCLN2
xexex schrieb:
Alle 12V-2x6 Kabel müssen 1zu1 und in AWG16 ausgelegt sein,

:lol: und du denkst das sich die Billighersteller daran halten und sich der Endanwender keine gedanken machen muss? Entschuldig, aber das ist Unsinn!

JA es ist so vorgesehen, JA die großen Qualitätshersteller werden sich daran halten.

Aber NEIN, die Kunden werden nicht immer nur hochwertige Netzteile kaufen, die sich an die Standards halten, sondern auch mehr als oft Netzteile für 30, 40 oder 50 €. wo der Hersteller spart wo es nur geht. Auch wenn es zu Lasten der Sicherheit beim Kunden ist. Und 99,999 % aller Kunden werden nicht prüfen, ob die Kabel wirklich AWG 16 sind und die Grafikkarten selbst können das ja schon gar nicht.
 
Nicht schlecht das Weiße pure mit Anschlüssen hinten würd ich kaufen hat man vorne nicht mehr die Grafikkarten Kabel 🤣
 
Sebbi schrieb:
du denkst das sich die Billighersteller daran halten und sich der Endanwender keine gedanken machen muss? Entschuldig, aber das ist Unsinn!
Vier Jahre ist der Standard alt, hast du jemals ein anderes Kabel gesichtet? Die Hersteller sind nicht ganz dumm, der Standard ist eng definiert und jede Abweichung davon führt schnell zu Problemen.

Sebbi schrieb:
Und 99,999 % aller Kunden werden nicht prüfen, ob die Kabel wirklich AWG 16 sind
Wer sich ATX3.1 auf das Netzteil klebt, ist bereits "geprüft". Vielleicht wird es Klitschen mit Plagiaten geben, die unzähligen Kabel von Molex auf 6-Pol oder irgendwelche dubiosen Y-Adapter, wird es so im 12V-2x6 Format aber nicht geben.

Schaue dich einfach selbst bei Amazon oder Aliexpress um, du wirst zugeworfen mit jeglichen 8-Pol und 6-Pol Mist, an 12V-2x6 Adaptern haben sich hingegen selbst große Firmen die Finger verbrannt. (teils sogar wortwörtlich)

Wenn du heute ein ATX3.1 Netzteil kaufst, selbst wenn der 12V-2x6 nur 300W liefern würde, liegt dort ein AWG16 Kabel bei, alles andere ist schlichtweg nicht erlaubt. Die früheren Freiheiten die Intel zugestanden hat, selbst je nach Leistung zwischen AWG16-20 nehmen zu können sind vorbei.
 
xexex schrieb:
Vier Jahre ist der Standard alt, hast du jemals ein anderes Kabel gesichtet?

andersrum gefragt: hast du je ein Billignetzteil für den ATX 3.X Standard und den 12V-2x6 Stecker ohne die 300 W Einschränkung gesehen bisher?

Diese 300 W Einschränkung kommt nicht von ungefähr ...
 
Sebbi schrieb:
andersrum gefragt: hast du je ein Billignetzteil für den ATX 3.X Standard und den 12V-2x6 Stecker ohne die 300 W Einschränkung gesehen bisher?
Was spielt das für eine Rolle? Selbst das aktuell billigste ATX3.1 Netzteil, das DeepCool PL-D mit 500W Gesamtleistung für 50€, wird mit einem AWG16 12V-2x6 Kabel ausgeliefert. Es gibt einfach keine anderen!
Ergänzung ()

Sebbi schrieb:
Diese 300 W Einschränkung kommt nicht von ungefähr ...
Richtig! Laut Intel Empfehlung, die leider keine Vorgabe ist, sollten erst Netzteile ab 1200W Gesamtleistung eine 600W fähige 12V-2x6 Buchse mitbringen. Auf das mitgelieferte Kabel hat es keine Auswirkungen, das liefert (fast) immer 600W, die Schaltung bezüglich der zugelassenen Maximalleistung sollte am Netzteil erfolgen.

Es gibt jedoch tatsächlich Kabel wo die Sense PINs gebrückt sind, die Spezifikation für 150W und 300W wurde ja leider erst später nachgereicht, das Kabel selbst ist jedoch immer aus AWG16 Litzen gebaut. Wenn du was anderes finden solltest, gerne her damit und viel Erfolg beim Suchen.
 
Zuletzt bearbeitet:
xexex schrieb:
Wenn du heute ein ATX3.1 Netzteil kaufst, selbst wenn der 12V-2x6 nur 300W liefern würde, liegt dort ein AWG16 Kabel bei, alles andere ist schlichtweg nicht erlaubt. Die früheren Freiheiten die Intel zugestanden hat, selbst je nach Leistung zwischen AWG16-20 nehmen zu können sind vorbei.
schön, dass mutmaßlich alle AWG16 Leitungen verwenden. Das ist schon einmal gut, löst das eigentliche Problem aber nicht. Das Problem sind unterschiedliche Übergangswiderstände der stromführenden Leitungen. Da kannst du ein 1.000€ Kabel verwenden, was auf die drölfzigste Nachkommastelle die identischen Widerstände zwischen Ader und Stecker hat. Im Moment des Anschließens an Netzteil und Grafikkarte und verlegen im Gehäuse spielt jeder Lotto. Insbesondere, wenn das Netzteil schon ein paar Jahre eingebaut war und dieser Anschluss nicht benutzt war, entsprechend die Pins Fremdschichten (Staub) angesetzt haben und Biegeradien ins Spiel kommen. Ab dem Moment haben die stromführenden Verbindungen zwischen Netzteilkondensator und GPU-Verbraucher unterschiedliche Widerstände, das ohmsche Gesetz in Verbindung mit der Parallelschaltung von Widerständen regelt den Rest. Eine Gleichverteilung der Stromlast ist pures Glück und nicht die Regel, eine Teilüberlastung statistisch die Konsequenz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HOCLN2, Sebbi und Ja_Ge
EKD schrieb:
Man stelle sich vor, das Dingens geht nach 6 Wochen hops. Das Geld ist dann mal eben weg.
Garantie ≠ Gewährleistung! Wenn dir das "Dingens" nach sechs Wochen kaputt geht, muss es der Händler tauschen. Pech wenn sowas wie bei MF passiert und richtig darauf zu achten, aber wie du behauptest läuft es halt normalerweise nicht ab.
 
Hätte wohl eher 6 Monate statt 6 Wochen schreiben sollen. 2 Jahre ges. Gewährleistung, aber nach 6 Monaten kommt die Beweislastumkehr und wenn die GPU bzw. das Mainboard dann Tschüss sagt, was willst du machen? Mindestens 2 Jahre Garantie sollte man bei teureren Anschaffungen schon haben und mittlerweile achte ich da auch verstärkt drauf, vor allem jetzt wegen der aktuellen Situation mit den ASRock Mainboards und den Gigabyte GPUs.

Momentan habe ich das Gefühl, dass sich die Hersteller mehr als sonst in die Nesseln legen und gravierende Fehler in Ihren Produkten haben.
 
EKD schrieb:
Man stelle sich vor, das Dingens geht nach 6 Wochen hops. Das Geld ist dann mal eben weg.

Dann gehst du zum Händer, wo du das Produkt gekauft hast .... außerdem:

https://www.sapphiretech.com/de-de/cs_consumer

Grundsätzlich gelten für alle SAPPHIRE-Produkte zuerst die gesetzlichen Gewährleistungsansprüche. Bitte wenden Sie sich für RMA oder Gewährleistungsfragen daher an Ihren Händler bzw. den ursprünglichen Kaufort. Dieser benötigt im Normalfall einen Kaufnachweis (Originalrechnung oder entsprechende Unterlagen).

Wenn dieser in der Zwischenzeit zu gemacht hat, wickelt SAPPHIRE idR. die RMA auch selbst ab. Die sind da normalerweise entspannt dabei.

Hab auch mal kostenfrei für meine 290x tri-x OC kostenfrei neue Lüfter bekommen, weil einer von den 3 Lüftern einen Lagerschaden nach 3 Jahren (!) erlitten hat.
 
Zuletzt bearbeitet:
EKD schrieb:
aber nach 6 Monaten kommt die Beweislastumkehr
Auch das ist nicht richtig, es sind mittlerweile 12 Monate. Bedeutet aber noch immer nicht, du würdest deshalb vom Händler alleine stehen gelassen werden. Hat Amazon jedenfalls noch nie gestört, ein Handy selbst nach 20 Monaten noch in der vollen Summe gut zu schreiben und umgekehrt wird dir nicht jeder Hersteller gleich problemlos zu Nullkosten einen Garantietausch gewähren.

Halten wir mal fest, nach zwei Jahren stehst du bei Herstellern ohne eine zusätzliche Garantie blank, innerhalb der zwei Jahre (in Deutschland) hast du es praktisch selbst in der Hand (richtiger Händler), egal ob der Hersteller selbst was anbietet oder nicht.
 
Zuletzt bearbeitet:
@Sebbi
Sapphire gewährt nur Großhändlern eine eingeschränkte Garantie. Und wer dafür genau qualifiziert ist und wie eingeschränkt die Garantie ist... alles unbekannt. Im Zweifelsfalle weiß man nicht, woran man ist. Da ist man wirklich von Kulanz abhängig, wenns denn schiefläuft.

@xexex
Das musste ich grad mal nachlesen, anscheinend wurde das am 01.01.2022 geändert. Einige Webseiten sind echt nicht mehr auf dem neuesten Stand (und mein Wissen anscheinend auch nicht mehr). Mit einem Jahr könnte ich unter Umständen auch noch leben. Heißt, selbst wenn sich Sapphire danach querstellt weil die Beweislastumkehr greift und der Händler evtl. keine Garantie vom Hersteller hat, so minimiert sich das Risiko dann doch erheblich.
 
sikarr schrieb:
AMD bedint nicht mehr das HighEnd Segement nicht weil sie die Wattschlacht nicht mitmachen wollen, sonder weil sie es performancetechnisch nicht können.
Eine RT 7900 XTX kommt nicht an die Effizienz einer 4090 ran, sie fällt auch oft sogar unter eine 3080ti was die Effizienz angeht.
Du hast vollkommen am Inhalt meiner Kritik vorbeiargumentiert und tust es noch immer. Es geht um den Gesamtverbrauch. AMD hätte sehr wohl noch mehr Strom auf das aktuelle Problem werfen können und hätte natürlich die ineffizientere Karte produziert. Ändert halt nichts dran, dass 750 Watt peak und der dreifache Verbrauch für "nur" die doppelte Leistung ineffizienter Unsinn ist. Ganz egal wie oft du da Dektop Kartentests zitierst, ne 5090 mobile wäre in der Ansicht ganz oben. Und du bist auf die Darlegung meiner Besipiele was die Entwicklung des Verbrauchs zwischen 590 und 1080Ti angeht gar nicht eingegangen. Ne Verdreifachung der maximalen Leistungsaufnahme in dem Rahmen in so kurzer Zeit ist einfach absurd. Du argumentierst nicht sachlich, sondern betreibst Cherry Picking bei der Auswahl worauf genau Du antwortest. In meinen Augen bist Du halt n simpler Troll und ich hab keinen Bock mehr mit Dir zu diskutieren, wenn du auf nichts eingehst, was relevant ist, sondern nur widersprichst um des Widersprechens Willen.
 
  • Gefällt mir
Reaktionen: Sebbi
xexex schrieb:
Die früheren Freiheiten die Intel zugestanden hat, selbst je nach Leistung zwischen AWG16-20 nehmen zu können sind vorbei.
Doofe Frage, da ich nicht viel mit Elektrik zu tun habe, aber ist es nicht sogar wünschenswert und immer besser, wenn ein Hersteller statt AWG16 lieber AWG20 oder sogar noch höher nimmt (klar irgendwie muss das Kabel auch noch in den Stecker passen)? Warum ist das nicht erlaubt, wenn die Spezifikation von 600W beim 12V-2x6 bleibt, aber AWG20 verbaut wird? Größere Übergangswiderstände kann es dann ja nur noch an den Pins geben geben zur GPU und Netzteil...
 
Zurück
Oben