News „Phantomlink“: Sapphire übernimmt Asus' kabelloses Stecksystem für Nitro+

kachiri schrieb:
Es gibt so viele Möglichkeiten ohne solch einen Anschluss auf dem Mainboard, dass Kabel sinnvoller zu legen.
Man hätte auch einfach ein Loch im Mainboard haben können an einer fest definierten Stelle und die GPUs dann ihre Buchse an dieser Stelle Richtung Board gehen lassen. Dann müsste man einfach nur den Stecker von hinten durch das Mainboard an die Karte führen und sie anschließend in den Slot stecken.
Die Verbindung wäre weiterhin direkt von Netzteil zu GPU, das Kabel müsste nicht geknickt werden und es wäre auch nicht zu sehen.

Bei den langen GPUs bräuchte es noch nicht mal das, man könnte den Anschluss einfach ab Erreichen der Länge eines ATX Boards nach hinten gehen lassen. Die meisten Gehäuse haben ja bereits genau da, wo ein ATX Board endet, senkrechte Kabeldurchführungen. Hier würde man das Kabel dann halt evtl etwas sehen.
 
  • Gefällt mir
Reaktionen: catch 22, RaptorTP, Alphanerd und eine weitere Person
xexex schrieb:
Es sind drei stromführende Leitungen und spätestens bei den gängigen Kabelpeitschen herrscht Parität. Seltsam, dass sich da niemand früher darüber beschwert hat.
Anhang anzeigen 1619056


Äpfel und Birnen

1747735942505.png
 
  • Gefällt mir
Reaktionen: RaptorTP
kachiri schrieb:
An alle, die glauben, dass man sich damit ein Kabel spart:
Es geht hier nicht um sparen, sondern darum alles bequem von der Rückseite verkabeln zu können und die Kabel dort entweder reinwerfen oder sauber verlegen zu können. Alle anderen Ansätze haben bisher noch mehr Fummelei benötigt, allen voran dein Beispiel mit der Sapphire Nitro. Wieso sollte ich Kabel vom Netzteil quer durch Gehäuse legen, wenn ich bequem mit möglichst kurzen Kabeln einfach alles auf der Rückseite anschließen kann?

Es erlaubt übrigens auch solche Sachen wie den offenen GPU Dock, oder PCs wie sie Cooler Master und ASUS vorgestellt haben.
1747735989306.png

1747736089259.png


Potente Notebook-CPU + dicke Grafikkarte, zumindest in der Gaming Welt hängt heutzutage fast alles von der GPU ab und sie ist bei weitem die Komponenten mit dem höchsten Strombedarf und höchster Wärmeabgabe.
 
Zuletzt bearbeitet:
lolekdeluxe schrieb:
Wie schwachsinnig, jetzt haben wir drei bis vier 5 Stellen wo Übergangs widerstand sich aufbauen kann.

Netzteil - Kabel
Kabel - Adapter 12VHPWR
Adapter 12VHPWR - Mainboard
Mainboard - GC-HPWR Eingang
GC-HPWR Ausgang - PCB GPU
ich habe das mal korrigiert
 
Je mehr random Uebergangswiderstaende in Serie geschalten werden, desto eher gleichen sich die jeweiligen Gesamtwiderstaende einem statistischen Mittel an, und desto gleichmaessiger fliesst Strom. :freak:
 
  • Gefällt mir
Reaktionen: Ja_Ge
sikarr schrieb:
Blödsinn, du vergleichst eine Midrange GPU mit einer HighEnd GPU, wenn dann nimm auch was passendes. und nicht 5090 gegen 9070xt, ist klar das die kleinere Karte weniger Strom zieht.
Erstmal der offensichtlich irritierendste Punkt: In dem Text den Du zitierst, steht wörtlich drin, dass AMD das High-End-Segment nicht bedient. Mag sein, dass das bei Dir warum auch immer nicht angekommen ist, aber das war kein Vergleich, sondern die Aussage, dass diese Wattschlacht nicht mitzugehen und sich gezielt auf Mid-Range zu fokussieren in meinen Augen ein guter Schritt ist. Die RX 9070 habe ich in dem Fall gewählt, weil die das Top-Modell der aktuellen Generation von AMD darstellt. Da muss man sich schon Mühe geben, das nicht verstehen zu wollen.

sikarr schrieb:
Das machen die seit dem ersten Tag und wenn wir immer noch wie vor 30 Jahren Leistungsniveaus hätten könnte heute hier keiner jammern das 12GB Vram zu wenig sind oder er keine 240FPS für seinen VRR Monitor in 4K hat.
Bullshit. Faktisch ist die Stromzufuhr zwar in den letzten 30 Jahren insgesamt gestiegen, allerdings ist die maximale Aufnahme ab der GTX 590 bis zur GTX 1080 Ti sogar nach unten gegangen. Und jetz sag mir mal, dass die 1080 Ti langsamer war als die 590. Erst danach ging die große Wattschlacht los und innerhalb von 3 Generationen hat sich die Leistungsaufnahme mehr als verdoppelt, beim Peak sogar teilweise verdreifacht.

Das nächste mal bitte kurz vorher die Fakten googlen und nicht ins Blaue schießen.
 
Der Wiedereinstieg in den Mainboard Markt ist interessant.

Der Rest, wen es interessiert okay. An ein großflächiges Durchsetzen dieser Standards bezweifele ich persönlich. Bis auf die Optik fehlt mir auch ein zusätzlicher Pluspunkt mit dafür zu interessieren.
 
1776 schrieb:
Je mehr random Uebergangswiderstaende in Serie geschalten werden, desto eher gleichen sich die jeweiligen Gesamtwiderstaende einem statistischen Mittel an, und desto gleichmaessiger fliesst Strom. :freak:
Du meinst Minus mal Minus ergibt Plus? Aber je größer der Gesamtwiderstand unterwegs ist, desto größer die Wahrscheinlichkeit eines schmelzenden Steckers am Netzteil.
Die beste Lösung auf seiten des Mainboards wäre meines erachtens übrigens eine einzige dicke Kupferschiene zwischen den Steckern. Dann gibts zumindest schonmal keine Teilüberlastung auf der Platine mehr.
MalWiederIch schrieb:
Weltweit ist nur ein einziger 12V-2x6 (ungleich 12VHWPR) geschmolzen und da waren Drittanbieter-Adapter im Spiel - warum spielst du nicht gleich Lotto? :p
Dafür, dass es angeblich nur einen einzigen Fall geben soll, findet google erstaunlich viele verschiedene Bilder. Sogar eine RTX5070 ist dabei.
 
Man kann auch sowas nutzen:
https://geizhals.de/?cat=gehpskab&xf=19272_EZDIY-FAB~19273_Winkeladapter
180° Winkeladapter verwenden und dann die Kabel hinten über die Backplate lang legen Richtung Board.

Wenn das Mainboard liegend verbaut ist gehen die Kabel bei den meisten Grafikkarten fast gerade am Rand vom Mainboard vorbei und verschwinden dann irgendwo im Gehäuse. Optimalerweise nutzt man nen Mikro-ATX Board.

Und wenn das Gehäuse die Möglichkeit bietet die Grafikkarte vertikal einzubauen dann sieht man mit so Adaptern auch nix von den Kabeln.

Hab mir dieses Jahr das Gehäuse geholt:
https://geizhals.de/chieftec-chieftronic-m2-gm-02b-op-a2646495.html
Da verschwindet das GPU Strom Kabel zwischen CPU Kühler und Grafikkarte und dann nach unten in nem Loch des Mainboardtrays.

Oder aber alternativ könnten die GPU Hersteller die Stromanschlüsse bei den Grafikkarten unten hinten anbringen.

GPU Strom.jpg

Oder so:
GPUAD2.jpg
 
Zuletzt bearbeitet:
Cool endlich mal Radeon Karten mit dem Stecker. Mal sehen welche AM5/6 Boards und Karten in 1-2 Jahren diesen Anschluss bieten werden. Ich hoffe das es dazu einen Standard geben wird. Und nicht jeder Hersteller da sein eigenen Stecker bringt.
 
Das Sapphire wieder Boards macht / machen möchte, finde ich eine gute Sache.
Die Pulse und Pure Boards machen einen guten ersten Eindruck.
(Schade das man nicht näher ran zoomen kann bei den Bildern)

Das propritäre Asus BTF Zeug darf gerne dahin gehen wo der Pfeffer wächst.
 
Prinzipiell begrüße ich diesen Schritt sehr was Asus da entwickelt hat.
Negativ könnte aber durchaus sein das man sich bestimmt an Asus Mainboards bindet.

Ein offener Allgemeiner Standard wäre da wohl mehr zu begrüßen. Aber vielleicht resultiert das ja aus dieser Entwicklung :)
 
Eric.Koehn schrieb:
Mag sein, dass das bei Dir warum auch immer nicht angekommen ist, aber das war kein Vergleich, sondern die Aussage, dass diese Wattschlacht nicht mitzugehen und sich gezielt auf Mid-Range zu fokussieren in meinen Augen ein guter Schritt ist. Die RX 9070 habe ich in dem Fall gewählt, weil die das Top-Modell der aktuellen Generation von AMD darstellt.
AMD bedint nicht mehr das HighEnd Segement nicht weil sie die Wattschlacht nicht mitmachen wollen, sonder weil sie es performancetechnisch nicht können.
Eine RT 7900 XTX kommt nicht an die Effizienz einer 4090 ran, sie fällt auch oft sogar unter eine 3080ti was die Effizienz angeht.
1747748724229.png

Effizienz ist nicht Stromverbrauch! Und man kann 30Jahre alte GPUs nicht direkt miteinander vergleichen
Eric.Koehn schrieb:
Doch, der Stromverbrauch geht hoch aber die Karten werden Effizenter. So skalieren die Hersteller halt nach oben, anders wären Sprünge von 100, 150 oder 200% über die Generationen gar nicht Möglich gewesen. Und die Spieler wollten es ja auch, schau Dir doch das gejammer an wenn ein Spiel mit UE5 kommt und die FPS einbrechen was hier los ist.
Eric.Koehn schrieb:
Erst danach ging die große Wattschlacht los und innerhalb von 3 Generationen hat sich die Leistungsaufnahme mehr als verdoppelt, beim Peak sogar teilweise verdreifacht.
Ich habe jetzt schon ein paar Jahrezehnte Grafikkarten im Einsatz, was ich beobachten konnte waren massive Leistungssteigerungen, immer größer werdende Kühlkörper und ein höherer Stromverbrauch.
Oder wie war das mit Voodoo Volts? Ein externes 50W Netzteil weil es über den AGP/PCI Slot nicht mehr ausreichend war.
Eric.Koehn schrieb:
Das nächste mal bitte kurz vorher die Fakten googlen und nicht ins Blaue schießen.
Das geb ich gerne zurück!
 
Zuletzt bearbeitet:
Begu schrieb:
Keine Sorge. Ich hab mehr als ausrechend E-Technik Background, um das Problem ohne Hilfe von Influencern verstehen zu können.
Mein Vater hat Elektrotechnik studiert und als ich dem mal den Stecker gezeigt habe bzw. die Spezifikationen, hat er mich angeschaut und gefragt, welcher Depp sich das ausgedacht hat.
Als ich dann meinte, dass es da schon zu Problemen gekommen ist, war seine Antwort nur "War zu erwarten. Das ist keine optimale Lösung."
Vorallem die Tatsache, dass die Kabel (auch beim 8pin) geknickt werden können sind problematisch. Anwederfehler kommen dann noch dazu. Besser wäre es, wenn die Anschlüsse wo anders auf dem PCB wären. Wo man sie nicht biegen muss. Also so wie @D0m1n4t0r es in seinem Post zeigt. Da würde man weniger knicken.

Mal kucken was mein Vater von der Idee hält das über das Mainboard zu regeln. Mir stellt sich aber die Frage ob das nicht auch zu Audioproblemen führt, wenn man die AUX Anschlüsse verwendet.
 
  • Gefällt mir
Reaktionen: Begu
flaphoschi schrieb:
Erinnert sich noch wer?
Mit AGP haben wir 25 Watt bekommen. Und dann hat man das mit PCI-Express auf - aus damaliger Sicht extrem hohe - 75 Watt erhöht. D
Ja, aber auch die ATi Radeon X1950 AGP hat schon 100W gesoffen mit 6-Pin Anschluss.
 
  • Gefällt mir
Reaktionen: sikarr
RaptorTP schrieb:
Der Stecker ist das Problem :)

Auf der Graka hieß es immer: der Stecker muss kompakt sein (was quatsch ist, wenn man sich die Monster an Grakas anschaut (ja klar, PCB ist kurz und der Kühler ist nur so groß.

Jetzt packen wir den Stecker aufs Board statt was größeres zu nehmen.

Klar dient das der Optik und dem Kabelmanagement, aber - und so realistisch muss ich an dieser Stelle sein -das eigentliche Problem mti dem Stecker wird hier nicht behoben.

Besser noch! Jetzt sind die Grafikkartenhersteller raus wenn was schmort!
xD

Kann sehr sehr gut sein, das viel nachziehen um den Stecker loszuwerden! xD
Welch traurige Entwicklung.

GPU Hersteller "offiziell" wir wollen kompaktere Builds, keine Kabel und bessere Optik
GPU Hersteller "inoffiziell" seht zu dass wir diesen Drecksstecker von der Graka runterkriegen, egal wie!

Ooops, nicht weit genug gedacht. Gibt ja genug Hersteller die beides machen.
Ist er nicht... Der Stecker selber kann die Menge von 600W und sogar mehr liefern, aber man überwacht die einzelnen Adern nicht mehr, wo dann natürlich mehr Stromstärke über ein Kabel gezogen werden kann. Wenn Sapphire das gescheit gemacht hat und den Input und Output über das Mainboard kontrolliert, haben wir hier wieder ein funktionierenden 12VHPWR (wie bei RTX 3000).
Klar ist der Sicherheitsfaktor deutlich geringer im Vergleich zum 8-Pin, aber das keine Überwachung stattfindet, egal wie groß der Sicherheitsfaktor ist, ist einfach Wahnsinn...
 
  • Gefällt mir
Reaktionen: Raptor85 und Begu
HOCLN2 schrieb:
aber man überwacht die einzelnen Adern nicht mehr,
Hat man noch nie, sondern nur einzelne Anschlüsse.

HOCLN2 schrieb:
wo dann natürlich mehr Stromstärke über ein Kabel gezogen werden kann.
Zwei völlig unterschiedliche Dinge! So kann die ASUS Astral zwar einzelne Leitungen messen, um steuern zu können müsste jede einzelne Leitung auf unterschiedliche VRMs aufgeteilt werden. Es gibt keine einzige Karte auf den Markt die es so machen würde, hier bitte nicht auf irgendwelche sensationsgeilen Nachrichten reinfallen.

Auch hier die Anmerkung, früher hat man darüber die Stromaufnahme über den PCIe Stecker geregelt, die heutigen Karten verzichten meist darauf ganz, die Leistungsversorgung darüber abzuwickeln.
 
Zurück
Oben