News Aorus RTX 4090 Gaming Box: Nvidias Flaggschiff kommt ins eGPU-Gehäuse von Gigabyte

FX-Multimedia schrieb:
Du, wie viele andere macht den Fehler, dass du nur an spielen denkst. Für professionelle Anwendungen zum Beispiel 3-D Rendering ist so eine Lösung Gold wert. Und da ist auch die Anbindung der PCIe Lanes nicht so wichtig.
na, ob die dann eine geforce haben und keine quadro... ;) mal abgesehen davon, dass das produkt klar als gaming produkt klassifiziert ist...
 
  • Gefällt mir
Reaktionen: CB-Andi und Mcr-King
[wege]mini schrieb:
Für entspannte 4500 Dollar im Einstig mit 4090^^

Geil ist das Teil aber schon, muss man sagen.

https://wccftech.com/tuned-nvidia-g...-rtx-3090-ti-desktop-card-in-3dmark-time-spy/
Du hast vollkommen Recht. Ich dachte mir nur wenn die Lösung schon 2000,00-2500,00€ kostet dann noch 2000,00€ für ein Notebook mit entsprechender Leistung dann kann man gleich das ganze in einem nehmen und keine Probleme wegen der mangelnden Bandbreite haben.

Mir ist auch klar, dass eine 4090 Laptop nicht vergleichbar mit einer Desktop ist. Aber die Dinger haben trotzdem schon eine echt gute Leistung laut der ersten Testberichte........

Was ich bisher vom Razer 16 gesehen habe hat mich schon beeindruckt. Natürlich ist es preislich weit über dem was ich maximal bezahlen würde.
 
  • Gefällt mir
Reaktionen: [wege]mini
CB-Andi schrieb:
Natürlich ist es preislich weit über dem was ich maximal bezahlen würde.

Das ist das Problem.

Es gibt aber einen Markt und wer es kaufen möchte, "darf" es jederzeit kaufen. Es ist immer nur ein Angebot, was man macht.

Ist das Angebot (vor allem in finanzieller Hinsicht) schlecht, bleibt man darauf sitzen.

Wenn mein Kumpel mit seinem Raspberry ankommt und Games mit dem Pi über Streaming mit seiner Hardware zockt, die im Rechenzentrum in FF/M steht und die Leitung gut ist, schaue ich mit meinem Ryzen7 4800H und meiner RTX3060 auch immer neidisch, was bei ihm so geht.

Er vermietet Rechenleistung an Geschäftskunden und ein bisschen kann man immer abzweigen. :evillol:

Wenn wir bei anderen Kumpels sind und da liegt 16 Mbit von der Telekom an, weil noch nichts schnelleres geht, sieht es natürlich anders aus.

Natürlich kann man die Leistung auslagern. Es muss nicht im Endgerät stecken. :heilig:

mfg
 
[wege]mini schrieb:
Es gibt aber einen Markt und wer es kaufen möchte, "darf" es jederzeit kaufen. Es ist immer nur ein Angebot, was man macht.
Wenn du damit Geld verdienst und es jeden Tag benutzt finde ich 4500,00€ für einen Laptop keine schlimme Investition. Man kann es abschreiben es spart einem Zeit und generiert Umsatz. Sicher eine bessere Investition als der Audi A6, BMW 5er oder die E-Klasse als Firmenwagen (auch hier gibt es natürlich andere Meinungen und soll jetzt nur als plakatives überspitztes Beispiel dienen).

Aber bei dem externen TB4 Gehäuse ergibt sich für mich kein Sinn. Vielleicht geht es hier auch einfach darum das technisch machbare zu demonstrieren...... und etwas Aufmerksamkeit für die grundsätzliche Lösung zu generieren.

Wahrscheinlich werden mehr die Docking-Lösung mit schwächeren Grafikkarten nutzen.
 
  • Gefällt mir
Reaktionen: SSD960
Die Idee war ursprünglich mal interessant. Aber richtig Sinn hat das ganze ja noch nie gemacht. Die Leistung der GraKa verkümmert durch Flaschenhals und softwaremäßige Umsetzung extrem. Abgesehen davon gelangt man beim Gesamtkunstwerk in preisliche Regionen, die ein ernsthaftes Nachdenken über einen separaten Zocker-PC sinnvoll erscheinen lassen.
 
CB-Andi schrieb:
Sicher eine bessere Investition als der Audi A6, BMW 5er oder die E-Klasse als Firmenwagen

Ich wollte vor über 20 Jahren einen Polo. Durfte ich nicht haben, das wäre Rufschädigend, sagte mein Vater. Daher musste es ein BMW sein.

Ein TB4 Gehäuse ist ein BMW für große Kinder. Wer es haben will.... alles gut.

Natürlich ist es mit dieser Karte unvernünftig. Sind wir nicht aber alle ein bisschen Bluna?

mfg
 
  • Gefällt mir
Reaktionen: CB-Andi
Wenn dann gehört die Karte in den Rechner. Mich würde schon das zweite Gehäuse nerven. Aber wenigstens sollte in dem separaten Gehäuse der Stecker nicht anfangen zu schmoren... 😁
 
  • Gefällt mir
Reaktionen: CB-Andi
Wird die nicht eher für gpGPU/CUDA genutzt? Ist da Thunderbolt ein Problem? Zum spielen ist ja Thunderbolt schon bei einer 3080 das Limit.
 
Asus hatte doch mal eine eGPU mit einer Laptop GPU drin. Das Ding wurde über USB (eventuell kein TB?) UND PCIe angebunden. Und haben die RTX 3000 eGPUs nicht auch schon Probleme mit Bandbreite gehabt?
 
Flyerdommo schrieb:
Gibt es überhaupt eine gängige und halbwegs bezahlbare Schnittstelle, die in der Lage wäre, die RTX 4090 auch voll auszureizen?

Die gibt es tatsächlich und nennt sich PCIE!
 
  • Gefällt mir
Reaktionen: Pelzi, He4db4nger, BornBad und eine weitere Person
hab auch schon mit dem gedanken gepielt. cpu-power ist für mich in nem vernünftigen laptop auf jeden fall genug vorhanden.
aber wenn ne 3060 in egpu wirklich das vernünftige maximum ist, sollte man vielleicht eher auf einen laptop mit 4050m oder 4060m schielen.
 
Unti schrieb:
Das wäre als Limit echt zu wenig Dampf von der CPU, aber wenn man eine 8-16 Core CPU mit höherem Takt hat, ist man auch gleich bei >25W - eher bei 35-55W.
Wie gesagt in irgend einem Limit ist man immer.
TB3/4 ist hier natürlich fürn Arsch ganz klar. Erst mit USB 4 2.0 könnte ich mir vorstellen das man das ganze soweit bekommt und weniger als 5% Leistungsverlust hat zum Desktop. Das wäre dann der Punkt wo ich Persönlich umsteigen würde.

Aber eine 28Watt 8 kern CPU mit Sehr schnellem Ram ist dann fürs Gaming meistens total ausreichend. Klar ist dann eher die CPU der Flaschenhals aber in irgend ein Limit rennt man immer. Für mich sind 4 K Max setting und dann mit Free/Gsync 70-120 fps das optimum was ich gern hätte.

Dafür brauch ich keine 6GHZ 12 Kern CPU. Zumindest nicht in jedem Game :)
 
Sunjy Kamikaze schrieb:
Für mich sind 4 K Max setting und dann mit Free/Gsync 70-120 fps das optimum was ich gern hätte.

Dafür brauch ich keine 6GHZ 12 Kern CPU. Zumindest nicht in jedem Game :)
Das stimmt wohl - hab derzeit im Server nen Ryzen 5560U mit 25W und der rennt halt nur mit 3,9GHz Allcore bei 12 Threads.

Das ist halt auch grenzwertig, man wird def. AVG FPS einbüßen, sollte man in 4K dort versuchen >60 FPS zu kommen.
Laufen sollte es natürlich, aber so gut wie z.B. mein 13700K heute schon vom Threadload ausgelastet ist, ist klar in welche Richtung es geht.

Kommt auch immer auf das Spiel an, neue Titel werden hier ggf. stärkeren Impact haben, ältere Titel nicht, aber bei älteren Titeln stellt sich die Frage nach einer 4090^^
 
Bin ich voll bei dir.

Wenn ich aber sehe wie Effizient ein 5800X3D ist für die Leistung sehe ich da für die nächsten 2 Gens bis USB4 2.0 kommt ganz hoffnungsvoll in die Zukunft.

Könnte mir vorstellen das man dann im NOtebook mit 28-45 Watt wirklich Leistungsstarke CPUs bekommen kann. Ich wünsche es mir auf jedenfall.
 
  • Gefällt mir
Reaktionen: Unti
He4db4nger schrieb:
na, ob die dann eine geforce haben und keine quadro... ;) mal abgesehen davon, dass das produkt klar als gaming produkt klassifiziert ist...
Im Bereich von Rendering bringen quadro Karten, keinerlei Vorteile. (Vray, 3Ds Max, blender usw.) da sind die GeForce weitaus leistungsstärker
 
Flyerdommo schrieb:
Gibt es überhaupt eine gängige und halbwegs bezahlbare Schnittstelle, die in der Lage wäre, die RTX 4090 auch voll auszureizen?
Es gibt Laptops, die einen PCIe 3.0 x8 Anschluss haben. Asus hat hier eine proprietäre Lösung namens "ROG XG Mobile Interface", Alienware hatte etwas eigenes, MSI oder GigaByte glaube ich auch, aber das ist alles schon wieder vom Markt verschwunden.

Es gibt einen Molex Standard für einen PCIe x8 Anschluss (hauptsächlich im Serverbereich), sowie SFF-8611 alias OCuLink-2 - diesen habe ich bis jetzt erst auf 2 oder 3 Notebooks gesehen, einer davon war ein obskurer Chinalaptop. OCuLink-2 würde aber sogar PCIe 4.0 x8 unterstützen.
 
  • Gefällt mir
Reaktionen: Flyerdommo
kiffmet schrieb:
Asus hat hier eine proprietäre Lösung namens "ROG XG Mobile Interface
Da hab ich mich wirklcih darüber gefreut. Aber dann kommen sie mit mobile GPUs in einem Externen Gehäuse. Also wer sich den Mist ausgedacht hat gehört auch mit dieser eGPU verprügelt bis er seine Blasphemie einsieht.

Hätten sie wenigstens ihr normales eGPU gehäuse auch mit dem anschluss gebracht. Und schon wäre eine 4090 wieder super angebunden gewesen. Kein Plan warum die sowas nicht zu ende denken.
 
SaxnPaule schrieb:
Hab die Auros mit 1070 und die bringt quasi Desktop Leistung. Benches mit einer Oberklasse GPU würden mich echt interessieren. Ist vermutlich Perlen vor die Säue.


Jein. Wenn dir da 2m Kabel reichen dann ja. Ansonsten wirds nix, da es keine längeren Kabel gibt, die dir volle Bandbreite liefern.
Das stimmt nicht ganz,
regulär gibt es noch das TB Kabel von Apple (was ich als 3m Version habe) und welche von Corning per Glasfaser TB3 (5m, 10m etc).

Aber diese sind richtig schweine Teuer…
Da bin ich mit meinen 108€ noch günstig weggekommen im Verhältnis.
 
Wenn man mit cuda auf der Karte signal prozessierung rechnet. Z. B. Mrt oder CT Bild prozessierung tut einem die thunderbolt Bandbreite nicht weh, man profitiert aber schon von der Gpu Performance.
 
Kenzeisha schrieb:
Das stimmt nicht ganz,
regulär gibt es noch das TB Kabel von Apple (was ich als 3m Version habe) und welche von Corning per Glasfaser TB3 (5m, 10m etc).

Aber diese sind richtig schweine Teuer…
Da bin ich mit meinen 108€ noch günstig weggekommen im Verhältnis.
Okay, habe mich nicht präzise genug ausgedrückt. Ich bezog mich auf passive Kabel. Das 3m Kabel von Apple war mir bisher nicht bekannt. Hab für mein 2m Kabel 60 EUR bezahlt.
 
Zurück
Oben