News Razer Blade Stealth & Core: UHD-Ultrabook und externes Thunderbolt-GPU-Gehäuse

Wie ist das bei Razer heute so? Bei mir haben sie es vor Jahren versaut, ich habe kein einziges Produkt mehr von Razer gekauft, da die Ware einfach Schrott war damals.
 
Endlich endlich eine eGPU mit Thunderbolt 3 Anschluss! Auf solch ein Case warte ich schon seit Monaten.
Ich bin gespannt wie der Preis dafür aussehen wird. Razor wird bestimmt leider Mondpreise für das Case verlangen aber vielleicht ziehen andere Hersteller mit günstigeren Alternativen nach.

Für mobiles Gaming wäre für mich endlich ein Traum war geworden. Im Zug in ruhe ein paar Filme ansehen. Im Hotel abends ein paar schöne Titel im Multiplayer spielen.
 
ist der leistungsverlust einer egpu immernoch so hoch oder ist es mittlerweile so dass es wie einer desktoplösung gleich kommt?
 
Sehr schwach, das selbst bei der IGP minimum keine Iris (Pro) ist:rolleyes:

Da kann man sich gleich ein Macbook inkl. Dedizierte Gpu per Thunderbolt kaufen
 
Zuletzt bearbeitet:
Das Razer Core klingt echt interessant, hoffentlich erhält es auch OSX unterstützung.
Bin vorallem auf den Preis des Cores gespannt.
 
Das einzige was interessant sein könnte, ist das externe GPU Case.

UHD auf 12,5" - jap brauch ich unbedingt...............:freak:
 
peter343 schrieb:
ist der leistungsverlust einer egpu immernoch so hoch oder ist es mittlerweile so dass es wie einer desktoplösung gleich kommt?

Das würde mich auch mal interessieren, nicht dass ich eine Verwendung für dedizierte GPUs in einem seperaten Gehäuse hätte, aber ich kann es mir irgendwie nicht vorstellen dass die GPU über USB auch nur ansatzweise ihr theoretisches Leistungspotential nutzen kann...
 
Das ist keine GPU über USB, sondern über Thunderbolt 3. Nur der Stecker ist gleich. Vorher richtig informieren bzw. lesen, es steht ja auch im Titel.

Leistungsverluste belaufen sich schon mit Thunderbolt 2 nur noch auf grob 10% und das ist nur eine PCIe 2.0 x4 Verbindung. Thunderbolt 3 gibt PCIe 3.0 x4 bzw. PCIe 2.0 x8 bzw. PCIe 1.1 x16 her. Da ist dann praktisch kein Verlust mehr feststellbar.

Ich habe eine eGPU seit etwas über einem Jahr am Laufen und habe alle aktuellen Spiele problemlos auf hohem bis ultra Details gezockt ;)
 
DonDonat schrieb:
[..] aber ich kann es mir irgendwie nicht vorstellen dass die GPU über USB auch nur ansatzweise ihr theoretisches Leistungspotential nutzen kann...

USB 3.1 (sonst klingt das beim ersten lesen wie USB 2.0)

Theoretisch: Geschwindigkeit bis 40 GBit/s

Die Praxis würde mich aber auch mal interessieren.
 
Ich bin mal auf den Preis des Core gespannt! Es gibt ja schon div. Möglichkeiten die auch sehr gut klappen, auch unter OS X, das Problem daran ist aber der Apple Zuschlag des Zubehörs. Wenn ich den Preis richtg im Kopf habe liegt so ein Gehäuse ohne NT bei rund 900 € und bietet glaube ich auch nur PCIe 8x.
 
Sofern es ein Limit gibt, dann kommt die Bremse durch die ungleiche Verpaarung von Skylage U-CPU mit einer starken Desktop-GPU. Razer arbeitet so gut es geht gegen eine thermische Drosselung und lässt die Notebooks vergleichsweise heiß laufen, trotzdem kann ein 15 Watt Core i7 in Verbindung mit einer Titan X beispielsweise an seine Grenzen kommen. Die Hälfte vom Die wird von der IGP eingenommen, so dass bei deren Nicht-Nutzung vielleicht mehr thermisches Budget für den Dualcore besteht. Die Thunderbolt-Schnittstelle stellt keinen Engpass dar.

Welche Karten man am besten in das Core packt und wie hoch die Leistung ausfällt, wollen wir natürlich sobald es geht testen! Ich hoffe, es ist nur eine Treiberfrage und mit dem neuen MacBook könnte man auch eine eGPU nutzen. Spannend!
 
Zuckerwatte schrieb:
USB 3.1 (sonst klingt das beim ersten lesen wie USB 2.0)

Nix USB. Thunderbolt! Nur der Stecker ist der gleiche, weil er mehrere Protokolle unterstützt, darunter eben bspw. USB 3.1 und Thunderbolt 3, aber auch Displayport, soweit ich weiß.

@Cool Master: 250€ kostet das günstigste Gehäuse, wo man sich entweder eine kürzere Karte(20,5cm max.) suchen muss oder man biegt das Gehäuse auf oder man entnimmt die Platine und tut sie anderswo hinein(hatte ich vor der GTX 970 gemacht, in ein ITX Cube Gehäuse).
Die Teile für 800-900€ sind dann quasi sorgenfreie und bastelfreie Geräte, da passen von der Länge her alle Karten rein und ein Netzteil ist auch dabei. Mehrere Slots haben die dann auch noch.
 
Zuletzt bearbeitet:
Wie mich der Pixelwahn aufregt... Gerade bei Notebooks unter 15 Zoll und Handys ist mit Full HD das Auflösungsvermögen ausgereizt, zumindest aus praktikablen Sichtabständen. Aber nein, statt sich auf die Verbesserung anderer Eigenschaften der Bilddarstellung, wie Farbraum, Ausleuchtung, Kontrast, Blickwinkel etc. zu konzentrieren, steht an erster Stelle die Auflösung.

Und Schuld ist zu großen Teilen auch der durchschnittliche, "dumme" Endverbraucher, der mit einem Mehr an Auflösung automatisch ein Mehr an Qualität verbindet. Dass gerade bei mobilen Geräten die Akkulaufzeit teilweise massiv leidet, wissen und beachten nur die wenigsten. Selbst in den "Fachzeitschrift" und Tests sehe ich so gut wie nie (!), dass ein UHD oder sonstwie zu hochauflösendes Display Konsequent als Negativ-Punkt bewertet wird. Fast so als wären auch die Testquellen blind auf den Marketingzug aufgesprungen.
 
Das hört sich ja schon mal gut an, jetzt bitte noch eine 14 Zoll Version mit Quad-Core (ohne dedizierte GPU bitte!), damit die Desktop Karten auch ein CPU Gegenstück auf Augenhöhe haben. Einen Monitor-Eingang sollte das GPU-Gehäuse eigentlich auch haben... dann ist es gleichzeitig Docking Station für das Notebook...

Aber endlich tut sich mal was bei der "eGPU über TB3" Geschichte!
 
Zuletzt bearbeitet:
DaysShadow schrieb:
Leistungsverluste belaufen sich schon mit Thunderbolt 2 nur noch auf grob 10% und das ist nur eine PCIe 2.0 x4 Verbindung. Thunderbolt 3 gibt PCIe 3.0 x4 bzw. PCIe 2.0 x8 bzw. PCIe 1.1 x16 her. Da ist dann praktisch kein Verlust mehr feststellbar.

Ich habe eine eGPU seit etwas über einem Jahr am Laufen und habe alle aktuellen Spiele problemlos auf hohem bis ultra Details gezockt ;)

diese 10% oder etwas mehr haben mich bis jetzt daran gehindert
der pci 2.0 anschluss ist nicht der limitierende faktor
dieser sorgt für deutlich weniger leistungsverlust als 10%

aber wäre ja wirklich schön wenn es sich mit thunderbolt 3 ändern würde dann bräuchte ich keinen desktop rechner mehr
 
@Loro Husk klingt ziemlich als seist du ein Gamerkiddie das noch ne produktiv am PC gearbeitet hat. Pixelwahn, wenn ich sowas schön höre. Ich bekomme Augenkrebs wenn ich die 100~150 ppi normaler 1080p/WHQD Monitore sehen muss. Den ganzen Tag Texte am Monitor lesen und feinste Konturen und Linien in CAD-Zeichnungen sind auf dauer sehr unangenehm. Da lobe ich mir die 500 ppi von meinem Handy bei dem die Schrift perfekt dargestellt werden und auch feinste Elemente gestochen scharf sind. Wenn es bezahlbar wäre, würde ich zum arbeiten direkt auf nen 8k 27" Monitor umsteigen, vll 2x 8k 24". Ein Traum nur daran zu denken wie stark meine Augen entlastet werden bei 8-9-10h Pc auf der Arbeit und 3-4h Privat (TV/PC)
 
peter343 schrieb:
diese 10% oder etwas mehr haben mich bis jetzt daran gehindert
der pci 2.0 anschluss ist nicht der limitierende faktor

Natürlich ist der der limitierende Faktor. Der Thunderbolt 2 Anschluss entspricht elektrisch eben nicht 16 Lanes PCIe 2.0, sondern nur derer 4. Deswegen entspricht Thunderbolt 2 PCIe 2.0 x4.
Abgesehen davon sind 10% auch nicht die Welt. Wer allerdings nicht basteln wollte und einfach was fertiges funktionierendes gesucht hat, wäre eh nicht glücklich geworden. Habe genug Leute gesehen in einem anderen Forum die sich den Kram gekauft und haben und beim ersten Anzeichen, dass es nicht funktioniert so wie sie es machen, gleich "losgeheult" haben.
 
Nukular... Grundgedanke Ultrabook ist wohl die Platzersparnis, das kompakte Design. Und deshalb stell ich mir für den nochmaligen Preis dann eine eGPU, Tastatur sowie Maus und großflächiges Mauspad hin... :freak: und ab morgen geh ich mit dem Vogelbauer Milch holen.
 
Zurück
Oben