Leserartikel [eGPU] externe Grafikkarte für das Notebook

@Eisbrecher: nein leider noch nicht weiter... Hatte aber auch nicht mehr wirklich viel Zeit. Was bräuchtest du denn um mir eventuell bei dem DSDT-overwrite helfen zu können? Ich hab da halt echt immer 2 Errors die ich einfach nicht los werde... Mir ist allerdings noch aufgefallen das seitdem ich Win8 installiert habe das DIY setup etwas neues meldet. Steht leider nur wenige Millisekunden da daher kann ich die Meldung nur erahnen. Meine hieße ca.:Found 2 external Devices Diese müssen erst Initialisiert werden." Da bekomme ich egal ob die eGPU angeschlossen ist.

Gruß
gear1900
 
Ich habe es bei mir nun auch mal mit Windows 10 Prof. x64 probiert und komme zu ähnliches Ergebnis, wie bei techinferno berichtet wird. Installation läuft an sich ganz normal ab, aber wenn es dann bei mir mit Setup 1.x gebootet wird, hängt das System beim Ladescreen. Auch der 350.12 ändert daran nichts. Aber habe wenigstens somit auch feststellen können, dass die Treiberversorgung für Thinkpads immer noch ziemlich miserabel ist, d.h. SystemUpdate funktioniert nicht, man muss alles per Hand laden und Fingerprintreader, etc. sind gar nicht ansteuerbar.
Ergänzung ()

@gear1900: Wenn es immer die gleichen Compiling-Fehler sind, dann nenne uns, bei welchem Befehlen diese auftauchen und welche Fehlermeldung genau geschmissen wird. (am besten Screenshot)
 
Pc: Dell Inspirion 17R SE (7720)

CPU: i7-3630QM @ 2,40GHz

RAM: 8GB

iGPU: HD 4000

dGPU: GeForce GT 650M

eGPU: GeForce GTX 970 auf nem EXP GDC Beast v7.0 via Pcie

BS: Win8.1


Hallo zusammen,

bei mir läuft es jetzt!
Nach einigem Rumprobieren im Setup hab ich den Fehler/die richtige Einstellung gefunden -> musste halt auf Gen1 umstelle (was ich vorher zwar schon probiert hatte, allerdings leider falsch aktiviert hatte).

Meine Einstellungen im Setup:
startup.bat -> speedup (Häkchen setzen, was die Bootzeit um ca. 50% reduziert)
PCI compaction -> ignore -> [none] -> dGPU
PCI compaction -> compaction -> iGPU + eGPU
Video cards -> dGPU [off]

soweit alles wie in der FAQ beschrieben...

Folgende Einstellungen dann noch passend für mein System angepasst:

PCIe ports -> Gen1 -> Nvidia -> retrain -> Yes
PCIe ports -> Gen2 -> Realtek -> retrain -> Yes


Als Treiber für die eGpu verwende ich den 350.12, für die iGpu hab ich den aktuellsten Treiber drauf.

Falls mit jetzt noch irgendjemand sagen könnte, ob es eine Möglichkeit gibt, das Ganze auf Gen2 zum Laufen zu bekommen, wäre das echt gross! :freak:

Unten noch 2 Benchmarks... einmal Monitor am Laptop angeschlossen, einmal direkt an der Graka.

MfG
Plep
 

Anhänge

  • Benchmark Monitor an Laptop.jpg
    Benchmark Monitor an Laptop.jpg
    413,5 KB · Aufrufe: 606
  • Benchmark  Monitor an eGpu.jpg
    Benchmark Monitor an eGpu.jpg
    388,8 KB · Aufrufe: 619
Servus,

bin günstig an ein Dell Vostro 3560 gekommen und habe mein im Schrank rumstaubendes ViDock 4 Overdrive inkl. einer GTX 960 4GB per Expresscard angeschlossen.

Mit Setup 1.30 ließ sich auch alles einwandfrei konfigurieren, habe es wie von Eisbrecher99 vorgeschlagen durchgeführt:

PCI compaction -> ignore -> [none] -> dGPU
PC compaction -> compaction -> iGPU + eGPU
Video cards -> dGPU [off]
PCIe ports -> Gen2 -> Nvidia -> retrain -> no

In Windows wird die 960 einwandfrei erkannt. Jedoch sind die Leistungswerte im Vergleich zum Desktop:

Am PC:

3D Mark 960 PC.PNG

Am Laptop:

960 3D Mark.PNG

28% weniger als am PC. Ebenso verhält es sich in GTA V. Ob das Bild auf den an die direkt an die GTX 960 angeschlossenen Moni oder auf den Laptop-Moni ausgegeben wird ist unerheblich.

Wobei die Ausgabe auf den internen Moni doch nicht mehr so viel Leistung kostet wie früher, oder ? Ansonsten wirkt es auf mich so, als würde selbst bei angeschlossenem Monitor an der GTX 960 (per HDMI) das nicht richtig erkannt werden. Ist der Moni an der 960er angeschlossen, kann ich aber immer noch zwischen dem internen und externen Moni umschalten bzw. beide parallel nutzen (ist das normal ?).

image.jpg

Woran kann das liegen ? Den Benchmarks hier nach bewegt sich der Leistungsverlust üblicherweise nur im einstellgen Prozentbereich ... und an meinem alten Dell Latitude performte das Vidock mit einer GTX 670 auch normal.

Installiert sind der aktuellste Treiber für die Intel HD4000, die AMD 7670M und die GTX 960. Die 7670M wird per Setup 1.x korrekt abgeschaltet. Technische Daten sind: i7 3630QM, HD 7670M, 16GB DDR3-1600, 1920x1080 Auflösung, Win 7 Pro 64 Bit.

Danke für eure Hilfe. Falls noch Infos fehlen gebt mir bitte Bescheid.
 
Zuletzt bearbeitet:
Dieser Leistungsverlust ist durchaus normal. Am Verlust auf dem internen Display hat sich auch mit der Zeit nichts auf magische Weise geändert, das bessert sich nur durch mehr Bandbreite der Verbindung der eGPU.
Dass du beide Displays parallel nutzen kannst ist normal, wenn du Optimus nutzen kannst. Startest du das Spiel auf dem externen Monitor bzw. läuft es dort sollte es auch dort mit der eGPU laufen. Kannst höchstens auch mal mit dem Overlay vom MSI Afterburner schauen, ob die GTX 960 auch genutzt wird und nicht etwa versehentlich die iGPU.
 
Gut, dann weiß ich mit dem internen Moni Bescheid.
 
Zuletzt bearbeitet:
Ich kann mit dem 3DMark Ergebnis nichts anfangen, da ich immer den 3DMark11 verwende. Vielleicht machst du den nochmal. Ich hatte mit einer GTX 960 und x4 2.0 Verbindung ~8500 Punkte gegenüber ~10500 die als Referenz bei Futuremark angegeben sind. Wobei die sich noch sehr leicht per Speichertakterhöhung auf ~9200 Punkte schubsen ließ.

Ich weiß auch nicht wo du Tabellen liest in denen etwas anderes steht, als das was du gerade selbst erkennst. Die Benchmarks hier dürften auch nicht Verluste im einstelligen Bereich zeigen.

Eigentlich die einzig relevante Tabelle: http://forum.techinferno.com/diy-e-gpu-projects/6578-implementations-hub-tb-ec-mpcie.html

Nimmt man da bspw. die oberste GTX 980 Implementierung über x1 2.0:
http://www.3dmark.com/3dm11/9316157

Die Referenz:
http://www.futuremark.com/hardware/gpu/NVIDIA+GeForce+GTX+980/review

Macht 18740 zu 13964. Wichtig ist auf den Graphics Score zu achten, da die Laptop CPUs halt immer noch langsamer als die Desktop CPUs sind. Deswegen ist das Gesamtergebnis von der eGPU kleiner als der Graphics Score.

Macht 18740/100*13964 = 74,5%.

Der Verlust ist im groben immer in dem Bereich mit x1 2.0 Verbindung, ganz egal welche Karte du nimmst.
 
Pleb schrieb:
Folgende Einstellungen dann noch passend für mein System angepasst:

PCIe ports -> Gen1 -> Nvidia -> retrain -> Yes
PCIe ports -> Gen2 -> Realtek -> retrain -> Yes
Welche Relevanz hat denn bitte die Realtek hierbei? Aber vor allem: Hast du schon mal versucht, den EXP Adapter auf Gen2 zu zwingen? PCIe ports -> Gen2 -> Nvidia -> retrain -> No. Soweit ich glaube, muss man nach dem "retrain" die Compaction nämlich nochmals durchführen.

Gangolf schrieb:
28% weniger als am PC. Ebenso verhält es sich in GTA V: Im Vergleich zur GTX 680M (auf 953MHz Core übertaktet) aus meinem Clevo-Notebook schafft der eGPU Aufbau bei gleichen Settings nur noch unspielbare Ergebnisse. Ob das Bild auf den an die direkt an die GTX 960 angeschlossenen Moni oder auf den Laptop-Moni ausgegeben wird ist unerheblich.
Du musst auch noch darauf achten, dass die Variante deiner GTX960 ein gekürztes Custom-Desgin ist, d.h. die ist im Vergleich zur Standard-GTX960 normals im Takt von GPU und Speicher niedriger angesetzt.

Ich habe bei meiner GTX760 auch immer herumgerätselt, warum meine Benchmark-Ergebnisse immer schlechter als vergleichbare Werte waren, bis ich erkannt, dass der Takt von GPU und Speicher niedriger angesetzt war. Als ich mit Afterburner die Werte höhere setzte, hatte ich eben die gleiche Ergebnisse.
 
Zuletzt bearbeitet:
Eisbrecher99 schrieb:
Du musst auch noch darauf achten, dass die Variante deiner GTX960 ein gekürztes Custom-Desgin ist, d.h. die ist im Vergleich zur Standard-GTX960 normals im Takt von GPU und Speicher niedriger angesetzt.

Ist bei der GTX 960 nicht wirklich relevant. Die Karte kann man nur wirklich treten in dem man den Speichertakt erhöht und der ist bei so ziemlich allen GTX 960 von Haus aus mit 1750 MHz gleich. Der Kerntakt ist da eher uninteressant. Hatte ja selbst eine und habe es getestet.

Der Speichertakt lässt sich allerdings meistens problemlos um 300-400 MHz erhöhen und das wiederum schlägt sich sicht- und spürbar in den Werten und FPS nieder.
 
Hab mich jetzt nicht erkundigt, was die Daten der GTX960 genau sind. Bei mir hatte es 13% Mehrleistung gebracht.
 
Also ich habe das ganze jetzt nochmal mit dem 3D Mark 11 durchgeführt.

Auf dem Externen: Klick. Auf dem internen: Klick

Das würde zu deinen 8500 Pkt. passen, DaysShadow. Also läuft tatsächlich alles normal ... hatte mir nur wirklich mehr erhofft. Eine 970 fällt leider raus, da das ViDock max. 1x6Pin hat. Müsste mal schauen, ob ich das Zusatzkabel bestellen kann, ein Anschluss für ein weiteres 6 Pin Kabel ist da.

Also, ViDock wieder weg und weiter die 680M treten :) Mit der Verbreitung von USB-C dürfen wir ja endlich auf die Verbreitung von Thunderbolt auch in niedrigeren Preisregionen hoffen, für knapp 1000€ bekommt man schon ein Aspire Nitro mit 6300HQ Quad und Thunderbolt 3.

@Eisbrecher: Short PCB bei der 960 ist wurscht, die 970 ist ja im Referenzdesign auch kaum länger als der PCIe Steckplatz. Ist ne EVGA SC, die taktet sogar noch ein bisschen höher. Coretakt zu erhöhen bringt aber tatsächlich nichts, der Speicher verträgt aber +600MHz mehr.
 
Jo eben, meine GTX 970 ist gerade mal 18cm lang, taktet aber standardmäßig schon höher als viele der langen 0815 Karten. Meine GTX 960 war ebenso lang und auch von Haus aus übertaktet. Dank der Effizienz von Maxwell geht das in der Generation wohl um einiges einfacher.

Ich denke auch, dass man mit den zertifizierten Geräten, oder einfach generell den Thunderbolt 3 Geräten, dann auch mehr Spaß an der eGPU haben kann, da praktisch keine Beeinträchtigungen vorhanden sind abgesehen von der immer noch etwas verlorenen Leistung im Vergleich zum Desktop.
Sollte halt nur endlich mal in Fahrt kommen die ganze Geschichte.
 
wieivel leistungsverlust hat man den gegenüber PCIe x16?
 
Bei x4 2.0 (TB2) sind es noch rund 10%.
 
na dann sollte doch bei usb 3.1C bzw TB3 kein verlust mehr da sein
 
TB3 wird auch nur per PCIe x4 angebunden sein. Immerhin in Rev. 3.0.
 
Ja, da liegt man dann aber bei 96-99% von PCIe x16 2.0, daher ist der Verlust dann kaum mehr der Rede wert, da er, wenn überhaupt, nur noch sehr wenige FPS kostet.
 
Wo kann man sich denn realistische Preise für die eGPU, gerade die aktuellen Rev., anschauen? Danke
 
@Onatik:

Ich habe in der FAQ die Bezungsquellen zusammengetragen. Auf den jeweiligen Herstellerseiten findest du die Preise und Versand. In der Regel wird darauf (Warenwert + Versandkosten) nochmals 19% Einfuhrumsatzsteuer aufgeschlagen. Bei den Herstellern von eGPU-Adaptern mit ExpressCard, mPCIe oder M.2 wirst du keine großartigen Einsparungen machen können. Das ist fast alles im Direktvertrieb vom Hersteller.

Nur die eGPU-Syteme, d.h. über Thunderbolt haben größere Hersteller, deren Gehäuse dann schon bei diversen Großhändlern den Weg in verschiedene Shops finden. Da kann man dann Preisvergleichsportale wie geizhals.at bemühen. Die Unterschiede sind da aber auch marginal.
 
Zurück
Oben