Wieso existiert kein Markt für mobile Hardware? (insb. Grafikkarten)

TarabasVH

Newbie
Registriert
Apr. 2016
Beiträge
6
Hi Leute,

ich bin neu hier und habe mich registriert, weil mich eine Frage seit einiger Zeit umtreibt.
Wieso gibt es keinen Markt für mobile Hardware? Es ist ja quasi unmöglich neue mobile Grafikkarten oder andere
Hardware für Laptops zu bekommen.
Im Bereich der mobilen Grafikkarten gibt es doch den MXM Standart. Sollte es damit nicht relativ simpel sein, seine Notebookgrafikkarte zu tauschen? Auch wenn es mehrere MXM Schnittstellen gibt, kann man sich ja vor dem Kauf informieren, welche Grafikkarte in den eigenen Laptop passt. Oder sind die Bios auf den Notebooks so eigen, dass sie quasi nie die neuen Grafikkarten erkennen?
Angenommen ein Händler würde alle Hardwarekomponenten für einen Laptop anbieten (Mainboard, Grafikkarte, Arbeitsspeicher etc.), wäre es dann theoretisch möglich sich seinen eigenen Laptop zu bauen? Im Desktop-Bereich ist das ja gängig.
Ich hoffe ihr könnt mir meine Fragen beantworten.

LG
 
Es ist von der Industrie nicht gewollt. Is doch besser wenn sich der Kunde einen neuen Laptop kaufen muss, anstatt ein Teil auszutauschen und dann läuft die Mühle wieder.

Zudem sehe ich da ehrlich gesagt keinen wirklichen Markt für. Es nutzen schon wenige den Laptop als Gamingstation und noch weniger werden daran Teile tauschen das ganze wäre ein Nischenprodukt.
 
Warum die Hardware von den bekannten Standards abweicht, weiß ich nicht, Fakt ist aber das Grafikkarten teilweise fest auf dem Board verlötet sind.
Als Beispiel meine bisherigen Notebooks:

MSI EX623 - MXM Karte, hier gibt es aber auch Karten die vom Hersteller mit eigenem BIOS versehen sind und nicht in anderen Modellen laufen
MSI GE60 - verlötete Karte, kein Austausch möglich


Zudem sind die Kühllösungen in Ihrer Leistung begrenzt, und durch eigene Aufbauvariationen nicht so einfach durch After Market Kühler zu ersetzen.
 
Nun, es gibt auch Thunderbolt Grafikkarten und welche über den PCIe Slot. Diese eGPU Lösungen haben sich bisher nicht durchgesetzt und sind sehr teuer.

Problem ist, daß ein Laptop ein abgeschlossenes System und für Akkubetrieb vorgesehen ist. Da passen leistungsfähige Grafikkarten nicht ins Profil. Erst recht nicht, wenn sie eingebaut sind. Die Kühllösungen wären viel zu groß und sind chipabhängig.
 
IBM hätte damals auch gerne den Markt komplett zu gehalten, klappte aber nicht. :-)
 
Nee, IBM hat genau das nicht getan.

IBM hat die Spezifikationen offengelegt, damit der PC nachgebaut werden konnte und hat von Anfang an Fremdhardware zugelassen.

Das war der Grundstein zum Erfolg gegenüber den Mitbewerbern.
 
Dem ganzen kommt auch noch hinzu, dass der erwartete Markt für mobile Grafikkarten sehr klein und komplex ist.

Die Anzahl an Gaming-Notebooks ist im Vergleich zu Gaming-PCs sehr gering, des Weiteren trauen sich deutlich weniger Leute zu, eine MXM-Grafikkarte in Notebooks auszutauschen (also das Notebook aufzuschrauben) als eine normale Grafikkarte, und daher würden es auch nur die Hardware-Affinen Gamer tun.
Außerdem ist die Lebensdauer eines Notebooks deutlich geringer: Bis die Grafikkarte auszutauschen ist, geht ziemlich oft was anderes kaputt, wodurch dann wiederum eh ein neues Notebook angeschafft werden muss.
Und der letzte Punkt ist das Thema Kühlung, da gibt es einfach viel zu wenig Puffer und Optimierungsmöglichkeiten, im Grunde wäre der Grafikkarten-Tausch im Notebook in den meisten Fällen ein Glücksspiel. Wenn du nicht gerade eine deutlich sparsamere Karte einbaust, kannst du nie absolut sicher sein, ob auch die Kühlung mitmacht. Da würde ja jede zweite Karte wieder zurück zum Händler gehen. Und wie soll ein Hersteller da Garantie geben, die Chance ist bedeutend größer, dass solche Karten zu schlecht gekühlt werden und früher das zeitliche Segnen (im Garantiezeitraum).
 
Die Leute wollen immer schlankere Geräte und das geht nur, wenn man alles direkt auflötet und mit festen Grafikkarten verbaut.
Zudem verkaufen Hersteller natürlich auch gerne neue Geräte.

Ansonsten gibt es durchaus Hersteller, die dir ein Notebook halbwegs nach Wunsch bauen, z. B. Nexoc, Wortmann, Bullman und auch Dell.
Als Beispiel für High-End: http://config.nexoc.de/G736

Du kommst aber nicht ohne weiteres an die Barebones und auch nur schwer z. B. an die Grafikkarten.
Zudem müsstest du dir wirklich Gedanken um die Kühlung der Abwärme machen.

Du kannst dir momentan ja auch kein Smartphone mit der Hardware deiner Wahl zusammenstellen...
Die wenigsten hätten wohl auch Lust darauf.

Bei einem solchen Eingriff dürfte die Garantie auch hinüber sein.

Der Markt ist klein, es gibt aber durchaus Möglichkeiten, sich ein Notebook selbst zusammenzustellen.
 
die module sind sooo scheiß teuer, dass ein upgrade da nicht sinn macht.. ohne stückzahlen unklukrativ, daher nur nischenmarkt -> teuer
dazu kommen unterschiedliche kühlsysteme, etc.

zum glück ist mit thunderbolt 3.0 endlich genügend bandbreite vorhanden, externe grafikkarten "günstig" anschließen zu können.

(bandbreite ungefähr pci-e 3.0 x4 <- erstmal ausreichend) womit nur noch eine schnelle cpu in einem notebook vorhanden sein muss.
 
Obwohl ein Intel Core i7 oder i5 (Quad) im Notebook schon ne ganze Weile durchhält. Mit DX12 wird das nochmals länger...
Wie gern hätte ich für mein altes Pavillon noch eine externe Grafikkarte :( Der 5 Jahre alte Prozessor ist absolut ausreichend, RAM hat er auch genug, aber mit der Grafikkarte kannst kaum noch etwas anfangen...
 
Ich denke da spielen viele Faktoren eine Rolle.

Hauptgrund dürfte sein, dass die Hersteller lieber komplette Geräte verkaufen als Einzelteile auf den Markt zu werfen.
Der nächste Grund ist in meinen Augen die nur bedingte Kompatibilität bei MXM Modulen. Denn die Form ist zwar bestimmt, allerdings nicht die Anbindung an die CPU (es gibt Notebooks/Hersteller die binden MXM nur 8x an weil das MXM Modul nur 8x braucht das sie verbauen) und die Kühlung. So gibt es MXM Module mit 45W aber auch mit 65W etc... Die Kühlungen sind jedoch immer auf den ursprünglichen Wert fixiert worden. Wer also heute ein 45W MXM hat darf morgen auch nur ein anderes 45W einbauen. Innerhalb der selben Leistungsklasse liegen die Leistungssteigerungen jedoch oft nur bei ~10%. Da ist das Modul am Ende zu teuer als das einer es umbaut.

Wenn es zudem eine real große Nachfrage an MXM Modulen gäbe, wäre längst ein Markt da. Wir PC Geeks machen vom Markt nicht viel aus. Man überlege nur mal wie viele der 80mio. Menschen in DE sich intensiv mit PCs beschäftigen. Das sind eine Reihe von Leuten die es beruflich machen und die Hobby Geeks. Die machen insgesamt bei den 80mio. aber kaum Masse aus.

Ich beobachte in meinem Umfeld zudem das die "normalen" PC User nie Interesse am Umrüsten haben. Die brauchen einen PC den sie hinstellen der 5-6 Jahre läuft. Der Rest ist diesen oft sehr egal. Auch beobachte ich in der Altersklasse 40+ selbst bei IT Menschen (beruflich) das sie sagen, ein Tablet reicht. Damit kann man auf dem Sofa beim TV schauen im Internet surfen. Mehr brauchen die oft nicht mehr.
Videospiele oder andere Anwendungen entfallen bei den meisten. Mein alter Herr nutzt zu 80% sein Tablet und zu 20% einen kleinen HP PC mit dem er Fotos entwickelt und ab und zu MS Flightsimulator spielt.

In meiner eigenen Generation haben zwar auch viele Notebooks aber von denen macht sich vermutlich höchstens 1% Gedanken ums Aufrüsten. Videospiele werden meist auf Konsolen konsumiert.


Wenn man sich das alles vor Augen hält, kann man den Umsatz solcher MXM Module grob erahnen. Die dürften kaum nennenswerte Absatzzahlen erreichen.
 
es gibt Hersteller bei denen kannste das gut tauschen, z.B. Alienware/Clevo Barebones oder so. bei anderen wie Asus sind die nicht tauschbar, weil die kein Interesse haben das Leute dann ihre GPU aufrüsten. bei eBay kannste aber durchaus auch GPUs kaufen, für mein Alienware hab ich einen aus England bestellt. kannste dann auch ein anderes Bios flashen. gebrauchte sind auch ab und zu bei eBay, aber naja man kauft halt die Katze im Sack

Meist kannste eh nur 1 generation upgraden und das lohnt sich dann auch nicht wirklich
 
Zuletzt bearbeitet:
miac schrieb:
Das war der Grundstein zum Erfolg gegenüber den Mitbewerbern.

Man kann sich natürlich dezent darüber streiten, welcher Erfolg hier gemeint ist.
Zumindest Apple gibt es in diesem Markt noch.
IBM nicht mehr ;)
 
Also ich hatte vor Jahren die graka aus meinem Laptop gewechselt. Dies war eine 8600m GT. Da genau dieser Chip gerne kaputt gegangen ist habe ich ihn gegen eine ATI getauscht.
Die graka kam aber aus China und musste diese sogar beim Zoll abholen aber 50€ sind viel günstiger als ein komplett neuer Laptop.
 
Laptops so zu bauen dass die Komponenten zugänglich und austauschbar sind ist schwierig und damit teuer.

Ausserdem benötigen zugängliche und austauschbare Komponenten mehr Platz, das Gerät wird größer.

Der Großteil der Nachfrage geht aber in die andere Richtung. Laptops sollen günstig und klein sein - nicht groß und teuer.

Selbst wenn jede Grafikkarte austauschbar wäre, nur ein kleiner Teil der Nutzer würde dies überhaupt benötigen und noch weniger würden es machen. Diese kleine Nachfrage erhöht die Kosten weiter.

Dazu kommt (oder kam?) der allgemeine technische Fortschritt analog zum Desktop. In einen 5 Jahre alten Rechner muss man keine neue Graka einbauen, weil dann die CPU bremst. und ne neue CPU braucht ein neues Mobo. Und ein neues Netzteil wäre auch nicht verkehrt. Also kann man sich gleich einen neuen PC kaufen.

Die Zahl der Reklamationen/Reparaturen an jungen (<2 Jahre) Laptops aufgrund einer defekten Grafikkarte dürfte keine signifikante Rolle spielen um herstellerseitig dahingehend aktiv zu werden.

Kurzum, es gibt keinen Markt, weil es keinen Markt gibt.
 
hamju63 schrieb:
Zumindest Apple gibt es in diesem Markt noch.
IBM nicht mehr ;)


Das stimmt. IBM hat sich damit aus dem Hardwaremarkt für PCs selbst gedrängt.
Aber wo wären wir heute, wenn IBM und Microsoft den Markt nicht geöffnet hätten.
Überteuerte Hardware vermutlich ohne große Innovationen. Und Prozesse von Apple gegen jeden Nachbau oder unzertifizierte Hardware.

Übrigens: Apple gibt es nur noch, weil Microsoft die 1997 gerettet hat.
 
miac schrieb:
Nee, IBM hat genau das nicht getan.

IBM hat die Spezifikationen offengelegt, damit der PC nachgebaut werden konnte und hat von Anfang an Fremdhardware zugelassen.

Das war der Grundstein zum Erfolg gegenüber den Mitbewerbern.

ja genau, deswegen konnte man in die IBM Thinkpads ja nichtmal wlan module einbauen ohne sich custom bios mods aufspielen zu müssen.
Da schraubt man dann schon ne stunde an dem gerät rum, nur um dann festzustellen das es mit der eingebauten karte gar nicht erst hochfährt, weil die karte nunmal nicht auf der whitelist von ibm steht.
 
Gibt/gab es nicht nur bei IBM.

Und, wie gesagt, Notebooks sind mehr abgeschlossene Systeme. Da kann man nun mal nicht beliebig tauschen. Gilt ja auch für die CPU.
 
Necareor schrieb:
Wie gern hätte ich für mein altes Pavillon noch eine externe Grafikkarte :( Der 5 Jahre alte Prozessor ist absolut ausreichend, RAM hat er auch genug, aber mit der Grafikkarte kannst kaum noch etwas anfangen...
Und was genau hindert dich daran? Mindestens eine mPCIe-Schnittstelle oder sogar ExpressCard wird doch dein Gerät noch zur Verfügung haben bzw. du baust das WLAN-Modul aus und hängst darüber dann eine eGPU an das Notebook. Der Adapter kostet dich je nach Hersteller und Modell zwischen 60-90€.

Unsereins hat doch sowieso fast immer ein Netzteil, ungenutzte Desktop-Grafikkarte und einen Monitor rumstehen. Das hält die Folgekosten klein. Dafür, dass man ca. 80-87% (abhängig von der Software) an Leistung der Desktop-Grafikkarte erhält, sind die Kosten vergleichsweise niedrig. Die einen nehmen sich dann noch ein gebrauchtes mITX-Gehäuse mit Dual-PCI-Slot und packen dort einfach GPU und Netzteil rein, fertig. Andere bauen sich aus Holz, Acrylglas oder Metall ihr eigenes, ungleich kleineres Gehäuse.

Wirklich "teuer" ist es erst dann, wenn man sich das Ziel einer eGPU setzt und quasi erst einmal alles beschaffen muss.
 
Zuletzt bearbeitet:
Zurück
Oben