News Absturz des PC-Marktes: Es wird noch schlimmer, bevor es besser wird

Ich bin froh, denn ich habe meine alte u.g. (durchgestrichene) Hardware teuer zu den derzeitigen Marktpreisen verkauft und jetzt warte ich einfach etwas und setze auf eine neue Plattform (AM5 mit R9 7950x und Grafikkarte, Modell noch offen).
Schade ist es natürlich um die Arbeitsplätze, die bei der Marksituation wegfallen werden.
Ergänzung ()

whtjimbo schrieb:
Die Hersteller kämpfen eher damit dass, die Gen-X/Gen-Y es noch so kennen: neue CPU/Platform, PC selber bauen. Grafikkarte tauschen, aber diese Generationen werden alt und das Interesse an PCs verschiebt sich.
Die aktuelle Gen-Z kennt diese Zeiten des Aufrüstens nicht mehr, aufgewachsen mit modernen Smartphones und guten Konsolen, der Drang nach einem PC ist deutlich geringer.
Die Entwicklungskosten bleiben beim Hersteller dennoch hoch, die Nachfrage bricht einfach ein, geringere Preise sind praktisch unmöglich, wenn gewisser Fortschritt gewünscht ist.
Das stimmt, ich zocke momentan auch am liebsten auf meiner PS5 oder Series X auf 65 Zoll Sony Full Array mit HDR. Das macht richtig Spass, da wird der PC immer unattraktiver und die abgehobenen Grafikkartenpreise haben ihr Übriges getan.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuristina und GOOFY71
Laphonso schrieb:
Das gilt aber nicht übergreifend. Gerade Personal in der "IT" - mal global angesprochen -verdient mehr denn je.
Sogar die öffentlich-rechtlichen Arbeitgeber verändern die Eingruppierung im vergleichsweise unterdurchschnittlich bezahlten public sector in Sprüngen, die ich hier aggregiert die letzten 25 Jahre nicht erlebt habe.

Und wenn ich sehe, dass ein Kumpel 7700 brutto monatlich ablehnen kann, weil er das pro WOCHE als Berater (IT-Architekt) woanders nun verdient, nunja...
Ja ich weiß ich arbeite selber in der IT.
Das hat ist aber unabhängig davon ob die Preise steigen.
 
whtjimbo schrieb:
Die Hersteller kämpfen eher damit dass, die Gen-X/Gen-Y es noch so kennen: neue CPU/Platform, PC selber bauen. Grafikkarte tauschen, aber diese Generationen werden alt und das Interesse an PCs verschiebt sich.
Die aktuelle Gen-Z kennt diese Zeiten des Aufrüstens nicht mehr, aufgewachsen mit modernen Smartphones und guten Konsolen, der Drang nach einem PC ist deutlich geringer.
Das gilt genauso auch für die Älteren. Der Desktop-PC ist einfach aus der Zeit gefallen. Es gab auch mal Zeiten, da sind Leute im Alltag (!) Motorrad und Kabinenroller gefahren und zu Hause wurde dran geschraubt. Diese Zeiten kommen auch nie wieder.
 
Duman schrieb:
Dass ausgerechnet die Leute, die eine 4090 in der Signatur haben, sich beschweren, ist lustig.
Muss da auch etwas schmunzeln ;)

zombie-land-comedy.gif


PC Gamers: REEEEEEEEEE graphics cards are too expensive!!!!
Also PC Gamers: Check out my new nearly 2000$ RTX 4090 I use to play Minecraft with!!!!

Eine Teilschuld an der Situation trifft auch genau jene, welche AMD und Nvidia den Eindruck vermitteln, dass sie die absonderlichen Preise auch bereit sind zu zahlen. Solange genügend RTX 4090 und RX 7900 XTX gekauft werden, wird sich wenig an der Preisgestaltung ändern, abseits von ein paar "Deals".

Der Optimist in mir hofft, dass Nvidia und AMD bzw. die Boardpartner/Händler die schlecht weggehenden Karten der aktuellen und Vorgeneration vergünstigt auf den Markt werfen, um Kapazitäten freizubekommen und Umsatz zu generieren. Produzierte und nicht verkaufte Karten sind ein Verlust. Punkt.
Der Realist in mir geht aber davon aus, dass die o.g. Parteien lieber auf den Karten sitzenbleiben, weiterhin Mondpreise verlangen werden und davon ausgehen, dass bei PC Spielern weltweit das Großhirn ausfällt und weiterhin fast 1000 EUR/USD für eine Grafikkarte ausgeben.
 
  • Gefällt mir
Reaktionen: 7oNine, Stuffz und Restart001
Pr0krastinat0r schrieb:
davon ausgehen, dass bei PC Spielern weltweit das Großhirn ausfällt und weiterhin fast 1000 EUR/USD für eine Grafikkarte ausgeben.
Schön wie hier mittlerweile Leute bezeichnet werden, die für ihr Hobby 1000€-2000€ hinlegen. Andere fahren dafür einmal in den Urlaub anstatt 1-2 Jahre lang etwas davon zu haben.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk und xexex
Stefan51278 schrieb:
Ich sehe da eher einen evolutionären Vorteil auf Apple-Kunden zukommen

Korrekt.

Wenn man aber vernünftig kauft und nicht jedes Jahr oder alle 2 Jahre eines bekommt, weil man mit seinem Vertrag wieder mit einer "Zuteilung" dran ist, da man so einen (überteuerten) Vertrag abgeschlossen hat, dann lohnt es sich tatsächlich wieder einmal, ein Apple zu kaufen.

Und das sage ich, der als "Apple-Hasser" bekannt ist.

Wenn man also ein 5-7 Jahre altes hat, dann lohnt sich die kommende Generation wirklich. Die letzte war eher "suboptimal" und wenn man einmal im Apple Universum unterwegs ist, verlässt man das auch ungern.

Apple ist ein wenig wie Kippen oder Alkohol. Los wird man das Laster echt schlecht.

Hauptsache, man hat am Ende keinen Fuhrpark an LKWs. :heilig:

mfg

p.s.

Wenn ich meinen Stapel an Notebooks anschaue, kenne ich mein Laster ganz sicher. :evillol:
 
Zuletzt bearbeitet:
Pr0krastinat0r schrieb:
Produzierte und nicht verkaufte Karten sind ein Verlust. Punkt.
Zum "Verlust" werden solche Karten erst, wenn man sie zu Billigpreisen verkauft, ansonsten produzieren sie aktuell nur Lagerkosten.
Ergänzung ()

gymfan schrieb:
Schön wie hier mittlerweile Leute bezeichnet werden, die für ihr Hobby 1000€-2000€ hinlegen. Andere fahren dafür einmal in den Urlaub anstatt 1-2 Jahre lang etwas davon zu haben.
Wer seine GPU nur 1-2 Jahre nutzt, der sollte sich über hohe Preise gar nicht erst beschweren. Meine letzte GPU hat knapp 7 Jahre gereicht und die aktuelle (3080) wird es bestimmt auch tun.
 
  • Gefällt mir
Reaktionen: whtjimbo
gymfan schrieb:
Schön wie hier mittlerweile Leute bezeichnet werden, die für ihr Hobby 1000€-2000€ hinlegen. Andere fahren dafür einmal in den Urlaub anstatt 1-2 Jahre lang etwas davon zu haben.
Du meinst 2000-4000€.
Die Grafikkarte kostet ja schon 1000€, damit hast du ja noch keinen Lauffähigen PC.
Ich fliege lieber für 1000€ einmal in den Urlaub, als eine Grafikkarte davon zu kaufen.
 
  • Gefällt mir
Reaktionen: whtjimbo
Positiv denken. Die GPUs werden schon im Preis purzeln. Irgendwann steht da auch eine chinesische Firma.
 
xexex schrieb:
Zum "Verlust" werden solche Karten erst, wenn man sie zu Billigpreisen verkauft, ansonsten produzieren sie aktuell nur Lagerkosten.
Und wenn die Lagerkosten höher sind als die mögliche Preisdifferenz, was sind sie dann?

Botcruscher schrieb:
Positiv denken. Die GPUs werden schon im Preis purzeln.
Die 40er muss vorallem günstiger werden. Ich brauch einen vernünftigen AV1 Encoder. Das ganze RT kann mir hingegen gestohlen bleiben. Ich verstehe nicht wieso nicht einfach wie bei CPUs auch mehrere Serien mit Feature-Limitierungen angeboten werden... bei Rohleistung reicht mir hingegen auch eine 50.
 
Zuletzt bearbeitet von einem Moderator:
r4v398 schrieb:
Und wenn die Lagerkosten höher sind als die mögliche Preisdifferenz, was sind sie dann?
Auf der Erde gibt es mehr als genug Fläche um solche Waren praktisch zum Nulltarif lagern zu können.
 
Ich glaube, ohne Wachschutz & Co. werden die wohl nicht lange zum Nulltarif an diesen Orten lagern. :D
Aber ich sehe auch keine übermäßigen Lagerkosten bei den aktuellen grundsätzlichen Margen.
 
Warum sollte "man" auch einen neuen Computer kaufen?

Für Web und SOHO reicht ein Pi400 für €70 und wenn es luxuriös sein soll tut es der Thinclient vom Refurbisher für €100.

Und für Poweruser bieten die Hersteller seit JAHREN nichts neues an.

Oh, ja, ich bekomme heute eine GPU die doppel so schnell ist wie meine Geforce 1070. Oh, die kostet aber dreimal so viel... meh...

Zwischen 1980 und 2010 habe ich alle zwei Jahre einen neuen Rechner gekauft oder den alten MASSIV aufgerüstet und immer massiv mehr Leistung fürs gleiche Geld bekommen.

Heute? Mein Core2 mit 4x3400Mhz und Geforce 8800 wurde erst sechs Jahre später von einem i7-6700k mit Radeon 285 abgelöst. Und der hatte für 50% mehr Geld bestenfalls 100% mehr Leistung.

Oder heute GPUs... für das was ich vor sechs Jahren für meine Geforce 1070 gezahlt habe bekomme ich heute kaum mehr Leistung.

Man muss einfach nichts mehr kaufen weil es nichts neues mehr gibt.
 
Crass Spektakel schrieb:
Oh, ja, ich bekomme heute eine GPU die doppel so schnell ist wie meine Geforce 1070. Oh, die kostet aber dreimal so viel... meh...
Wenn man sich vor Augen führt, daß die dritte Ziffer in der Modellnummer nur noch die Binning-Variante desselben Chips bezeichnet und die erste Ziffer die Modellklasse, ergibt es wieder Sinn:

1000er - Entry-Level
2000er - Lower Midrange
3000er - Upper Midrange
4000er - High-End

Gehört aber letztlich alles zur selben "Generation". Denn da passiert jetzt nichts mehr. Der Desktop ist tot.
 
Wechsler schrieb:
1000er - Entry-Level
2000er - Lower Midrange
3000er - Upper Midrange
4000er - High-End
Was schreibst du denn da für ein Schwachsinn? Das sind alles ganz andere Chip-Generationen mit unterschiedlicher Architektur und Feature-Set die nach und nach released wurden, das hat mit Range überhaupt nichts am Hut:

Die Erste Nummer zeigt welche Architektur, wie alt der Technik/Performance-Stand einfach ist:
10xx = Pascal
16xx (Non-RT) /20xx (RT) = Turing
30xx = Ampere
40xx = Ada Lovelace

Die steigt immer auf, 40er ist die aktuellste momentan.

Die Zweite Nummer zeigt welche Zielgruppe es ansprechen soll:
(Meist werden die ebenso in dieser Reihenfolge released, um eben maximal Geld zu machen)

xx90 = "Enthusiast"/Testing
xx80 = High Performance
xx70 = Consumer High-Range
xx60 = Consumer-Mid-Range
xx50 = Consumer-Low-Range
xx30 = Budget/Lite

Je nach Generation gibt es hier gar keine Ausführung mehr oder umso mehr Varianten.

Dann gibts noch Ultra, Super, Ti, OC, etc, alles angepasste (meist einfach nur standardmäßig übertaktekte) Versionen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KellyFornia
Du brauchst mir das Schema nicht zu erklären, denn es funktioniert nicht. 🤣
 
Keine Ahnung was du meinst mit es funktioniere nicht. So ist es jedenfalls gedacht. Außer 80 und 60 bzw 50 würde mir sowieso nichts holen. Die anderen Modelle sind Verschwendung. - Vielleicht meinst du ja das.
 
Stuffz schrieb:
10 Jahre später, und wir treten auf der Stelle. Für manchen Usecase sind die Auflösungen gar RÜCKLÄUFIG! Vor ca. 12 Jahren war FHD+ der Butter-und-Brot-Standard fürs Büro (1920x1200). Und nicht mal das wurde beibehalten, die Hersteller sind zu FHD zurückgerudert.
Und für alles, was über diesen erzwungenen "Standard" hinaus geht, wird es abenteuerlich. Da gibt es nur "Bürolösungen", aber auch das ist oft nur Standardkost (WQHD). Und dann eben die Luxus-Büro-Lösungen (Ultrabreite, mit diversen Extras und Docking-Gedöns, aber meistens weiterhin bei 60Hz verharrend). Und es gibt noch den "Gaming-Markt", das läuft ähnliche wie Büro-Hardware, nur mit mehr Hz, aber mit besch*er Qualität.
Wozu mehr für normale Bürotätigkeiten? In AutoCAD sehe ich das ja noch ein, aber für Office benötigt doch niemand mehr als FullHD und 60 Hz.
Stuffz schrieb:
Also so manche Aussagen hier, nach dem Muster "Full HD reicht mia doch völlig aus" lassen mich staunen.
In einer normalen bewegten Spieleszene sehe ich auch keinen Unterschied zwischen 4k und FullHD auf meinem 24" Monitor. Wenn man einen Screenshot macht und zoomt, ist das sicher anders. Das ist aber für Spiele nicht relevant. Die zusätzliche Rechenleistung für 4K stehen meiner Meinung nach in keinem Verhältnis zum optischen Mehrwert.
 
Fenkel schrieb:
Wozu mehr für normale Bürotätigkeiten? In AutoCAD sehe ich das ja noch ein, aber für Office benötigt doch niemand mehr als FullHD und 60 Hz.
Über 60Hz kann man sich streiten. Aber FullHD? Ernsthaft? Es gibt eine Fülle von Anwendungen zwischen AutoCAD und 0815-Office. Die Mehrheit meiner Kollegen würden dich bei der o.g. Aussage bezüglich ihrer Standard-Anwendungen auslachen.
 
Zurück
Oben