News Jon Peddie: Grafikkartenabsatz sinkt mit vollen Lagern weiter

Mustis schrieb:
Nvidia gibt's seit 1993. 3D KArten für den privatbereich seit Mitte der 90er. Wie hätte da bereits vor 30 Jahren keinen Grafikkartenmarkt mehr geben können? oO

Es gab schon Grafikkarten vor Nvidia. Und vor PC-Grafikkarten gabs spezialisierte Grafikchips mit (2D-)Beschleunigungsfunktionen in Homecomputern (wie dem in meinem Avatar-Bild).

Die Leistungsfähigkeit dieser Grafikchips stieg rasant von Generation zu Generation. Die Preise glücklicherweise nicht, denn sonst hätte es die Computer-Revolution wie wir sie kennen niemals gegeben.

Wenn es wirklich so sein sollte, dass Leistungssteigerungen, wie wir sie in den letzten Jahrzehnten gesehen haben, heutzutage technisch nicht mehr möglich sind, oder nur noch zu parallel dazu ansteigenden Preisen, dann hätten wir es wirklich mit dem Ende zu tun. Dann kommt es zu Stagnation und totalen Zusammenbruch des Marktes.
 
  • Gefällt mir
Reaktionen: onkel-foehn
Herdware schrieb:
Es gab schon Grafikkarten vor Nvidia. Und vor PC-Grafikkarten gabs spezialisierte Grafikchips mit (2D-)Beschleunigungsfunktionen in Homecomputern.
Das ist mir bekannt, das eine hat aber recht wenig mit dem anderen zu tun. Technische Generationen und so. Da könntest du auch bei Conrad Zuse anfangen...
Herdware schrieb:
Dann kommt es zu Stagnation und totalen Zusammenbruch des Marktes.
Blödsinn... Meinen Beitrag nicht gelesen? Es muss eine neue technische Generation her. Eben wie beim Wechsel von 2D Beschleuniger auf 3D Beschleuniger. Ich sehe im Raytracen zumindest einen teilweisen Schritt dahingehend.
 
Raytracing wird uns nicht retten.

Das ist ein "Aufhübschungsfeature", das aber keine klassische Grafikleistung ersetzen kann.
Im Gegenteil, es frisst nur zusätzlich welche.

Und ich sehe durchaus eine durchgängige Linie von den ersten, spezialisierten Grafikchips über 2D- zu modernen 3D-Beschleunigern. Allein schon darin, dass ihre Leistungsfähigkeit (Rohleistung) ständig rasant zugenommen hat, aber wie gesagt der Preis nicht.
 
  • Gefällt mir
Reaktionen: romeon
Ein 2D beschleiniger arbeitet grundlegend anders als ein 3D Beschleuniger. Und Raytracing ist weit mehr als Aufhübschung…

Schau noch mal, was damals bei 3D beschelinigern so revolutionär war und warum diese 3D spiele massiv beschleunigten. Dann erkennst du vll, warum ich im Raytracen einen ähnlichen Schritt sehe.
 
Ja Jungs, ich vermisse auch die vorhergesagten Mengen an 1070 /ti / 1080 !?
Da stimmt was nicht. Ich vermute bei Nvidia hat man sich ausgerechnet was man dann nicht an RTX Grakas verkauft und hat diese Chips (schweren Herzens) eingestampft.
 
Zuletzt bearbeitet:
@Mustis
Letztlich "zaubern" sie alle nur Pixel auf den Bildschirm.

Ich weiß, dass Raytracing technisch anders funktioniert, als klassische 3D-Beschleunigung, und ich weiß dass heutige 3D-Beschleuniger anders arbeiten, als alte 2D-Beschleuniger usw.
Aber auf Nutzersicht interessiert mich das nur in so weit, wie es halt Teil meines Hobbies ist. Aber das Endergebnis ist mir dann doch wichtiger.

Wenn es wirklich so sein sollte, dass die Rohleistung für klassische 3D-Grafik nicht mehr weiter gesteigert werden kann (weil wir an den Grenzen der Halbleitertechnik angekommen sind), wird Raytracing uns jedenfalls auch keinen Ausweg aus dieser Sackgasse bieten.

Im Gegenteil.

Raytracing braucht wesentlich mehr Rohleistung, als andere 3D-Grafikberechnungen. Das ist der Grund, warum es bisher für Echtzeitgrafik nicht verwendet wurde, obwohl es eigentlich die viel elegantere und einfachere Methode ist.
 
Eben nur bis einem gewissen Schwellenwert. Wenn ich mich recht entsinne, stiegt der Rechenaufwand bei Raytracing linear und hat einen hohen Anfangswert, die klassische Methode steigt nicht linear, hat dafür aber einen geringeren Anfangswert. Also nein, Raytracing steigert den Bedarf an Rohleistung nur bedingt, zum Anfang hin, bei steigender Komplexität ist der Bedarf an Rohleistung geringer als bei den klassischen Methoden. CB hatte dazu vor Jahren einige interessante Artikel.

PS: https://www.computerbase.de/2007-01/bericht-raytracing-in-spielen/3/ In dem Artikel ist es erklärt und es ist, natürlich, genau andersherum. Rasterization steigt linear, Raytracing logaryhtmisch
 
Zuletzt bearbeitet von einem Moderator:
würde mir gerne jetzt auch noch eine ordentliche 1080ti kaufen ! Aber bei den einzelnen Exemplare die es noch gibt und bei den Preisen.. da bleib ich halt bei der GTX 980ti und verzichte auf neue Spiele..
 
@lottepappe
Mir fällt aktuell kein neues Game ein bei dem eine 980ti oder 1070 zu langsam sein soll. Kann mit der z.b Forza Horizon 4 ohne Probleme auf WQHD@Ultra mit über 60 FPS zocken. Falls die Leistung dann doch mal nicht reichen sollte werden die Settings halt auf Hoch runtergeschraubt.
 
kisser schrieb:
Der Aktienkurs beruht ausschließlich auf Spekulation und da haben die Analysten wohl das Ende des Mining-Booms nicht mitbekommen. Die haben nämlich weiter an nahezu exponentielles Wachstum geglaubt und damit den Kurs erst nach oben getrieben.

Für die Anleger ist das natürlich Spekulation, der Kurs an sich spiegelt aber schon sehr gut die aktuelle Lage des Unternehmens wider. Im Falle von Nvidia war der letzliche Absturz ja nicht das böse Erwachen nach dem Mining Boom, sondern vielmehr, dass Nvidia stets beteuert hat, nicht wirklich viel vom Mining-Boom profitiert zu haben und musste dann die Umsatzprognose drastisch nach unten korrigieren, wofür dann doch auf einmal das Ende des Miningbooms mitverantwortlich war.

Hier hat man Anlegervertrauen verspielt und zusätzlich weniger Karten verkauft als prognostiziert. Und auch für die Verkaufzahlen muss sich Nvidia fragen, wieso man auch hier zu optimistisch war - das Ende des Mining Booms war schließlich schon Anfang 2018 absehbar.
 
Revan1710 schrieb:
Für die Anleger ist das natürlich Spekulation, der Kurs an sich spiegelt aber schon sehr gut die aktuelle Lage des Unternehmens wider.

Der Kurs spiegelt nur die Erwartungen in die Geschäftszahlen wider. Die Geschäftszehlen sind hingegen harte Fakten. Und wenn das beides nicht zusammenpasst, dann kann es eben auch mal stark nach unten oder nach oben im Kurs gehen.
Dass es - abgesehen von den extra zum Mining produzierten Karten - kaum möglich ist, den Anteil an zweckentfremdenden "Gamer-Karten" zu erfassen, dürfte wohl einsichtig sein. Hier lag Nvidia mit seiner Einschätzung falsch. Eine Umsatzwarnung ist nichts, was irgendein Unternehmen auf der Welt gerne veröffentlicht.
 
Mustis schrieb:
Also nein, Raytracing steigert den Bedarf an Rohleistung nur bedingt, zum Anfang hin, bei steigender Komplexität ist der Bedarf an Rohleistung geringer als bei den klassischen Methoden.

Dabei muss man aber bedenken, dass bei klassischer Rasterisierung schon immer zwecks weiterer Performance-Verbesserung zu allen möglichen Tricks gegriffen wird. Die im CB-Artikel genannten Details an der Wand, würde ein aktueller 3D-Beschleuniger z.B. durch Bump-Mapping und/oder Tessellation erledigen, nicht per Brute Force durch tausende, zusätzliche Polygone.

Es mag trotzdem irgendwo eine Grenze geben, ab der Raytracing keine Performance-Nachteile gegenüber Rasterisierung mehr hat. Aber es scheint, dass wir davon in aktuellen Spielen (die üblichen Performance-Tricks eingerechnet) noch ein gutes Stück entfernt sind. Wir werden also noch einige GPU-Generationen brauchen, die in konventioneller Grafikleistung ordentlich zulegen, bis Raytracing als Render-Alternative (nicht nur als zusätzliche Aufhübschung von Lichteffekten) interessant werden könnte.

Mit einer Fortsetzung der derzeitigen Preispolitik (sei sie durch technische Zwänge gerechtfertigt oder monopolbedingt) wären diese GPUs aber für die große Masse der Gamer schlicht und einfach unerschwinglich.

Nehmen wir z.B. an, dass der Break Even-Punkt von Raytracing bei der 5-fachen grafischen Komplexität aktueller Spiele läge. Wer könnte sich noch eine High-End-Gaming-Grafikkarte für 5000-7000€ leisten? Der Markt würde schon lange vorher kollabieren, wenn die Preise so weiter steigen.
 
Die ultra zocker nehmen sich selbst viel zu wichtig.



Ein klassischer OEM Medien Rechner braucht schon lange keine dedizierte GPU mehr, das kann alles eine IGP.

Das sehen die normalen OEM Kunden ebenso,
das zb. die IGP ihres I5 2400 für alles reicht.


Genauso sehe ich es auch, eine HD 4570M von 2009 reicht für 1080p Streams und die Spiele die ich im moment am aktivsten spiele (SC2, FFXIV)

Mir ist das vollkommen egal ob sich da nur mittel ausgeht, am häufigsten spiele ich gar nur auf den niedrigsten Setting, akku schonen 😉
 
@kisser
Genau und der Kurs war zu hoch wegen der falschen Einschätzung von Nvidia. Das hat ja nichts damit zu tun, dass die Anleger das Ende des Miningbooms verschlafen haben.
Ich habe da auch kein Mitleid mit Nvidia, dass sie eine Umsatzwarnung herausbringen mussten, man hat quasi Versprechungen gemacht, die man nicht einhalten konnte - das sollte man sich nicht zu oft erlauben

Der Umsatz durch die fehlende Mining-Nachfrage war in Q2 ja schon deutlich zurückgegangen, ohne dass der Kurs derart abgerutscht ist. Der Grund für die falschen Zahlen liegt also wohl weniger am Mining, sondern darin, dass weder der Abverkauf noch Turing planmäßig waren und die Gründe hierfür muss Nvidia bei sich suchen und entsprechend reagieren
 
Mustis schrieb:
@Herdware
An dieser Situation wird sich aus meiner Sicht erst wieder etwas ändern, wenn es einen größeren technischen Fortschritt im Chipdesign/Fertigung gibt, die Sparten sich aufspalten und Grafikchips sich deutlich von Chips für KI, Deep Learning etc. unterscheiden oder mindestens ein weiterer Marktteilnehmer auf dem Niveau von Nvidia sich am Markt etabliert.

Mich würde es grundsätzlich einmal interessieren, ob man "die Sachen" wie Tensor / RT - Cores Deep Learning etc. etc. auf einem separatem Chip einer dedizierten Zusatzkarte auslagern könnte. Wie einst die PPU Karte von Ageia (Physix). So wie Früher, da gab es auch eine 2D GraKA (S3) und ne 3D Karte (3Dfx). Dann bräuchte es NICHT zwingend einen teuren big Chip und wer "die Sachen" nutzen möchte kauft sich eine Zusatzkarte. Geht aber bestimmt nicht wegen Latenz und so ... :-(

MfG, Föhn.
 
Zuletzt bearbeitet von einem Moderator:
GERminumus schrieb:
Also selbst bei 70% mehr Leistung ist die 2080ti immer noch viel zu teuer.
Zumindest nach meinem Empfinden.
Was du irgendwann mal zu welchem Preis bekommen hast, spielt heute keine große Rolle mehr. Eine 2080 kostet ca. 700€, eine Radeon VII ca. 750€. Wenn also eine 2080 Ti 1100€ kostet und 70% schneller als eine 1080 Ti/2080 wäre, würden mir die knapp 60% Preisaufschlag zum restlichen Markt nicht mehr das Gefühl geben, komplett über den Tisch gezogen zu werden. Das darfst du natürlich für dich gern anders bewerten.
 
Zuletzt bearbeitet:
fragemann schrieb:
Wer hat dir diese Märchen eingeflüstert? Würde das stimmen, hätte Nvidia kaum immer neue und immer "absurdere" Millardengewinne im Consumer-Segment erzielen können.

Dann ist halt noch genug übrig geblieben um genug Gewinn abzuwerfen, meine güte. Ich sagte ja auch nicht, das nur die gestiegenen Kosten alleine den Preis in die höhe trieben.
Ergänzung ()

iamunknown schrieb:
Was hast dir denn gegönnt? Ich habe rund 10k€ in TV + Elektronik + LS gesteckt - aber 1k€ in eine Grafikkarte sehe ich irgendwie nicht ein :D.

Da wäre ich bei +- 11,5 bis 12k. Vorherige Fernseher u. Lautsprecher nicht mitgerechnet. Hatte ich auch scho öfter gewechselt da ich irgendwie nicht zufrieden war. Da isses schlimm bei mir.
Bei der GK sehe ich das nicht als problem.
Mit meiner 1080ti und dem Wakü Block bin ich ja auch scho bei 930€ gelandet.

Dafür sehe ich es nicht ein für über 1k ein Smartphone zu kaufen :D
Viele rechtfertigen das halt weil es der ständige begleiter ist, das wichtigste teil um alles zu organisieren etc etc.
Bzw. gibt auch genug Leute die jedes Jahr das neuste Handy haben müssen wo der Preis egal ist.

Mein Galaxy Note 3 funktioniert noch super und wird noch lange gute Dienste erweisen.

Da sieht man, jeder tickt anders.

Aber ich glaub das geht nu am Thema vorbei ;)
 
Zuletzt bearbeitet:
W0lfenstein schrieb:
"Meld" mit Wakü sogar noch ne Ecke mehr.
Dauert halt noch ca. ne Woche.

War auch erst kein Fan , aber naja.....nu isse bestellt :D


Was du so sagst gilt aber für alles..Schmuck, Uhren, Autos um nur wenige Beispiele zu nennen und eben auch hardware.
Da bräuchte man sich ja garnix teures und eben auch neues mehr kaufen wenns nur darum geht das es bald wieder alt ist.

Bzw. dann möchtest du auch garantiert nicht wissen was ich so für Ferneseher und Lautsprecher ausgegeben habe. Da war die 2080ti nochn schnapper.

Wobei Uhren und Schmuck ja immer wertvoll bleibt. Der Elektronikschrott wird zu schnell alt leider. Da ist der Wiederverkaufswert fürn popo. Und für die 3 games im Jahr lohnt es sich nicht für mich :D
 
Bei Bares für Rares sah ich oft (bzw. immernoch fast regelmäßig) das einst sehr teurer schmuck und auch uhren fürn appel und ein ei verschleudert wurden und noch werden. Da sagt man regelmäßig das Schmuck nicht als Investition betrachtet werden sollte. Haben viele damals gemacht ,und schauen nun leider dumm aus der Wäsche.

Btw, 3 Games im Jahr und Skyrim :evillol: Im ernst das braucht so gemoddet mehr power als so manch neues AAA Game.
 
  • Gefällt mir
Reaktionen: Zitterrochen
Revan1710 schrieb:
@kisser
Genau und der Kurs war zu hoch wegen der falschen Einschätzung von Nvidia. Das hat ja nichts damit zu tun, dass die Anleger das Ende des Miningbooms verschlafen haben.
Ich habe da auch kein Mitleid mit Nvidia, dass sie eine Umsatzwarnung herausbringen mussten, man hat quasi Versprechungen gemacht, die man nicht einhalten konnte - das sollte man sich nicht zu oft erlauben

Das ist zu kurz gedacht. Der Kurs wird wesentlich durch die Anlegererwartungen beeinflußt.

Ich zitiere (https://www.computerbase.de/2018-11/nvidia-quartalszahlen-ende-mining-boom/):

Schlechtere Aussichten für das 4. Quartal

Doch die Börse war an den Zahlen der Vergangenheit nicht interessiert. Der Ausblick mit nur noch 2,7 Milliarden US-Dollar Umsatz für das aktuelle Quartal enttäuscht, denn er liegt nicht nur unter dem dritten Quartal, sondern auch unter dem Vorjahreswert. Börsianer hatten vorab mit bis zu 3,4 Milliarden US-Dollar Umsatz gerechnet.

Wie wir ja jetzt wissen, waren selbst die 2,7 Mia. noch viel (um etwa 500 Mio.) zu optimistisch seitens nvidia. Aber die "Börsianer" haben doch wirklich einen Sprung in der Schüssel.:freak:

Hätte Nvidia damals gleich zum Ausblick mit 2,2 Mia. gerechnet, wäre der Kurssturz nur einmal erfolgt. So aber hat die Börse Nvidia ein zweites mal abgestraft, weil sie selbst die 2,7 Mia. deutlich verfehlt haben.
 
  • Gefällt mir
Reaktionen: Revan1710
Zurück
Oben