Warum die Grafikleistung immer weniger ansteigt und Intel es noch verschlimmern wird

w33werner

Lieutenant
Registriert
Okt. 2007
Beiträge
613
Hallo zusammen,
Wie sicherlich viele von euch denke auch ich immer mal wieder über die Aufrüstung der Grafikkarte nach und bin dabei aber erstaunt wie gering der Leistungssprung bei neuen Generationen geworden ist.
Viele von euch denken vielleicht, dass das mit der Preispolitik von Nvidia zu tun hat, oder der mangelnden Konkurrenz durch AMD, oder durch die RTX Features von Nvidia. Oft hab ich auch gelesen, das ein kommender Markteintritt von Intel wieder dazu führt das die Sprünge zwischen den Generationen größer werden, weil "endlich" wieder mehr Konkurrenz da ist.

Ich denke allerdings das nichts davon zutrifft und im Gegenteil Intel die Lage noch verschlimmern wird. Warum dem so ist, werde ich hier versuchen zu erläutern.
Das soll kein Bashing gegen einen Hersteller werden, auch möchte ich niemanden Angreifen der sich eine Grafikkarte aus der aktuellen Generation gekauft hat. Es soll nur meine Gedanken zum aktuellen Status Quo wieder geben und die Gedanken die mir im Kopf rumspuckten mal zu "Papier" bringen.
Wer möchte kann natürlich auch gleich zum Fazit scrollen.

Problematik:
Wie Eingangs erwähnt werden die Sprünge zwischen den Generationen immer kleiner. Eine GTX 1080 hat vor 2,5 Jahren ungefähr 520€ gekostet. Heute gibt es dafür ca eine 2070 RTX super. In WHQD ist die Super ca. 30% schneller als die 1080.

Das heißt in 2,5 Jahren ist die Performance pro Euro gerade mal um 30% angestiegen, Obwohl in der Zeit eine komplett neue Architektur und nochmal ein Refresh dieser Architektur erschienen sind.

Früher (vor 5-10 Jahren) gab es in der Regel alle 2 Jahre eine Performance Verdoppelung pro investierten Euro.
Auch hier ein kleines Beispiel: die 8800 GTX war ebenfalls ca. 30% schneller als die 7900 GTX. Beide kosteten zur Markteinführung ebenfalls ca. 500€. Nur trennen die beiden lediglich 6! Monate. (8800 GTX, 7900 GTX)
Also für einen Sprung der damals innerhalb von 6 Monaten ging, brauchen wir heute 2,5 Jahren.

Warum ist das so?
- Die Entwicklung einer Grafikkarte ist sehr schwierig und damit sehr teuer. Und um so weiter die Entwicklung vorschreitet, um so teurer sind auch weitere Verbesserung. D.h. der Grafikkartenhersteller müsste immer mehr investieren, um die selben Leistungssprünge von Jahr zu Jahr zu erhalten.
Dies ist allerdings auch in anderen Industrien so, da es dort aber (oft) stetiges Wachstum gibt, wird es dadurch aufgefangen. Der Grafikmarkt stagniert dagegen. Zwar wächst insgesamt die Weltwirtschaft, aber durch Smartphone, Tablet und co. steigen nicht im gleichen Umfang die Menschen die bereit sind Geld in eine separate Grafikkarte (egal ob PC oder Konsole) zu investieren.

Durch stagnierende Umsätze werden die Entwicklungszyklen allerdings länger (da nicht genug Geld für die Forschung zur Verfügung steht), die Performance Sprünge damit kleiner, und die Umsätze gehen noch mehr zurück. Da weniger Leute bereit sind für ein paar Prozent aufzurüsten.
Ein Teufelskreis ensteht der immer kleinere Entwicklungssprünge zur Folge hat.

- Früher konnte außerdem für einen Performance Sprung "einfach" der Stromverbrauch der Grafikkarte erhöht werden. Wer mal in ein paar Retro Artikel von Computerbase geklickt hat, sieht wie klein die Kühler damals waren. Heute brauchen wir 2,5 Slot Monster um aktuelle Topmodelle halbwegs leise zu kühlen. Damals reichte ein kleiner Axial Lüfter. Da die Kühlkörper allerdings nicht unendlich groß sein können, und viele Kunden auch nicht bereit sind einen immer höheren Stromverbrauch zu akzeptieren. Fällt ein einfaches Mittel der Leistungssteigerung somit weg.

Warum Intel alles noch Schlimmer machen wird
Oft höre ich unter den News von den bevorstehenden Intel Markteintritt, dass ab da alles wieder besser wird.
Das Gegenteil wird allerdings der Fall. Zumindest Mittelfristig werden wird sich die Entwicklung sogar deutlich verlangsamen.
Der Grund ist das wenn Intel einen vergleichbaren Marktanteil wie Nvidia oder AMD erreicht, allen drei weniger Forschungsbudget zur Verfügung steht. Da sie sich den Markt Ja aufteilen müssen.
Man kann sogar sagen das sich die Entwicklung um nochmal ca. 50% verlangsamen wird (natürlich mittelfristig, und nur sehr grob geschätzt). Da das benötigte Forschungsbudget (von allen drei Unternehmen zusammen) um soviel steigt der generierte Gesamt Umsatz aber gleich bleibt.
Es müssen jetzt in drei statt in zwei Unternehmen mehr oder weniger das gleiche entwickelt werden, bei ungefähr identischen Gesamt Budget.

Fazit
Die Entwicklung hat sich extrem Verlangsamt, da das erforderliche Forschungsbudget für bessere Grafikkarten viel schneller gestiegen ist als die Umsätze. Dadurch haben die Unternehmen gar nicht mehr die Spielräume um deutlich Leistungsstärke Grafikkarten zu entwickeln, wie das in der Vergangenheit der Fall war.
Der Markteintritt von Intel wird das Problem meiner Meinung noch mittelfristig extrem verschärfen. Da dann noch weniger vom Kuchen für AMD und Nvidia übrig bleibt und die Forschung somit weiter heruntergefahren werden muss.
Kurzfristig kann ein zusätzlicher Markteilnehmer natürlich Preise drücken, aber auch Intel wird irgendwann Geld mit ihrer Sparte verdienen wollen.

Ihr könnt gerne eure Meinung darunter posten und mich berechtigen Falls ich falsch liege.
 
  • Gefällt mir
Reaktionen: TechFA
ich habe selten so viel unsinn gelesen...
alle deiner schlussfolgerungen sind quasi komplett falsch
und dadrauf baust du dir dann weitere fehler auf.

überall lese ich früher war alles besser und es wird linearer anstieg an leistung erwartet.
das ist nunmal kompletter humbug.
 
  • Gefällt mir
Reaktionen: mykoma, Gsonz, wolve666 und 23 andere
die leistung ist eh da.
die meisten engines nutzen zuwenig davon.
 
Sind das deine reinen Gedanken/Vermutungen/Mutmaßungen oder soll es etwas fundiertes sein? Wenn zweiteres zutrifft fehlen ein paar Quellen oder Belege.
Ich denke das Forschungsbudget an so einer knappen "Dreisatz ähnlichen Rechnung" erklären zu wollen wird dem ganzen gar nicht gerecht.
Wenn es nur reine Gedanken sind, okay kann man so anbringen muss man ja nicht zustimmen.
Ich denke jeder hat zu allem irgend eine Meinung. Die einen eine fundierte, die anderen nicht.

In eine Diskussion einzusteigen macht, für mich keinen Sinn. Aber interessant mal sowas gelesen zu haben.
 
  • Gefällt mir
Reaktionen: kingjongun1, pcblizzard und USB-Kabeljau
Ich denke das ist alles weit einfacher als du hier ausführst.
Man kann nämlich Mehrleistung nicht auf ein einfaches "haben-will" hin aus dem Ärmel schütteln. Die Hardware muss das auch hergeben.

OK, früher war der Leistungsanstieg von Generation zu Generation größer. Aber die reine Leistung war auch deutlich geringer als das heute der Fall ist.

Ich habe ein bestimmtes Chipdesign. Das hat die Leistung X. Mehr geht nur mit der Brechstange. Und da gibt es schließlich Grenzen. Wie viel Strom kann ein Chip aushalten?
Bevor er zu heiß wird und nicht mehr gekühlt werden kann mit den gängigen Kühlern. Bevor die Lebensdauer des Chips zu sehr verkürzt werden müsste.

Jetzt muss also ein neues, besseres Chipdesign her. Aber ganz so einfach ist es wieder nicht. Denn es gibt eine vorgegebene Funktionalität. Die muss gegeben sein.
Damit Spiele, die mit einer aktuellen Engine programmiert wurden, überhaupt effizient laufen.

Und das verwendete Material gibt auch nicht viel mehr her und das was noch ginge, muss jetzt teuer, aufwändig und langwierig herausgekitzelt werden.
Früher waren solche Stunts gar nicht nötig. Da war die neue Generation mit ein bisschen Klicken hier und da mit der Maus schon fertig.

Und dabei ist Intel sowieso schon der größte Grafikkarten-Hersteller.
Wie hoch ist denn der weltweit Anteil an Hardcore-Zockerrechnern verglichen mit der Armada an einfachen aber ausreichenden Bürorechnern mit Intel OnBoard-Grafik? Na...
 
Zuletzt bearbeitet:
Damals hat man aber auch alle 6 Monate eine neue Grafikkarte gebraucht, weil einfach die Leistung vorne und hinten nicht gereicht hat.
Bisschen AA und alles auf high, schon ist mit meiner nagelneuen 8800 GTX alles quasi unspielbar.
Ne 2,5 Jahre alte 1080 ist da im Vergleich ja fast immer noch HighEnd, in FHD dürfte es kaum ein Spiel geben, dass sie großartig einschränkt.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, pcblizzard, Öcher Tivoli und eine weitere Person
Schau mal auf die reine Rechenleistung der Grafikkarten, dann merkst du was für ein Quatsch deine ganze Argumentation ist.
Fakt ist, es ist optisch in den Engines aktuell nur selten zu sehen, aber die reine Leistung ist allein die letzten Jahre wieder massiv gestiegen.
Es ist sogar genau andersrum wie du behauptest, die letzten paar Jahre ging es wieder massiv hoch, aktuelle Grafikkarten sind mehr als doppelt so schnell als 4 Jahre alte Karten...

Die Diskussion sollte eher lauten das es immer weniger optisch sichtbare Dinge gibt die Sprünge darstellen als das früher der Fall war. Neue Technologien brauchen unverhältnismäßig viel Leistung - siehe RT.
 
  • Gefällt mir
Reaktionen: kingjongun1 und adretter_Erpel
Lies dir Mal etwas zu moores law durch. Wenn ich mich nicht ganz vertue wollte das hier am beaten passen. Bitte um korrektur wenn ich falsch liege
 
  • Gefällt mir
Reaktionen: olligo
En3rg1eR1egel schrieb:
ich habe selten so viel unsinn gelesen...
alle deiner schlussfolgerungen sind quasi komplett falsch
und dadrauf baust du dir dann weitere fehler auf.

Da es sich eher um eine Meinungsäußerung handelt, kann man schlecht von Unsinn reden. ;)

@w33werner

Deine Schlüsse mögen ja einiger Maßen sinnvoll klingen, aber das Problem besteht eher darin, dass es für nVidia keinen richtigen Konkurrenten gibt. Und wie wir es im CPU-Bereich gesehen haben, die Dominanz von Intel schmilzt auch erst mit der dritten Ryzen-Gen bzw. Ryzen3000.
Intel dümpelt auch seit Jahren mit ihrem 14++++++++ Prozess rum und verkauft trotzdem sehr gut, obwohl die Leistung nicht wirklich gestiegen ist. Warum auch neue Innovationen schaffen, wenn keine Konkurrenz besteht, oder keine ernstzunehmende?!

Sollte Intel ein ordentliches Gegengewicht erzeugen, wird auch nVidia mit den Preisen agieren müssen und natürlich die Leistung dementsprechend verbessern.

Bestes Beispiel ist doch die neue HEDT-Gen von Intel. AMD mischt preislich und leistungstechnisch ordentlich mit, und zack kann der blaue Riese die Preise quasi halbieren, für die neue Gen. Das wäre vor zwei Jahren nicht möglich gewesen, weil eben keine wirkliche Konkurrenz bestand.

Sollte Intel nur annähernd an die Leistung der High-End-Karten rankommen und preislich, sagen wir mal 400 Euro günstiger sein, wird auch Firma-Lederjacke reagieren.

Nur, wo keine Konkurrenz, da tobt man sich eben aus, auch mit weniger Leistung zum doppelten Preis.

Just my 2 cents.
 
dass die Leistungssprünge kleiner werden hat nichts, aber auch garnichts mit den Umsätzen zu tun.
Alleine der Fall AMD mit Ryzen(s) verglichen mit Intels Problemen momentan ( AMD hat viel weniger Budget für Forschung als Intel) widerlegt auch deiner These, dass Geld in die Forschung zu buttern automatisch Leistungssprünge erzwingen könnte. Rein am Budget kann man das nicht ablesen, ob die Forschung erfolgreich sein wird.

Das ist einfach physikalisch bedingt, dass man an den technischen Grenzen (momentane Chiptechnik, Architektur und Material) immer weniger Leistungsplus mit immer mehr Aufwand erkauft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., Celinna, adretter_Erpel und 3 andere
w33werner schrieb:
Der Grund ist das wenn Intel einen vergleichbaren Marktanteil wie Nvidia oder AMD erreicht, allen drei weniger Forschungsbudget zur Verfügung steht. Da sie sich den Markt Ja aufteilen müssen.

Find ich auch süß :D
Glaube kaum das Intel, AMD und Nvidia sich ein gemeinsames Budget für die Entwicklung und Forschung teilen ;)
Ist schon Signatur-würdig!
 
  • Gefällt mir
Reaktionen: Ctrl, adretter_Erpel und KnolleJupp
Intel wird eine low Budget Grafikkarte auf den Markt bringen, da wird sich nicht viel tun am Markt. Und dann wars das auch wieder für Intel da sie ihre CPU's auf die Reihe bekommen müssen weil AMD wieder besser sein könnte.
 
  • Gefällt mir
Reaktionen: TechFA
icetom schrieb:
dass die Leistungssprünge kleiner werden hat nichts, aber auch garnichts mit den Umsätzen zu tun.
Alleine der Fall AMD mit Ryzen(s) (viel weniger Budget für Forschung als Intel) widerlegt auch deiner These, dass Geld in die Forschung zu buttern automatisch Leistungssprünge erzwingen könnte. Rein am Budget kann man das nicht ablesen, ob die Forschung erfolgreich sein wird.

Das ist einfach physikalisch bedingt, dass man an den technischen Grenzen (momentane Chiptechnik, Architektur und Material) immer weniger Leistungsplus mit immer mehr Aufwand erkauft.

Der erste Sinnvolle Post in diesem Thema :)
 
  • Gefällt mir
Reaktionen: TechFA
@w33werner Birnen mit Äpfeln vergleichen, die 7900gtx basierte auf der nv40 Architektur einer 6800
Von 2004 bis 2006 liegen zwei Jahre
 
Genau. Intel hat aktuell überhaupt kein Problem mit Grafikkarten und es besteht auch keine zwingende Notwendigkeit eine dedizierte Grafikkarte auf den Markt zu bringen.
Intel muss zusehen das sie nicht von AMD CPUs rechts überholt werden. Intel muss zusehen das sie ihre hochgepriesene Vaporware 10nm Fertigung auf die Reihe kriegen.
Aber Grafik? Das ist für so ein Riesenunternehmen wie Intel nur ein bisschen Spieltrieb für die Ingenieure...

Und, ähh, warum und wie genau soll das Forschungsbudget von nVidia und AMD sinken, sobald Intel eine kleine Office-Grafikkarte auf den Markt bringt? Die Annahme macht keinen Sinn!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA und adretter_Erpel
Silizium ist nun mal am Limit.
Alles was der TE schreibt ist Blödsinn.

Sorry, aber mehr fällt mir dazu nicht ein.
 
  • Gefällt mir
Reaktionen: pcblizzard, Celinna und adretter_Erpel
Nvidia ist gerade im Intel Modus beim 4 Kerner melken.

Die könnten mehr und billiger, wenn man sie dazu zwingen könnte. Solange der Quark aber trotz Preiserhöhung immer weiter gekauft wird, ändert sich da nix.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk, -Atlanter-, Der Paule und 2 andere
Beim lesen dieses Beitrages ist mir mal wieder aufgefallen wie primitiv die Menschheit eigentlich ist..

Sollte Intel auch noch externe grafikkarten auf den markt bringen, muss man sich das echt mal auf der Zunge zergehen lassen, das dort 3 firmen an dem gleichen produkt Forschen. Da stellt sich mir die frage ob das wirklich von nöten ist, oder ob es die Menschheit schneller und weiter vorran bringen würde, wenn diese drei sich zusammen tuen würden.. Vlt. würden wir dann heute schon auf fremden planeten leben und durch die zeit reisen, vlt. aber auch nicht...
Aber so lange wir unseren Planeten in Länder aufteilen und jedes Land mit waffen, auf ein anderes Land Zielt, bringt das eh nichts.. So lange die menschen nur in "Länder" denken und nicht in Planeten, kann man größere Dinge die die Menschheit nach vorne bringt, und nicht nur einzelne Länder eh vergessen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tungdil-Tom
Das die RTX Karten zu teuer verkauft werden, ist ja wohl allgemein bekannt und anerkannt.

Und auf fremden Planeten leben? Nein... die Außerirdischen waren schon längst hier. Ja, wirklich. Bestimmt.
Wer das schafft, ist technologisch extrem weit und muss deshalb auch gesellschaftlich extrem weit sein.
Was ist demzufolge also passiert? Die sind hier angekommen, haben mal kurz aus dem Fenster geschaut und... "Nee".
 
  • Gefällt mir
Reaktionen: rage222, Tungdil-Tom, Dancefly und eine weitere Person
Precide schrieb:
Damals hat man aber auch alle 6 Monate eine neue Grafikkarte gebraucht, weil einfach die Leistung vorne und hinten nicht gereicht hat.
Bisschen AA und alles auf high, schon ist mit meiner nagelneuen 8800 GTX alles quasi unspielbar.

Jop.
 
  • Gefällt mir
Reaktionen: Tungdil-Tom
Zurück
Oben