Warum die Grafikleistung immer weniger ansteigt und Intel es noch verschlimmern wird

MaverickM schrieb:
Deswegen sah sich nVidia ja auch nicht genötigt, das eigene Portfolio mit den "Super" Karten zu kanibalisieren, nicht wahr...
Richtig, aber dafür sollten wenigsten die neuesten Techniken die sie bieten, vernünftig laufen müssen und nicht so wie es mit RT aussieht. Es mag zwar gut aussehen, aber es ist ein großer Rückschritt bei der Auflösung.
 
Precide schrieb:
.....
Bisschen AA und alles auf high, schon ist mit meiner nagelneuen 8800 GTX alles quasi unspielbar.
Ne 2,5 Jahre alte 1080 ist da im Vergleich ja fast immer noch HighEnd, in FHD dürfte es kaum ein Spiel geben, dass sie großartig einschränkt.
Eine 8800GTX musste sich auch der ständigen Entwicklung an PC Spielen stellen. Die GTX1080 muss nur mit den Konsolentiteln mit halten und das kann sie problemlos. Gefordertes Eisen werden die aktuellen Grafikkarten mit der neuen Konsolengeneration und die Konsolen werden dann die Grafikkarten über Jahre wieder stagnieren lassen. Na, vielleicht gibt es dann wieder ein kleines Konsolen Update mit mehr Takt.

-
Als Dritthersteller hat man heute die besten Chancen von Konsolen dominierten Spielen mit dem Marktzyklus einen Grafikchip mit ausreichend Leistung anzubieten, wenn man auch die Hardwarelizenzen bezahlen kann. Eigentlich müsste es S3 Graphics mal wieder versuchen. Schwierig wird es nur den Fuß mit AMD und intel mit ihren integrierten Grafiklösungen als SoC in die Tür zu bekommen und noch die PC Spieler von nvidia weg zu locken.

intel kann gefährlich für AMD werden, wenn sie einen guten SoC für die übernächste Konsolengeneration bewerben könnten. Dann flimmert vielleicht auch der PC Exklusivtitel Star Citizen auf einer Konsole bei 30Fps mit allen Reglern auf links in 8K.

Seit die Konsole die Leistung vor gibt und Casual Gaming bedient, müssen die Hersteller bis auf nvidia als Herr über PC Spieler keine Grafikleistungssprünge fördern und wenn doch, um den exklusiven PC Spielemarkt mit einigen zusätzlichen Drehreglern zu bedienen und damit Qualitätseinstellungen, die man auf der Konsole nicht erhält.
 
Zuletzt bearbeitet:
Wir haben mittlerweile soviel an Rohleistung in den Grafikkarten und wenige spiele nutzen das richtig gut aus.
In der Optimierung der Spiele liegt so viel an potenzial aber damit verdient man ja kein Geld...
Außerdem können viele nicht für jede Hardware optimieren da es für viele zu aufwändig ist, oder kleine Studios das finanziell nicht können.

Gears 5 als Beispiel läuft butterweich auf meiner Vega64 mit super frametimes 2560x1440 max settings,
Pine als Beispiel stottert und Lagt bei mir was eine verhältnismäßige schlechte Grafik zu Gears 5 hat.

Aber ich werde noch mindestens ein jahr warten vor einem neukauf, ich finde der sprung einer vega64 auf eine 5700xt einfach viel zu gering für das geld.
 
so die Lage ist doch was anders

Zuerst mehr gpu Leistung lässt sich leicht erreichen indem man mehr shader und kleinere Strukturen verwendet
Die stagnation kam in den letzten Jahren durch die Fertigung

28nm lief von 2011 bis 2016 und sorgte für lange Stillstand bei P/L gk104 zu gm206 +- 0 bei etwa 250€
16nm 2016-2018 war da ein sprung von einer 250€ gpu Vorgänger aus gesehen
gm206 zu gp106 +70%
2018 bis heute nvidia 12nm ist da was besonderes anstatt die gpu preise zu belassen und mehr leistung für weniger geld hat man schlicht die preise erhöht und die Mittelklassen chips auf high end preise angehoben
amd 7nm 2019 ist da schon was neues endlich kann amd konkurrieren
Anstatt die preise zu Korrigieren haben die sich an nvidia angepasst.
Die Gründe sind die außergewöhnliche Bedingungen durch den weltweiten bitcoin betrug altbekannt als mining Krise
Das bedeutet einfach das die Leistung für das geld identisch blieb. (eol, hardware ausgenommen)


Nun was bedeutet das für nächste gen an gpu
Rdna2 mit rt wird erst 2021 kommen für den normalen Geldbeutel
Intel wird eine HPC gpu bringen und als Abfall nen mid class gpu wio allerdings mit den Treibern und zu directx Fähigkeit stark gezweifelt werden kann. vulkan und ogl wird man unterstützen können dx12 wirds an den patenten scheitern.
nvidia
nun da wird man ampere bringen allerdings ist nicht klar ob dies eine reine hpc arch wird.
Dazu muss man sagen das nvidia an einen mcm gpu chip arbeitet
Die consumer variante wird entweder stark verändert sein und es wird maximal nur 400mm² chips geben oder man schließt sich intels 3d stack Technik an
Was aber sehr wahrscheinlich ist das nvidia nur den Fertigungsprozess bei turing verkleinert
Bei den preise hängt jetzt alles an amd die geben vor was den bitte die nächste mid class gpu kosten wird.
Die Konsolen werden es festlegen.
ps5 q4 2020 Leistung bei rtx2080 kostet etwa 550$ keine sorge es wird 2 varianten geben eine 400$ allerdings langsamer getaktet Leistung etwa bei ner rtx2060
Bei den preise bedeutet dieser schritt nur das man mehr vram bekommt für 400$
Die gpu klassen bleiben bei derzeitigen preisen........ leider
es hängt aktuell davon ab wo den Intel und wie konkurrieren wird.

Das mal zu den preisen und Leistung.

Nun zur Technik
Wir haben derzeit ein massives cpu bottleneck ab 1080p
Die Lösung ist aktuell RT (dxr) um mehr die gpu zu fordern aber rein von den shadern her und arch kann man derzeitige high end gpu nicht auslasten.

Man kann immer mehr pixel durch die gpu jagen was an sich keinen Sinn ergibt aber die wirklichen optischen Verbesserungen sind am raster (dichte) und Texturen zu erkennen.
Für Texturen benötigt man schlicht mehr vram das kostet kaum Leistung aber aktuell ist bei 8gb Schluss ausgenommen prestige gpu's wie titan und co, beim raster allerdings mehr drawcalls von der CPu und hier haperst.
Um eine titan rtx auszulasten in 1080p benötigt man schon 5,2ghz cpu
Klar dann geht man auf 1440p was dann den takt auf nur 5ghz senkt.
4k nun da reiche auch die Üblichen 4ghz aus nur blöd das man auf dieser nativen Auflösung derzeit kein game entworfen wird.
Nahezu alle games richte sich an den Konsolen
aktuell max design bei den games 1080p
ausnahmen 1440p vornehmlich square enix und ubisoft
Es geht hier um max Auslastung der gpu nicht um die fps

Kann man mehr Leistung in neuen gpu noch steigern......... klares ja
Der weg führt zu Raytraying akä dxr
Das bedeutet das die shader anzahl nicht steigen wird sondern die arch verbessert wird.

amd rdna hat nvidia turing eingestellt. unerwartet von nvidia
nvidia arbeitet derzeit an einen MCM chip rein für hpc was so Mitte 2020 vorgestellt wird gdc
Intel wird auch einen HPC design vorstellen
amd wird ihre rdna2 arch und die neuen Konsolen als Leitfaden präsentieren aber erst ende 2020
Und dann einen high end gpu bringen navi30 mit RT ab 1000€ rx5900xt

Bis dahin gibs noch navi14 (rx5500) und navi20 (rx5800xt)
Was nvidia an consumer gpu bringt ist offen, vermutet wird ein refresh in 7nm zu gleichen preisen und gleicher Ausstattung

Wie gesagt erst 2021 kommt eine gpu raus die meiner als upgrade würdig wird für 250€

meine gtx 1060 seit 2016 wird die erste gpu die ich 5 Jahre im betrieb habe dann
Das hat was gutes man spart geld
 
syfsyn schrieb:
Zuerst mehr gpu Leistung lässt sich leicht erreichen indem man mehr shader und kleinere Strukturen verwendet
Die stagnation kam in den letzten Jahren durch die Fertigung

Einspruch Euer Ehren.

Die Stagnation rührt vom immer niedrigeren Ertrag bei erhöhter Anzahl an Cores.
https://upload.wikimedia.org/wikipedia/commons/thumb/e/ea/AmdahlsLaw.svg/1024px-AmdahlsLaw.svg.png

Man bewegt sich an der Grenze bezüglich des Corecounts (um die 5000), der bei Rasterisierung sinnvoll noch ein Geschwindigkeitsplus auf die Waage stemmen kann. Die Kurve ist insofern in der Realität in Sachen Grafik zu konservativ angezeigt, als dass der parallelisierbare Anteil bei Grafikberechnungen höher als die 95% liegen dürfte.

Somit bleibt den Chipdesignern, sofern man die Kosten bei sinkendem Nutzen nicht noch weiter explodieren lassen will, nur über andere Technik, neue Tricks, Fixed- Function- Einheiten ein Geschwindigkeits- Plus zu erreichen.

Eine andere Rendertechnik wäre zum Beispiel Raytracing, was entgegen der Rasterisierung fast dem Ideal an Parallelisierbarkeit gleichkommt. Damit könnte man extrem ausgedrückt auch auf jedes zu berechnende Pixel einen Core werfen und man würde noch eine Geschwindigkeitssteigerung ernten (wäre da nicht der Verwaltungsoverhead).

Somit stünden zumindest in Zukunft die Türen wieder offen für große Qualitäts- und Geschwindigkeitssteigerungen (was Unter anderem der Grund ist, warum jeder Hersteller die Technik (Raytracing) adaptiert).

Der herkömmliche Weg- Immer mehr Shader auf immer kleinerem Raum mit immer schnellerer Speicheranbindung wird allmählich nämlich in der Fertigung/im Design zu teuer/ineffektiv für rasterbasierte Anwendungen.

2018 bis heute nvidia 12nm ist da was besonderes anstatt die gpu preise zu belassen und mehr leistung für weniger geld hat man schlicht die preise erhöht und die Mittelklassen chips auf high end preise angehoben
Man hat nicht nur die gesamte Architektur umgekrempelt und das für die Zukunft so wichtige Async und Synced Int/FP eingebaut, sondern auch die oben angesprochenen Techniken integriert, die zukünftig wieder für Qualitäts-/und Geschwindigkeitssprünge sorgen können. Zudem noch Dinge wie Mesh Shader, Adaptiv Shading, DLSS etc.

Schon in der ersten Implementierung sind Auflösungen und Bildwiederholraten unter Nutzung der von Raytracing möglich, wie es vorher bei keiner derart schwerwiegenden Technologieeinführung war (T&L, Tesselation etc.).

Hat man am Anfang noch über die FullHd- Demos bei 30FPS mit einem Raytracing- Effekt gelacht, so kann man inzwischen z.B. in Control so gut wie alle Raytracing- Effekte auf einmal bei 60FPS+ spielen (2080TI vorausgesetzt).
Oder Battlefield WQHD auf 120FPS (ein Effekt).

Die Entwicklung geht in Sachen Raytracing geradezu RASEND schnell voran. Nach eine Jahr X- Fache Geschwindigkeitssteigerungen, über 30 zum Teil erschienene und auf bis Ende nächsten Jahres angekündigte Titel.

amd 7nm 2019 ist da schon was neues endlich kann amd konkurrieren
7nm ist ein Fertigungsprozess und hat mit dem Chipdesign oder was Neuem des Grafikkartenherstellers wenig bis nichts zu tun.

Anstatt die preise zu Korrigieren haben die sich an nvidia angepasst.
Wer sagt Dir, dass nicht die neuen Chipdesigns/Fertigungsnodes etc. so teuer sind, dass sie gezwungen waren, solche Preise zu nehmen?
Im Bereich CPU kümmern sie sich doch auch nicht darum, was der Konkurrent verlangt.

Rdna2 mit rt wird erst 2021 kommen für den normalen Geldbeutel
Das sehe ich anders - ich würde mich lieber anschnallen und mich daran gewöhnen, dass die Grafikkartenfertigung immer teurer werden wird und dahingehend auch die Preise gleich bleiben bzw. vielleicht sogar leicht ansteigen.

Nun zur Technik
Wir haben derzeit ein massives cpu bottleneck ab 1080p
Die Lösung ist aktuell RT (dxr) um mehr die gpu zu fordern aber rein von den shadern her und arch kann man derzeitige high end gpu nicht auslasten.
Das stimmt so nicht. Für das CPU Bottleneck gibt es DX12 als Medizin.
Und die Shader auszulasten ist das allergeringste Problem für die Entwickler. Nur gibt es die Klientel, die ihre Shader lieber mit 4K und 144FPS belasten will, denn mit qualitativ hochwertigerer Grafik.

Wie oben bereits geschrieben, befindet man sich in Sachen Rasterisierung und Fake- Effekten am Ende der Fahnenstange, so dass es inzwischen für einige Effekte rentabler ist, diese zu Raytracen, als diese schlecht zu faken. Zudem öffnet man mit Raytracing oben beschriebenen Korridore zu mehr Geschwindigkeit und Qualitätssteigerungen.

Für Texturen benötigt man schlicht mehr vram das kostet kaum Leistung aber aktuell ist bei 8gb Schluss ausgenommen prestige gpu's wie titan und co, beim raster allerdings mehr drawcalls von der CPu und hier haperst.
VRAM kostet es nur, weil für allerlei Fakes Daten im Speicher gehalten werden und zudem, weil man auch veraltete Texturverarbeitung setzt.
Virtual Texturing ist der heisse Scheiss, der künftig eingesetzt wird, wodurch der Bedarf an VRAM und Bandbreite ans I/O System der Grafikkarte signifikant sinkt (das Mipmap Berechnungen bzw. Speicherhaltung wegfällt und immer nur das active working set im Speicher zu halten ist.


Um eine titan rtx auszulasten in 1080p benötigt man schon 5,2ghz cpu
Das ist so auch nicht richtig. Du kannst eine Titaln RTX auch mit einer 4GHz CPU und einem Shitload an Post- Processing oder Kantenglättung auslasten. Zudem hat Deinen bloße Angabe "5,2GHz CPU" keinen Wert, da die Taktung nur einen Teil der Leistungsfähigkeit eines Prozessors preisgibt.

Klar dann geht man auf 1440p was dann den takt auf nur 5ghz senkt.
Unzulässige Verallgemeinerung, das Du keine der Stellgrößen die auf die FPS Einfluss bis auf eine ominöse Taktzahl in den Raum wirfst.

4k nun da reiche auch die Üblichen 4ghz aus nur blöd das man auf dieser nativen Auflösung derzeit kein game entworfen wird.
Siehe oben- Das ist schlichtweg aus der Luft gegriffen.

Nahezu alle games richte sich an den Konsolen
aktuell max design bei den games 1080p
Ich kenne kein PC Spiel (auch Ports von Konsolen) bei welchen verhindert wird eine höhere Auflösung zu fahren.

Kann man mehr Leistung in neuen gpu noch steigern......... klares ja
Der weg führt zu Raytraying akä dxr
Das bedeutet das die shader anzahl nicht steigen wird sondern die arch verbessert wird.
Genau umgekehrt. Die Shaderanzahl kann wieder sinnvoll steigen und 1:1 in höhere Geschwindigkeit umgesetzt werden.

amd rdna hat nvidia turing eingestellt. unerwartet von nvidia
rdna und turing sind was die Auslegung auf zukünftige Spieleentwicklung anbelangt MEILENWEIT voneinander entfernt. Mit RDNA2 versucht man die große technologische-/featuretechnische Lücke zu verkleinern.

LG
Zero
 
Zuletzt bearbeitet:
Es geht halt auch um die Zielgruppe. Welcher relevante Teil der Käuferschicht braucht mehr als eine 2070 oder eine RX 5700? Damit meine ich nicht die handvoll Enthusiasten wie sie natürlich überproportional hier zu finden sind sondern die breite 0815 Masse da drausen.

Da wird dann imho auch eher an der Effizienz gedreht als an der Leistung. Das macht Komplettsysteme insgesamt günstiger und stellt geringere Anforderungen an die restliche Hardware.

Wer professionelle Hardware braucht der fischt doch nicht in Consumergewässern.
 
ich glaube aber wenn Ampere raus kommt wird es ein Grosse Sprung geben. Kann wieder so ein Gen wie damals die Nvidia 9800 (Top P/L damals)

Hauptproblem ist einfach die Fertigung ist schwerige zu verkleinen.
Man sieht schon bei 7nm wie heiss die Chips sind!
 
Wieso kann man nicht einfach Chips bauen die auf 7nm Basis sind aber auf der doppelt so großen Fläche wie die Chips die amd in den 5700xt drinne hat?

Könnte man so nicht auch mehr Rechenleistung bekommen ?

Oder geht das nicht ? Keine Ahnung von sowas
 
@alne24
Kleinere Fläche, geringere Laufzeiten, höhere mögliche Taktung bei niedrigerer Spannung.

Also- Eher nein... Mit einer größeren Fläche egalisierst Du Faktoren dieser "Formel".

LG
Zero
 
  • Gefällt mir
Reaktionen: alne24
Zurück
Oben