Warum die Grafikleistung immer weniger ansteigt und Intel es noch verschlimmern wird

Immer wieder erstaunt dass auf CB manch unerkanntes Genie der Halbleiter-Technologie und Forschung noch Threads aufmacht, statt sich direkt zu bewerben und neue Technologien zu entwickeln ...

Wer meint dass Forschung trivial ist und mit dem Budget skaliert und beliebig planbar ist, physikalische Grenzen nur mit Geld und Personal ueberwunden werden koennen, der sollte doch bitte den Herstellern helfen. Das alles kann doch so einfach sein,
Danke schon mal im vorraus.

Schoenen Abend allen noch!
 
  • Gefällt mir
Reaktionen: coasterblog, olligo, Celinna und 2 andere
whats4 schrieb:
die leistung ist eh da.
die meisten engines nutzen zuwenig davon.
Stimmt zum Teil. Die Engine brauchen zum einen ihre Zeit bis sie optimal laufen. Andererseits werden neue Techniken genutzt wie Raytracing & DLSS.
In Anbetracht der Tatsache, dass sich bereits davor mehr und mehr 4K-Gaming durchgesetzt hat, sind die Karten deutlich zu schwach. Alle Funktionen aktiviert kann man halbwegs mit FHD spielen, aber kein 4K. Also da fehlt den Karten noch einiges.
Ähnlich war es das gleiche damals beim ersten Teil von Crysis. Keine Karte konnte das vernünftig stemmen. Auch da war die Leistung erst mit der nächsten Generation halbwegs gegeben. Und die Crysis-Engine war schon recht gut optimiert.
Bis man alle heute verwendeten Funktionen unter 4K optimal nutzen kann, wird es wahrscheinlich noch bis zur übernächsten Generationen dauern.
 
Zuletzt bearbeitet:
KnolleJupp schrieb:
Das die RTX Karten zu teuer verkauft werden, ist ja wohl allgemein bekannt und anerkannt.

Angebot und Nachfrage. Der Markt könnte es einfach regulieren, indem niemand die Karten kauft, inzwischen hat man ja auch gute Alternativen mit der rX5700 XT.

Generell finde ich solche Diskussionen interessant und gut wenn sich einer Gedanken macht. Allerdings ist es schade, dass der Beitrag quasi nur aus irgendwelchen wirren Theorien besteht. Ich bin auch kein Chipexperte oder Informatiker, aber wenn man sich mal durchliest wie ein Chip gefertigt wird, was man dazu benötigt etc. brauch man kein Experte zu sein um zu wissen wieso es so geringe Leistungssprünge gibt. Wäre schön wenn sich das Thema mehr in die Richtung entwickeln würde.
 
Naja die Ansprüche einer realistischen Grafik sind kräftig gestiegen (vor allem Schatten, Grasqualität, Rauch, Wetter usw), deshalb sind werden die GPUs nur ~5% schneller jährlich. Spielt man ohne die genannten, sind wir wieder in 2004 gelandet.
 
obwohl, overall kriegt man sehr schöne leistungen im mainstream/budget gaming.
so schöne leistungen, wie nie zuvor.
natürlich hab ich schon genug gesehen, daß mich neues, wie rtx, zwar schon interessiert, aber neverever spiele ich jemals wieder early adopter.
d.h. mich interressiert´s wirklich so ab 2022.

traurig ist teilweise der wissensstand der user, manchmal denk ich direkt: die arme hardware, und das
leider gepaart mit an sich potenter hardware.
 
w33werner schrieb:
Der Grafikmarkt stagniert dagegen.
Dann schau dir mal die Umsatzzahlen von Nvidia der letzten paar Jahre an ...
w33werner schrieb:
die Performance Sprünge damit kleiner
performance_RTX.png


Quelle: https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/
 
Die Antwort auf deine Feststellung ist mit "Moore's law" verbunden, es wird halt immer schwieriger und aufwendiger.
 
Das richtig grosse Geld investieren intel und nvidia schon noch, aber nicht mehr primär in Technik, die auf den HeimPC Bereich zielt. Und beide haben die komfortable Marktposition, dass man den stagnierenden HeimPC Markt ungestraft langsamer angehen kann.

intel hat die letzten 15 Jahre irre Geldmengen und Personalkapa und Fertigungskapazität lieber in non-x86 Grossprojekte und Zukäufe versenkt: zB Larrabee (damit wollten sie schon mal erfolglos konkurrenzfähige Grafikchips bauen), Mobilfunkmodems, Smartphones CPUs, FPGA Beschleuniger, KI Beschleunigerkarten, itanium, (Edit, da vergessen: ) Optane

Bei nvidia ist es analog mit den Prioritäten: was geht, stecken die primär und massiv Personalkapa in KI Beschleunigerkarten, Rechenzentrumtechnik, KI CPUs für autonomes Fahren und ihre Autoentertainmentplattform.

Das Problem dabei aus PC-Endkundensicht: Es ist dann nicht mehr genug fähiges Personal und Budget über, das man dann noch auf bahnbrechende x86 HeimPC-Projekte abwerfen könnte.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: w33werner
whats4 schrieb:
obwohl, overall kriegt man sehr schöne leistungen im mainstream/budget gaming.
so schöne leistungen, wie nie zuvor.
natürlich hab ich schon genug gesehen, daß mich neues, wie rtx, zwar schon interessiert, aber neverever spiele ich jemals wieder early adopter.
d.h. mich interressiert´s wirklich so ab 2022.

traurig ist teilweise der wissensstand der user, manchmal denk ich direkt: die arme hardware, und das
leider gepaart mit an sich potenter hardware.
Potente Hardware ja. Sofern die neuen Techniken nicht eingesetzt werden, kann man so ziemlich alles auf 4K spielen. Wenn ich das Desaster aber sehe, was Raytracing in den ersten 6 Monaten verursacht hat, dann ist das ganze doch weniger toll.
Da wird die Werbetrommel wie wild gerührt und am Ende kommen dann Auflösungen raus, die im HighEnd-Gaming kaum noch einer Spielen will.
Viele kauften sich 4K Monitore, 2/3-Monitor-Settings und was weis ich, die schnellsten CPU´s weil sie denken, jetzt kann ich alles in hoher Auflösung spielen und realistischer als je zuvor und am Ende ist man doch enttäuscht, weil die ach so tolle Technik der neuen Software, gar nicht vernünftig genutzt werden kann und wenn, dann nur mit Einschränkungen. Da gibt's Spiele die unter 4K schon allein vom VRAM mal locker 15 GB oder mehr haben wollen, um ruckelfrei zu laufen.
Es gibt eben mittlerweile viele, die kein FHD mehr spielen wollen, weil sie, wie sie oft sagen, sowas wie Augenkrebs davon bekommen. :)
Das was ich mir selbst für den Herbst diesen Jahres vorgenommen habe, nämlich auf einem 32 : 9 Monitor mit 5120x 1440 zu spielen, kann man mit einer RTX schon fast vergessen, wenn Raytracing und DLSS im Spiel sind. Sicher, die meisten Spiele kann man damit schon spielen, aber einige, gerade von den AAA-Titeln, da muss man Abstriche machen.
Aber wie dem auch sei, die Softwareentwicklung hat größere Sprünge in den letzten Jahren gemacht, als die Hardware.
 
ich kenn ein mittel gegen augenkrebs bei fhd:
vier wochen msdos & vga mode 13h only:evillol:
 
Tramizu schrieb:
Aber wie dem auch sei, die Softwareentwicklung hat größere Sprünge in den letzten Jahren gemacht, als die Hardware.

sehe ich nicht so.

Du zählst hier 4k und RT auf. (übrigens sehr gut die aktuelle Problematik am PC beschrieben!)

RT ist noch ziemlich neu und nur in wenigen Spielen drin, bisher nur bei einer Grafikkarten-Serie vertreten.
Kommt erst nächstes Jahr auf Konsole und AMD.

Die meisten aktuellen Spiele brauchen immer mehr Leistung, sehen aber kaum besser aus als ältere Titel (gibt natürlich immer Ausnahmen)

Fakt ist schon und das meint wohl eigentlich der TE, die sichtbaren Sprünge werden immer kleiner.

Der TE hat aber einen Trugschluss bei der Hardware, es gab und gibt immer Zeiten der Stagnation, allerdings hat sich die Leistung jetzt doch die letzten Gens im High-End Segment beachtlich gesteigert, man nehme mal eine Titan aus den ersten Serien, die ist ein Joke verglichen mit aktuellen Modellen.
Hab selber noch eine ältere Grafikkarte und merke langsam den Sprung enorm, man muss schon auch auf die Rechenleistung der Karten schauen, auch wenn das nur teilweise ummünzbar ist auf die Spieleleistung,es ist aber ein Indikator.
Die Hardware hat die letzten Jahre bei CPU-Kernen und jetzt auch den Grafikkarten nach sehr langer Stagnation enorme Sprünge gemacht.

Überleg doch mal selbst, sagen wir vor 4 Jahren, hättest da einem von einer 2080Ti erzählt was die darstellen kann und einem 8 Core bei AMD und Intel die auf 5 GHz laufen... hätte doch jeder gesagt ist irre.

Ich sehe das eher so die Entwickler sind am Ende einer Konsolen Gen immer fauler und beim nächsten Sprung wird einfach extrem die stärker vorhandene Hardware genutzt, erst später besser optimiert.

Genau diesen Übergang sieht man gerade wieder, speziell am PC wird High-End eh nie richtig ausgenutzt, es ist besser leicht darunter zu kaufen und öfter aufzurüsten. Wirst sehen Ende nächsten Jahres und dann 2021 ist der Sprung auch am PC deutlich sichtbar, da geht mit alter Hardware immer weniger.
Speziell was VRAM angeht wird es sehr eng mit alten Systemen, aber auch die Rechenleistung wird bei den neuen Konsolen in etwa auf aktuellen High-End PCs liegen und seien wir ehrlich, am PC haben die wenigsten High-End, sind eher ein paar %.
 
Ein Thread ala viel Meinung und wenig Ahnung...….
 
Besser, als wenn man weder das eine, noch das andere hat.
 
  • Gefällt mir
Reaktionen: Gsonz
Naja wenn man, wieder TE, so viel Unwissenheit preisgibt, dann sollte man tatsächlich besser nichts schreiben...
 
w33werner schrieb:
Eine GTX 1080 hat vor 2,5 Jahren ungefähr 520€ gekostet. Heute gibt es dafür ca eine 2070 RTX super. In WHQD ist die Super ca. 30% schneller als die 1080.

Und hier ist schon der erste Logikfehler: Die 2070 (Super ist ja nur das Refresh) ist nicht der Nachfolger zur 1080, sondern zur 1070. Und vor 2,5 Jahren gab es schon Preissenkungen der 1080, da Release vor ~3 Jahren war.

Tatsächlich ist der Sprung von Navi/Turing im Vergleich zur vorhergehenden Generation seit längerem endlich mal wieder größer als die Jahre davor. Zusammen mit immer mehr Spielen, die zukünftig deutlich besser auf die Low-Level-APIs DX12 und Vulkan optimiert sind, werden wir einen noch deutlicheren Abstand zur älteren Generation sehen, da sowohl Turing als auch Navi deutlich besser mit jenen APIs klar kommen. Siehe dazu bspw. aktuelle Titel wie Control oder Wolfenstein Young Blood.
 
Die These, dass die Innvotationsgeschwingkeit vom Forschungsbudget abhängt ist ja grundsätzlich nicht falsch, aber hier nicht so relevant wie man vielleicht glaubt. AMD und Nvidia sind beide fabless und müssen ihre Chips von TSMC, GlobalFoundries oder Samsung fertigen lassen. Die Investitionskosten für die Erforschung eines neuen Herstellungsprozesses und die Erstellung der Fabriken dafür, übersteigen die Kosten für die Entwicklung eines Grafikchipdesigns um ein vielfaches. Den nächsten großen Sprung werden die Chips von Nvidia machen, wenn sie ,wie AMD, auf 7nm wechseln. Sie werden dafür den 7nm Herstellungsprozess von TSMC und Samsung nutzen. Der 5nm Prozess ist bereits fast fertig und der 3nm Prozess macht große Fortschritte. Damit sollten deutliche Leistungssteigerungen über die nächsten 5 Jahre möglich sein.
 
Wenn ich Nvidia wäre, würde ich die Leistung nicht soweit steigern wie möglich, sondern nur soviel wie nötig. Konkurrenz gibt ja nicht wirklich und Intel muss dann ab nächstes Jahr erst mal zeigen was sie können und was nicht.
Tatsache ist doch, dass der kleinere Fertigungsprozess, bisher keine Vorteile bietet. Sonst müssten AMD CPU´s und GPU´s (Nvidia/GPU) & (IntelCPU) doch schon irgendwo mehr oder weniger deutlich überlegen sein. Und solange Nvidia nichts wirklich zu befürchten hat, werden die auch nur das nötigste tun. Bei Intel (GPU) wird man ab nächstes Jahr erst mal beweisen müssen, dass sie konkurrenzfähig sind. Bei den CPU´s, ja weis ich selbst nicht was da kommen wird und was nicht, aber die Steigerungen sind hier von Gen zu Gen eben immer nur minimal.
 
Zuletzt bearbeitet:
Tramizu schrieb:
Konkurrenz gibt ja nicht wirklich

Deswegen sah sich nVidia ja auch nicht genötigt, das eigene Portfolio mit den "Super" Karten zu kanibalisieren, nicht wahr...
 
Tramizu schrieb:
Tatsache ist doch, dass der kleinere Fertigungsprozess, bisher keine Vorteile bietet. Sonst müssten AMD CPU´s und GPU´s (Nvidia/GPU) & (IntelCPU) doch schon irgendwo mehr oder weniger deutlich überlegen sein.
Bei den Ryzen CPUs sieht man ja was 7nm bringen kann. Mit dem Sprung auf 7nm konnte AMD bereits Intel überholen.
Bei den GPUs hat AMD noch einen Nachteil, weil selbst Navi nicht so effizient ist wie Turing, aber ohne 7nm wäre es ihnen nicht gelungen die RTX2070 einzuholen. Man darf auch nicht vergessen, dass das erst die kleinen Navi GPUs von AMD sind. Die Die-Size für einen Navi 10 XT beträgt lediglich 251mm², ein TU106 hat dagegen schon 445mm²
 
Zurück
Oben