Kurze Fragen - GFX-C, PCIe, Raytracing

G

Griff

Gast
Guten Morgen!

Nach über zehn Jahren arbeite ich mich zwecks Erstellung eines komplett neuen Systems erneut in Computertechnik ein. Recherchen werfen fast soviele Fragen auf, wie sie beantworten. Hätte daher zu den folgenden Fragen gerne kurz die Aussagen der Experten hier.
Wie ich bisher verstehe, limitiert beim derzeitigen Technikstand bei höheren Auflösungen stets die GPU-Leistung. Daher wird wohl eine derzeitige Top-CPU eine verhältnismäßig längere Laufzeit haben, als eine Grafikkarte (späteres Aufrüsten des neuen Systems).

Stichwort PCIe

PCIe 4.0/5.0, PCIe steht in den Startlöchern, 3.0 Bandbreite derzeit nicht ausgereizt, Hauptvorteil des neuen Bus-Standards also primär mehr Lanes um mehr PCIe-Devices ohne Line-Sharing simultan zu betreiben. Ist das so korrekt verstanden? Da ich außer einer GFX-C x16 lediglich eine M.2 PCIe 3.0 x4 NVME verwenden würde, würden mir auch die derzeit 20 - 24 Lanes genügen, wenn der restliche Massenspeicher (SATA SSD) an den Chipsatz angebunden wird. Korrekt?
Hätte ich bei der Verwendung einer (später mal neu gekauften) für PCIe 4.0 konzipierten GFX-C an einem 3.0 Steckplatz einen Performance-Choke durch den Bus zu befürchten?

Stichwort Raytracing

Da ich Spiele in der Retrospektive spiele, ich also wie damals ein System bauen möchte, das mir das Spielen von AAA-Games aus dem Bereich vor 5 Jahren (F-HD, max Settings) bis 5 Jahre in die Zukunft erlaubt (später maximal WQHD, mid Settings), versuche ich gerade Raytracing zu verstehen und sehe den vom Hersteller erzeugten Hype als eher kritisch. Ich gehe bei derzeitigen Überlegungen von Intel/NVidia-Kombinationen aus, wobei mir die AMD-Produkte immer sympatischer werden.


Werden zukünftig für Raytracing konzipierte Spiele, von dem Verzicht auf das Raytracing-Feature abgesehen, auch auf „minderwertigeren“ GPUs mit Zugeständnissen spielbar sein? Sicher, oder? Entschuldigt bitte meine Noob-Fragen!

Stichwort 1080ti

Mit der Einführung der neuen Serie (20XX) hoffe ich auf einen Preisabfall, bestenfalls sogar ein Refresh aktueller 1080ti-Modelle mit kleineren Abmaßen, geringerer Leistungsaufnahme bei gleichbleibender Grafikleistung. Ist das realistisch, oder nur mein Wunschdenken? Ich weiß, Glaskugelfrage, ohne Garantie, lediglich Spekulation. Aber vielleicht lässt eure Erfahrung ja eine Prognose zu. GTR-Karten kämen für mich derzeit überhaupt nicht in Frage. Aus verschiedenen Gründen.


Sorry für den langen Text.
Vielen Dank für eure Anmerkungen.

Gruß,
G
 
1080ti:
Das ist Wunschdenken. Die Karten sind vom Verkaufspreis zu verschieden, dh. viele die sich die neuen Modelle nicht leisten können/wollen, greifen zur 1080ti. Von einem Preisverfall kann man nur ausgehen, wenn eine neue, leistungsfähigere Karte im selben Preisgebiet angesiedelt ist, damit man den Abverkauf steuern kann.
Ein Neurelease der Karten mit neuer Fertigungsstruktur ist auch nicht sinnvoll. Es wird irgendwann Karten der neuen Serie geben die der 1080ti und den anderen Karten der alten Gen das Wasser abgraben. Wann das allerdings passiert, kp.
 
PCiE:
Bis das passiert ist das System was Du kaufen willst wahrscheinlich Altersschwach.

RTX:
Wir wissen nicht, was in Zukunft passieren wird. Niemand kann wenige Tage nach dem Release der ersten RT -unterstützenden GPUs sagen wohin sich das entwickeln wird. Ist es wie mit dem 3D Hype oder eine Technologie die angenommen wird? Man weiß es nicht. Ausgehend vom Nutzen würde ich dazu tendieren, dass die Technologie - wenn ordentlich eingesetzt- einen deutlichen Mehrwert bringt in der Perspektive. Insbesondere wenn es gilt die an ihre Grenzen kommende Rasterrisierungstechnologie nach und nach zu ersetzen durch physikalisch korrektere Methoden.

1080Ti:
Ich stimme dem Kollegen über mir zu. Dass die 1080Ti so arg im Preis verfällt wird nicht passieren. Bestehende Bestände werden abverkauft und dann verschwindet sie einfach vom Markt. So war es immer.
 
Was die anderen beiden geschrieben haben, plus den Hinweis, dass schon jetzt die Bestände bei den GTX 1080/1080 Ti sehr gering und einige Modelle schon gar nicht mehr verfügbar sind.
 
Es fehlen ja auch noch 2060(ti)/2070(ti). Mit der Leistungsregion in die die 2080ti vorgestossen ist, muss Nvidia seine Karten breit faechern.
 
Ich glaube nicht, dass eine RTX2060 Sinn macht. Wenn die 2080Ti bei RT schon "abkackt" ...naja mal auf die 2070 warten. Aber ich glaube die erste Gen. RTX sollte man den Enthusiasten und Early-Adoptern überlassen ;)
 
In kommenden Spielen wird man Raytracing als eine Grafikoption an- und ausschalten können. Ich kann mir also nicht vorstellen, dass in den kommenden Jahren eine RTX Karte notwendig ist um AAA-Titel spielen zu können. Hier sehe ich DLSS zwar als eine wirklich sinnvolle Innovation (mehr FPS bei besserer Kantenglättung), aber bis es genug Spiele gibt dass sich der Aufpreis lohnt, dauert es wohl noch eine Weile.
Ich persönlich würde daher zu einer 1080 (Ti) greifen und auf die nächste oder übernächste Generation von RTX-Karten warten, da die zusätzlichen Features dieser Karten dann hoffentlich sinnvoll implementiert sind und ein entsprechendes Spieleangebot vorhanden ist.

Du schreibst außerdem von einer Intel/Nvidia oder einer AMD Konfiguration. Vergiss nicht, dass eine AMD/Nvidia Konfiguration durchaus sinnvoll ist.
 
Zuletzt bearbeitet:
Stichwort PCIe: PCIe ist und war schon immer abwärtskompatibel. Du kannst auch eine 2080Ti an einem PCIe 1.0 x4-Anschluss betreiben - bremst diese aber dadurch unnötig. Mit einem aktuellen PCIe 3.0 x16-Anschluss dürftest du bei einer künftigen Grafikkarte nur minimale Einbußen zu erwarten haben. Eventuell sogar gar keine. Die aktuellen Technik-Trends steuern nicht auf höheren Bedarf an Bandbreite zu.

Stichwort Raytracing: Es ist eine neue Technologie mit sehr viel Potential und stark durch NVidia gefördert. Alte Grafikkarten ohne Raytracing-Cores werden definitiv nicht in den Genuss kommen. Mal als Vergleich: Eine GTX 970 ist ca. 70% langsamer als eine 2080Ti. Die 970 schafft ca. 10 MRays pro Sekunde, die 2080Ti ca. 10GRays pro Sekunde. Beim Raytracing ist dieselbe Karte also ca. 99,9% langsamer. Extrapolieren wir das mal, dann ist eine gleichwertige Karte ohne Raytracing-Cores beim Raytracen gut 99% langsamer - bei den ohnehin immensen Anforderungen von Raytracing ist es also nicht nur unwahrscheinlich, sondern ehre unmöglich, dass Karten ohne Raytracing-Cores auch nur ansatzweise mehr als ein Bild also 5-10 Sekunden erzeugen können, wenn Raytracing aktiv ist. Dieses Feature wird also nicht rückwärts portiert werden.

Ob diese Technologie in Zukunft relevant sein wird, hängt stark von der Marktentwicklung ab. Derzeit wird das stark von NVidia gefördert und NVidia behauptet, die Implementierung sei vergleichsweise einfach. Hier gibt es aber 3 Probleme. 1: Derzeit können nur NVidias Top-Karten Raytracen, der Einstieg ist mit 800€ also nicht günstig, weshalb ein Massenmarkt fehlt. Dem wird NOCH durch Unterstützung seitens NVidia entgegengewirkt. 2: Aktuelles Raytracing funktioniert nur, weil die Tensor-Cores die geringe Leistung kompensieren. 10GRays/s klingt viel, ist aber bedeutend zu wenig, um ein rauschfreies Video zu erzeugen. Durch den Einsatz der Tensor-Cores könnte NVidia erzwingen, dass es vorerst eine Nvidia-Exklusive Funktion bleibt, was den Markt und das Interesse an der Technologie vorerst verringert oder im schlimmsten Fall spaltet (wie bei Adaptive Sync). Auch ist zwar wünschenswert, aber unklar, ob andere Hersteller (AMD, Intel) ihre GPUs überhaupt entsprechend ausstatten werden. Das wäre notwendig, um das Feature auch längerfristig am Leben zu lassen. 3: NVidia ist nicht für seine Ehrlichkeit bekannt. Wenn Raytracing nicht so einfach zu implementieren ist, wie NVidia behauptet, dann wird das Feature sterben, sobald NVidia aufhört, Entwickler zu unterstützen.

Kurzum: Es wäre zwar wünschenswert, dass es in Zukunft mehr Relevanz bekommt, weil es technologisch der größte Sprung seit der Shader-Architektur ist, aber zur Durchsetzung gehört auch eine Massenmarktfähigkeit. Ob diese kommt, oder "zermonopolisiert" wird, ist unklar.

Stichwort 1080Ti: Die Karten heißen RTX, nicht GTR. Die 1080Ti hat keine Konkurrenz, maximal aus dem eigenen Haus. Und die 14nm-Fertigung wird mit Einführung der RTX-Karten nicht effizienter. Der Preis der 1080Ti wird sich leicht unter der 2080 einordnen aber über der 2070 bleiben - also genau da, wo er jetzt ist. Ein weiterer Preisverfall wird erst einsetzen, wenn es Konkurrenz für die Karte gibt. Davor stelle dir einfach folgende Frage: Warum sollte NVidia die Preise senken? Das ist kein Wohltätigkeitsverein sondern eine Firma mit wirtschaftlichen Interessen.
 
xdave78 schrieb:
Ich glaube nicht, dass eine RTX2060 Sinn macht. Wenn die 2080Ti bei RT schon "abkackt" ...naja mal auf die 2070 warten. Aber ich glaube die erste Gen. RTX sollte man den Enthusiasten und Early-Adoptern überlassen ;)

Ich glaube, die 2060 wird wieder GTX als Präfix haben, eben weil sie, wie du richtig sagst, zu wenig Rechenleistung für Raytracing hat. Wenn sie aber trotzdem mit RT-Kernen und Tensor-Kernen daher kommt, könnte das eine ziemlich interessante Karte werden. Naja, abwarten, Tee trinken
 
Nicht einmal 24 Stunden und ALLE Fragen verständlich beantwortet plus zusätzliche Hinweise und Tips.

Besser geht's nicht. Danke an alle!

G
 
Zurück
Oben