Notiz Turing für Profis: Nvidia Quadro RTX 6000 und RTX 5000 vorbestellbar

Shoryuken94 schrieb:
Die Vega 64 ist auch ein gutes Stück langsamer als die 2080Ti ;)

Und?

Shoryuken94 schrieb:
Aber ein Beispiel, Titanfall 2. Macht bei mir in 1080p die 9GB voll mit maximalen Textursetiings.

Schlechtes Beispiel mit falschen bzw. deutlich übertriebenen Fakten.
Dass Titanfall 2 viel zu viel Speicher für die gebotenen Texturen nimmt ist bekannt.
Aber selbst mit maximalen Texturen braucht es niemals 9GB bei 1080P (?!?) ...

Hier ein Beispiel:


Er benötigt mit den selben maximalen Einstellungen (inkl. max. Texturen) nur 7-8GB bei 3440x1440!

Kann ich kaum glauben, dass du bei nicht einmal annähernd der halben Pixelmenge mehr VRAM verbrauchen willst.

Shoryuken94 schrieb:

...


Shadow of the Tomb Raider braucht nicht viel VRAM.

Bei 4K (!!!) gerade einmal 7-8GB. Nicht annähernd 11GB.
Und mit einer RTX 2080, geschweige denn irgendeiner Grafikkarte darunter hat 4K sowieso keinen Sinn bei maximalen Einstellungen.

Dass Spiele mehr VRAM für maximale Texturen benötigen werden, wird sich in Zukunft auch nicht so schnell ändern, da die meisten Grafikkarten, die aktuell von Mainstream Nutzern verwendet werden eher 2-4GB VRAM besitzen. Bei aktuellen Konsolen stehen gerade einmal 8GB Ram bereit, die als Systemspeicher, sowie VRAM hinhalten müssen.
Und der Mainstream Markt ist begeistert von der unglaublichen Grafik, welche diese bieten ... eben für diesen Mainstream Markt werden Spiele entwickelt.

Nutzer mit einer Vega 64, GTX 1080 Ti oder sogar einer neuen RTX sind Randerscheinungen und das wird sich auch nicht ändern. Die Priorität für solche Nutzer extra hochauflösende Texturen zu erstellen dürfte bei den meisten Studios sehr gering sein.

In 5 Jahren mag alles vielleicht anderst aussehen, aber mal abgesehen, dass der übliche Nutzungszeitraum eines Early Adopters einer RTX 2080 Ti wohl eher bis zur nächsten Grafikkartengeneration als 5 Jahre beträgt, wird diese Grafikkarte (so wie die erwähnte GTX 780 Ti heute) in 5 Jahren sowieso eher zur Mittelklasse gehören. Dort werden die 11GB auch in 5 Jahren vermutlich noch ausreichen.

Aus welchem Grund sollten Spiele (bei maximalen Texturen) bis zum Nachfolger der RTX 2080 Ti mehr als 11GB benötigen? Der Nachfolger wird eher 2 Jahre als 1 Jahr auf sich warten lassen.

AMD wird 2019 zu 1000% keine Grafikkarte mit mehr als 11GB vorstellen, da Navi Mittelklasse wird und dort mehr keinen Sinn machen würden. Ein Vega Nachfolger ist frühestens 2020 in Sicht.

Somit ist doch fast schon belegt, dass im üblichen Nutzungszeitraum nicht mehr als 11GB benötigt werden. Warum Texturen erstellen, die mehr VRAM benötigen, als die am Markt für Spieler verfügbaren Grafikkarten?

Aber "22 GB" hätte sich auf dem Karton einer RTX 2080 Ti besser gemacht, ich verstehe schon. Mehrwert überflüssig.
 
Shoryuken94 schrieb:
FuryX, GTX780, 780Ti, 980, 770, 680, 670, 960, 1060 3Gb, Rx580 4gb... Komisch das meiste sind Nvidia Karten ^^

Falsch, du hast einfach nur größtenteils Nvidia Grafikkarten aufgelistet.
Ein Beitrag dämlicher als der andere ...

GTX780 - 3GB UND 6GB Version - Konkurrenz: R9 290 4GB
780Ti - 3GB - Konkurrenz: R9 290X 4GB
980 - 4GB - Konkurrenz: RX480 4GB
770 - 2GB UND 4GB Version - Konkurrenz: R9 280x 3GB
680 - 2GB UND 4GB Version - Konkurrenz: ATI 7970 3GB
670 - 2GB UND 4GB Version - Konkurrenz: ATI 7950 3GB
960 - 2GB UND 4GB Version - Konkurrenz: ATI RX 460 / 470 2GB/4GB
1060 3Gb - 3GB UND 6GB Version (!) - RX 480 4GB

Es wurde selbstverständlich jeweils das AMD/ATI Konkurrenzprodukt genommen, das kurz vor/nach der Nvidia Grafikkarte released wurde. In fast allen Fällen war Nvidia Vorreiter um einige Monate.

Erkenne da keinen nennenswerten Vorteil für AMD wenn man das Ganze mal auflistet. Bei den Grafikkarten, die du genannt hast, liegt eher Nvidia im Vorteil, was Speichergröße angeht.

"Komisch das meiste sind Nvidia Karten ^^"Klingt nach dem typischen Fanboy Gequatsche ohne Halt.

In der Regel macht das Unternehmen mehr Umsatz, das für die meisten Kunden die besseren Produkte anbietet.

Muss man Leute wie dich verstehen? Müsste man nicht davon ausgehen, dass die meisten Kunden einfach das bessere Produkt kaufen? Deine Meinung über ALLE Nvidia Grafikkarten beruht nur darauf, dass deine GTX 780 Ti 1GB weniger als die damalige Konkurrenz hat und die neuen RTX Grafikkarten wenige Tage nach Release noch teuer sind.

Dabei hat sich die GTX 1080 blendend verkauft, trotz einem Preis von 789€ zum Release (habe ich selbst bezahlt). Jetzt zu heulen, wegen einer Preiserhöhung von 60€ zur RTX 2080 ist doch lächerlich.
Als damals die GTX 1080 Ti ein Jahr nach der GTX 1080 vorgestellt wurde, ist diese auch im Preis gefallen; Geduld.

Den Releasepreis der GTX 1080 Ti, mit dem der RTX 2080 Ti zu vergleichen ist einfach nur dämlich. Zwischen dem Release der GTX 1080 und der GTX 1080 Ti lagen fast 1 Jahr.
Die Titan X (Pascal) wurde kurz nach der GTX 1080 vorgestellt, wenn dann müsste man den Preis der RTX 2080 Ti somit mit dem der Titan X (Pascal) zum Release vergleichen.
Und diese liegen bei - Überraschung - 1.349€ für die Titan X (Pascal) bzw. 1.259€ für die RTX :freaky:

Hätten Sie die RTX 2080 Ti bei selber Hardware RTX Titan benannt, hätte sich keiner über den Preis beschwert. Aber diejenigen, die sich über den Preis neuer Highend Technik beschweren, sind voraussichtlich sowieso keine potentiellen Kunden solcher Hardware ...

Ich hatte schon viele AMD/ATI, wie auch Nvidia Produkte, und IMMER habe ich einfach nur die bessere Grafikkarte für den Einsatzzweck gekauft. Seid Ihr alle Aktionäre oder weshalb gibt es gerade hier auf CB so viele voreingenommene User?

Aktuell ist Nvidia zumindest im Highend Markt weit vorne, darüber braucht man nicht disskutieren. Ob nun 11GB oder 22GB ist sowas von egal, wenn AMD nicht einmal ein Konkurrenzprodukt, geschweige denn überhaupt eine Grafikkarte für Spieler mit mehr als 8GB anbietet ...


Shoryuken94 schrieb:
... und da finde ich die 8GB schon ziemlich peinlich bei den aufgerufenen preisen. Es ist nur GDDR Speicher und kein HBM, da erwarte ich schon mehr Speicher, als auf einer über 2 Jahre alten Mittelklasse Grafikkarte für 250€.

RTX Grafikkarten verwenden GDDR6, dieser ist min. gleich schnell, meistens aber schneller als der in den Vega Grafikkarten verbauten HBM2 Speicher. Als Uninformierter zu behaupten das wäre "nur" GDDR Speicher ist wohl eher peinlich ...
Fast genau so peinlich, wie die Kosten einer Grafikkarte nur auf den Speicher in GB zu reduzieren ...

Was du erwartest ist übrigens nicht relevant. Du erwartest nur, dass die Zahlen steigen - irrelevant ob es einen Nutzen hat oder nicht.

Relevant ist, was der Kunde benötigt . Da wie schon erwähnt AMD weder 2018, noch voraussichtlich 2019 Grafikkarten mit über 8GB HBM Speicher anbietet bzw. anbieten wird und somit 11GB, bis auf die Titan V, das (mit deutlichem Abstand) Maximum an Speicher in allen Grafikkarten darstellen wird, wird es auch keine Spiele geben, die mehr benötigen.

Vielleicht sollte man manchmal einfach die Fakten anschauen, anstatt immer nur die "rote" oder "grüne" Brille aufzuhaben?
 
Zuletzt bearbeitet:
FCK-THIS schrieb:
nVidia vs AMD

660 2GB vs 7850 1GB&2GB
670 2GB&4GB vs 7950 3GB
680 2GB&4GB vs 7970 3GB&6GB
690 2x2GB vs 7990 2x3GB

760 2GB&4GB vs R9-280 3GB
770 2GB&4GB vs R9-280x 3GB&6GB
780 3GB&6GB vs R9-290 4GB
780Ti 3GB vs R9-290X 4GB&8GB

960 2GB&4GB vs R9 380X 2GB&4Gb
970 3,5GB+0,5GB vs R9 390 8GB
980 4GB vs R9-390X 8GB
980Ti 6GB vs Fury X 4GB HBM

1060 3Gb&6GB vs RX 480 4GB&8GB
1070 8GB vs Vega56 8GB
1080 8GB vs Vega64 8GB
1080Ti 11GB vs ???

2070 8GB vs Vega64 8GB
2080 8GB vs ???
2080Ti 11GB vs ???

Ich habe deinen Beitrag mal korrigiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CyberdyneSystem, Herr Melone, aldaric und 2 andere
FCK-THIS schrieb:
Schlechtes Beispiel mit falschen bzw. deutlich übertriebenen Fakten.
Ich mach dir heute Abend einen Screenshot :)
FCK-THIS schrieb:
Nutzer mit einer Vega 64, GTX 1080 Ti oder sogar einer neuen RTX sind Randerscheinungen und das wird sich auch nicht ändern. Die Priorität für solche Nutzer extra hochauflösende Texturen zu erstellen dürfte bei den meisten Studios sehr gering sein.
Kaun ein Entwickler entwickelt für den PC sondern für die Konsolen. Auf dem PC gibt's dann einfach die unkomprimierten Texturen. Dir Konsolen haben aktuell 8-12 GB RAM. Klar nicht alles als vram nutzbar. Aber dafür sind die Texturen ausgelegt.
FCK-THIS schrieb:
Komisch das meiste sind Nvidia Karten ^^"Klingt nach dem typischen Fanboy Gequatsche ohne Halt.
Oh ja bin voll der Fanboy ^^ weil meine 3 letzten Grafikkarten auch nicht von Nvidia waren.
FCK-THIS schrieb:
RTX Grafikkarten verwenden GDDR6, dieser ist min. gleich schnell, meistens aber schneller als der in den Vega Grafikkarten verbauten HBM2 Speicher. Als Uninformierter zu behaupten das wäre "nur" GDDR Speicher ist wohl eher peinlich ...
Fast genau so peinlich, wie die Kosten einer Grafikkarte nur auf den Speicher in GB zu reduzieren ...
GDDR6 ist weder schneller noch langsamer es kommt auf das Interface an. GDDR6 an einem 32 Bit Speichercontroller ist ziemlich lahm, ab 512Bit ziemlich schnell. Es ging mir dabei aber weniger um den spped, als um die Komplexität und kosten. HBM ist deutlich teurer, alleine durch den riesigen Interposer. Wenn schon normaler GDDR Speicher und sei es in der Version 6, verwendet wird, dann erwarte ich da als Kunde schon etwas mehr, Vor allem bei dem Preispunkt.

Und nein ich bemessen nicht nur nach der Speichergröße. Ich habe lediglich gesagt, dass 8Gb mittlerweile halt schon in der Mittelklasse angekommen sind. Aber wie gesagt, wenn man selbst nicht den Anspruch hat.
FCK-THIS schrieb:
Ob nun 11GB oder 22GB ist sowas von egal, wenn AMD nicht einmal ein Konkurrenzprodukt, geschweige denn überhaupt eine Grafikkarte für Spieler mit mehr als 8GB anbietet ...
16GB mit einem vernünftigen 512 Bit Interface wäre doch Mal was ;)

Nvidias Endkunden Karten spielen langsam Preislich in Regionen, wo man auch Profikarten bald kaufen kann. Eine 16GB HBM2 Vega Frontisr war teils deutlich günstiger zu bekommen, als eine 2080Ti.
FCK-THIS schrieb:
Vielleicht sollte man manchmal einfach die Fakten anschauen, anstatt immer nur die "rote" oder "grüne" Brille aufzuhaben?
Tja vielleicht sollte man das und Kritik nicht immer so negativ auffassen ;)

Wenn man so viel Geld für ne RTX ausgibt und man nur so viel Speicher wie vor 2 jahren will okay. Ist ja jedem seine. Die Leute lassen sich halt gerne von Nvidia, Intel und co. Melken. Man braucht ja nicht mehr Speicher, Leistung etc. ^^ Hauptsache man hat Features die irgendwann Mal kommen und irgendwie Mal laufen. Dafür zahlt man gerne Aufpreis. Vielleicht sollten einige eher die grüne brille absetzen und sich nicht einreden, das man mehr Speicher etc. Nicht braucht.
 
Nenn mir bitte ein Spiel, dass mehr als 8GB bei 1440P (RTX 2080)
Rhetorische Frage, es gibt keines, sofern man nicht 4K mit 8xTXAA bei 15FPS spielt.
Zuletzt lief die RTX2080 in Rise of the Tomb Raider unter DX12 ruck zuck ins Speicherlimit und es entstanden extreme Nachladeruckler. Schade, denn selbst 4K wäre kein Problem wenn man am Vram nicht gespart hätte
ab min: 50:28min geht´s los

Nachtrag:
Shadow of the Tomb Raider braucht nicht viel VRAM.
Also ich komme je nach Level/Umgebung selbst @1080p&Max-Settings auf über 7GB Vram...
Besitzt du das spiel überhaupt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shoryuken94 und aldaric
Was sagte Lederjacke @ Gamescom? 10 Gigarays....Rays everywhere...shoot as many rays as you want! :daumen:
 
CyberdyneSystem schrieb:
Zuletzt lief die RTX2080 in Rise of the Tomb Raider unter DX12 ruck zuck im Speicherlimit und es entstand extreme Nachladeruckler
ab min: 50:28min geht´s los

Wahnsinn. Es wird hier wirklich noch verteidigt das man eine GPU mit "grade mal genügend" Speicher zu solchen Preisen raushaut. Viele Kunden kaufen die Karten auch um sie mehrere Jahre zu nutzen. Wie man sieht gibt es sogar jetzt direkt ein Negativ-Beispiel wo 8 GB limitieren und zu nachladerucklern führen. Für ein 800+ € Produkt das grade frisch am Markt ist, ist das absolut nicht akzeptabel. Vor allem da nVidia bei Tomb Raider ja die Finger mit im Spiel hat bei der Entwicklung.
 
  • Gefällt mir
Reaktionen: Shoryuken94
DX12 Schrott, musst mal weiter schauen das Video...
RT interessiert ja eh niemanden bei 4k.
 
Das ,,Rise of the Tomb Raider" Probleme macht hat meiner Meinung wenig mit Speicher Limit zu tun. Wenn man das Video genau ansieht ruckelt es auch mit 7,6 GB Auslastung... Das sieht viel mehr nach einem Problem mit dem DX12 Renderer in Kombi mit NV Driver RTX in ,,Rise of...."

Denn unter DX11 wie man in dem Video ab 1:01 Stunde sehen kann gibts mit 7,8GB keine Probleme.

Und das Rise of the Tomb Raider nicht gerade effizient mit Texturen umgeht sieht man daran das Shadow of the Tomb es besser macht...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FCK-THIS
uwei schrieb:


DX12 Schrott oder mal wieder eine Nvidia Architektur, die mit aktuellen API nicht wirklich gut zurecht kommt ;) Wenn es an DX12 liegen würde, müsste es ja auch AMD betreffen.

Aber Hey, nur 7,8GB von 8 belegt, da ist noch lange Luft nach oben :D Vielleicht streichen sie ja nächstes mal sogar Vram. Findet dann bestimmt auch Leute, die das verteidigen. 1000€ 6Gb GDDR6(x) auf der 3070, leistung eine 1080Ti. Mehr braucht doch eh keiner :)
 
lalelu schrieb:
Ich hoffe du nutzt die Iray Texture Compression? Immerhin ein Highlight von Iray. Je nach Anteil der Texturen kommt man mit einem Drittel der Speicherbelegung aus.
Ein Feature, welches ich mir auch in vielen anderen Engines wünschen würde.
Der ist Standardmäßig aktiviert, im Arbeitsspeicher umfassen die Szenen so zwischen 8-12 GB Ram, viele Texturen kommen mit 4096*4096, besonders, wenn es um menschliche Haut geht. Die von mir verwendeten Modelle haben 5 Körperzonen, Arme, Beine, Torso, Gesicht, Augen. Der Shader für Haut ist sehr Komplex und hat über 20 channels, ich nutze meist den Diffuse Channel, Translucency, Specular, Glossy, Bump und Displacement oder Normal Maps. Das wären dann ca. 6 Texturen 4096*4096 für je 4 Zonen= 24 pro Person. Dazu noch 4 Texturen für die Augen in 2048*2048, das kann man dann noch mit Geometrie Shells oder Decals überziehen für Special Effects. Und da hat man noch keine Haare und Kleidung, Umgebung.
Da ich das nur als Hobby mache, nutze ich Daz3D mit iRay als freeware und Hexagon zum modeln bzw morphen, eine alte Version von Photoshop für die Bildbearbeitung usw.

Angefangen hat das bei mir alles mal mit RPG und ein bisschen modding, bin dann aber schnell von den Game Engines zu CAD/Render Programmen gewechselt und habe mir die Umgebung selbst zusammen gebaut oder zusammen gestellt. Das ist natürlich ein ganz anderer Weg, als er für Profis üblich ist, entsprechend habe ich mir nie die Mühe gemacht, 3DSmax oder Maya zu lernen. Wenn ich mal wieder mehr Zeit habe, werde ich mir vielleicht 3D-Coat zu legen und mich im Texturing verbessern, vor allem über Seams bei organischen Modellen ist man mit 2D Bildbearbeitung schnell am Ende des Möglichen angekommen.
Ergänzung ()

Aldaric87 schrieb:
Wahnsinn. Es wird hier wirklich noch verteidigt das man eine GPU mit "grade mal genügend" Speicher zu solchen Preisen raushaut. Viele Kunden kaufen die Karten auch um sie mehrere Jahre zu nutzen. Wie man sieht gibt es sogar jetzt direkt ein Negativ-Beispiel wo 8 GB limitieren und zu nachladerucklern führen. Für ein 800+ € Produkt das grade frisch am Markt ist, ist das absolut nicht akzeptabel. Vor allem da nVidia bei Tomb Raider ja die Finger mit im Spiel hat bei der Entwicklung.
Die rtx 2080 mit 8 GB VRAM zu dem Preis ist nicht gut durchdacht. Als 4k Karte bei 8GB VRam gerade noch ausreichend, für Raytracing mit 1080p absehbar zu schwach. Dafür ist der Preis zu hoch angesetzt, es fehlt die Zukunftssicherheit. In den 3D Foren gibt es nur die Entscheidung zwischen gtx 1080 ti oder rtx 2080 ti wegen der 11GB Vram. Da fällt die rtx 2080 auch aus dem Rahmen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: aldaric und CyberdyneSystem
Sisyphus schrieb:
Die rtx 2080 mit 8 GB VRAM zu dem Preis ist nicht gut durchdacht. Als 4k Karte bei 8GB VRam gerade noch ausreichend, für Raytracing mit 1080p absehbar zu schwach.
Für das Rendern (Raytracing) im Hobbybereich ein Problem, da die Karten den Gaming Markt adressieren. Hierbei ist auch die klare Trennung zur Quadro RTX Linie zu erkennen, welche eigentlich für das Segment vorgesehen ist.

Die Optimierung der Texturen ist ohne weiteren Verlust der Qualität möglich, der Zeitaufwand muss jedoch berücksichtigt werden. "Und eigentlich möchte man sich um diesen Schritt gar nicht kümmern."

In Bereich DP/FX füllen GPU Render Engines einen kleinen Bereich in gesonderten Anwendungsumfeldern oder in Bereichen mit eigens dafür optimierten Plattformen. Mit Nvidia RTX, sind GPU's nun wesentlich interessanter geworden. Die GPU Render Engines haben zwar einen entprechenden Stand erreicht, es bleibt jedoch viel Potential für notwendige Optimierungen.

Blender Cycles GPU User werden sich sehr schnell über mangelnden Speicher beschweren. Iray User, dank "On the Fly Memory Compression" weniger, da die Texturen nur ein Drittel belegen. Wie immer in diesem Bereich, hängt der Bedarf der Hardware, immer vom jeweiligen Entwicklungsstand der verwendeten Engines ab.

x 4096 Character / 2048 Eyes ist für eine 1080p Produktion ein wenig drüber oder?
Bei Volldarstellung deines Characters hast du eine Oberflächensichtbarkeit von ca. 50% und bei einer 4096, ca. 8 mio pixel. Deine Zielauflösung liegt bei ca. 2 mio pixel (1080p). 1024 würde in der Situation also mehr als ausreichen.

Wie du schreibts, nutzt du jedoch 4096 jeweils für 4 oder 5 Zonen. Bei 4x 4096 sind das ca. 64 mio pixel pro Character. Bei einer Oberflächensichtbarkeit von 50%, noch immer gut 32 mio pixel.
Oder produzierst du nur extreme Closeups?
Angenommen die Head Maps haben 4096 (16mio pix), dann dürfte bei einem closeup shoot der Nase eine Oberflächensichtbarkeit von angenommen ca. 10% der Head Maps vorliegen, ca 1.6 mio pixel. ( Je nach Nasengröße ;-) )
Bei dem "Nasen" closeup shoot würden die 4096 Head Maps dann für Zielauflösung 1080p (2mio pix) passen. Allerdings könnte man sich dann alle anderen Texturen sparen bzw. auf 512 setzen.............

Wird schon wieder ein Vortrag .... schönen Feiertag.
 
Zuletzt bearbeitet:
CyberdyneSystem schrieb:
Nachtrag:

Also ich komme je nach Level/Umgebung selbst @1080p&Max-Settings auf über 7GB Vram...
Besitzt du das spiel überhaupt?


Hast du das Video in meinem letzten Beitrag nicht gesehen oder wolltest du es nicht sehen?
Mit 1080P Auflösung habe ich es noch nicht versucht, würde aber zur Diskussion über den "zu gering dimensionierten VRAM" auch nichts beitragen.

Bin selbst auch bei 7GB@1440P, ändert nichts daran, dass 8GB für 1440P selbst beim Spiel mit den wohl am schlechtesten komprimierten Texturen völlig ausreichend sind.
Weshalb du bei beinahe der halben Auflösung die selbe VRAM Auslastung hast, kann ich dir nicht erklären, da frägst du wohl lieber bei Crystal Dynamics oder Square Enix nach.

Sofern AMD keine Grafikkarte für Spieler mit mehr als 8GB vorstellt, ist die Diskussion aber sowieso völlig überflüssig.
Wie bereits gesagt, warum sollten Entwickler Texturen erstellen, welche mehr VRAM benötigen als die Grafikkarte mit dem meisten VRAM (11GB)?! Hier hätte bestimmt keiner etwas gegen einen Vega Nachfolger mit 16GB HBM, da das vor 2020 jedoch nichts mit der aktuellen Realität zu tun hat, ist es für 2018 völlig irrelevant.

Nizakh schrieb:
Ich habe deinen Beitrag mal korrigiert.

Korrigiert? Eher das Zitat, auf das ich von XXX94 eingegangen bin erweitert, aber in Ordnung ...
Ändert nicht viel an den Grafikkarten, die ich von XXX94 zitiert hatte.


680 2GB&4GB vs 7970 3GB&6GB
690 2x2GB vs 7990 2x3GB

760 2GB&4GB vs R9-280 3GB
770 2GB&4GB vs R9-280x 3GB&6GB
780 3GB&6GB vs R9-290 4GB
780Ti 3GB vs R9-290X 4GB&8GB


970 3,5GB+0,5GB vs R9 390 8GB
980 4GB vs R9-390X 8GB

1060 3Gb&6GB vs RX 480 4GB&8GB

Hier nochmal dein Beitrag "korrigiert" auf die Grafikkarten in denen AMD mehr VRAM hat.
Aktuell nur in der Mittelklasse, in der keiner hohe oder maximale Texturen bei flüssigen FPS nutzen kann ...
3GB könnte bei manchen Spielen knapp werden, aber um mehr als 6GB bei einer Mittelklasse Grafikkarte zu benötigen, muss man schon gerne bei 30 FPS spielen ...

Bei der GTX 980 liegt AMD klar vorne, nichtsdestotrotz hat sich die GTX 980 öfter verkauft. Woran das liegt kann ich dir auch nicht sagen. Spontan würden mir nur das deutlich besseres OC Potential und das Stromfresser Problem der R9 290X / 390X einfallen.

Die GTX 970 ist wohl das einzig wirklich gute Beispiel. Einfache Lösung: nicht kaufen.
Genau das selbe passiert mit AMD wenn man keine gute Konkurrenz darstellt:

https://wccftech.com/nvidia-amd-discrete-gpu-market-share-q2-2018/

Nicht einmal die Hälfte des Marktanteiles von Nvidia kommen nicht ohne Grund zustande.

Über Grafikkarten mit einem Release Date vor über 5 Jahren brauchen wir doch nicht über VRAM diskutieren ...
Von mir kamen die Vorschläge der Grafikkarten die ich zitiert habe übrigens nicht, die kamen von XXX94, der nicht einmal Stellung dazu nimmt, dass die von Ihm genannten Grafikkarten, bis auf die GTX

Shoryuken94 schrieb:
DX12 Schrott oder mal wieder eine Nvidia Architektur, die mit aktuellen API nicht wirklich gut zurecht kommt ;) Wenn es an DX12 liegen würde, müsste es ja auch AMD betreffen.

Aber Hey, nur 7,8GB von 8 belegt, da ist noch lange Luft nach oben :D Vielleicht streichen sie ja nächstes mal sogar Vram. Findet dann bestimmt auch Leute, die das verteidigen. 1000€ 6Gb GDDR6(x) auf der 3070, leistung eine 1080Ti. Mehr braucht doch eh keiner :)

XXX94 bleibt bei seinem Motto ein Beitrag dämlicher als der andere ...

Bist du nicht der Held, der sich bei Nvidia bei einer 1440P über 8GB bzw. bei 4K über 11GB beschwert, während AMD im Topmodell nur 8GB bietet? Nochmal: AMD HAT KEINE GRAFIKKARTE MIT ÜBER 8GB IM ANGEBOT.

Eine AMD Grafikkarte mit 16GB HBM und identischen Leistung einer RTX 2080 Ti zu einem günstigeren Preis wäre sofort bestellt. Aber solange das nur Träume sind, bringt das keinem etwas. Nochmal für die, die es immer und immer wieder nicht verstehen möchten: Aktuell hat keine Grafikkarte von AMD mehr als 8GB (schon gespannt wann der erste Held eine Radeon Pro erwähnt ...).


Shoryuken94 schrieb:
DX12 Schrott oder mal wieder eine Nvidia Architektur, die mit aktuellen API nicht wirklich gut zurecht kommt ;) Wenn es an DX12 liegen würde, müsste es ja auch AMD betreffen.

Aber Hey, nur 7,8GB von 8 belegt, da ist noch lange Luft nach oben :D Vielleicht streichen sie ja nächstes mal sogar Vram. Findet dann bestimmt auch Leute, die das verteidigen. 1000€ 6Gb GDDR6(x) auf der 3070, leistung eine 1080Ti. Mehr braucht doch eh keiner :)

Wieder beim Motto? Ohne die geringste Ahnung wird bei einer Grafikkarte, die erst wenige Tage auf dem Markt ist, wieder spekuliert woran es liegen mag, dass ein 3 Jahre altes Spiel Probleme macht ...
Wenn wir schon spekulieren wollen, sind voraussichtlich Treiberoptimierungen notwendig, so wie das nach dem Release aller Grafikkarten, ob Nvidia oder AMD, notwendig ist.

Sollen wir mit Spielen anfangen, die auf AMD Grafikkarten Probleme machen bzw. bei selber Leistung deutlich schlechter laufen? Besser nicht ... :freak::freak:
Tatsächlich, der niedrige Marktanteil liegt nicht an den ganzen Käufern mit den Lederjacken, wie sich das "rote Lager" das immer vorstellt. Es sind Grafikkarten, konzentriert euch auf die Fakten, es handelt sich hier nicht um ein Produkt wo die Geschmäcker auseinander gehen können.
Zu behaupten NUR Nvidia bzw. NUR AMD würde gute Grafikkarte herstellen zeugt nicht gerade von Intelligenz.
Fakt ist die "bessere" Grafikkarte wird sich besser verkaufen. "Besser" kann in diesem Fall das Preis-/Leistungsverhältnis, die Energieeffizienz oder einfach die bessere Leistung in Spielen sein.


Bist du übrigens auf einem Auge blind oder hast du die Hälfte meiner Beiträge überlesen?
Shadow of the Tomb Raider bei 3440x1440 bei maximalen Einstellungen (inkl. maximalen Texturen! ;)) = 7,5GB VRAM.

Behauptungen ohne Belege/Quellen interessieren doch keinen.
Während ich es belegt habe, dass es so ist, soll ich euch einfach glauben dass es so ist ... Typisch in einer sinnlosen Diskussion.

Bei mir läuft Shadow of the Tomb Raider bei 4K inkl. DSR und maximalen Einstellungen und verbraucht nur 2GB VRAM, nur Quelle oder Belege habe ich dafür keine ... *Sarkasmus Ende* ...


Ach und nochmal, damit du es ja nicht überliest:

Solange AMD nicht mehr als 8GB VRAM anbietet, brauchen wir uns bei Nvidia nicht über 11GB beschweren.
Hätte AMD eine Vega mit 16GB VRAM im Angebot (nein, Workstation Grafikkarten zählen leider nicht), wäre die Kritik angebracht, so leider nicht.


-

Hier nochmal ein Beitrag zu deinem heiligen HBCC :daumen::

https://www.gamestar.de/artikel/rad...t-high-bandwith-cache-controller,3318564.html

"Bevor wir uns die Messungen genauer ansehen, außerdem noch ein Hinweis: Selbst in 4K und bei fast maximalen Details belegt nur einer unserer Benchmark-Titel (Rise of the Tomb Raider) überhaupt den kompletten regulären VRAM der Vega-Karte. Das heißt einerseits nicht, dass wirklich so viel VRAM für ein reibungslos flüssiges Spielerlebnis benötigt wird. Andererseits könnte HBCC aber auch unabhängig von einem überfüllten Videospeicher Vorteile bieten.

Im Rahmen unserer aktuellen Messungen mit dem regulären Grafikkarten-Testsystem ist das allerdings nicht der Fall. Der Blick auf die Einzelergebnisse zeigt in Total War:Warhammer praktisch keine nennenswerten Unterschiede zwischen aktiviertem und deaktiviertem HBCC, auch in Rise of the Tomb Raider und The Witcher 3
fallen sie unter WQHD und in 4K sehr gering aus.


Rise of the Tomb Raider ist dabei das einzige Spiel, dass überhaupt die Grenze der regulären 8,0 GByte VRAM mit aktivierten HBCC überschreitet, in 4K sind es knapp 9,0 GByte. Performance-Vorteile durch HBCC resultieren daraus aber nicht."



Sprich bis auf Rise of the Tomb Raider @ 4K, welches wohl besonders platzsparende Texturen hat, bringen einem mehr als 8GB VRAM in einer Grafikkarte, die 4K nicht einmal bei maximalen Einstellungen flüssig darastellen kann überhaupt nichts. Mal davon abgesehen, dass die 4GB mehr an Speicher mit HBCC nur in den Ram ausgelagert werden und somit nicht ansatzweise die notwendige Geschwindigkeit bieten.

Wegen einen einzigen Spiel, dass nur in 4K mehr als 8GB benötigt nun 22GB in einer Consumer Grafikkarte anbieten? :freak:

Das hier wäre übrigens auch ein interessanter Artikel um dein Wissen zu bereichern, entschuldige zu "korrigieren" :

https://www.pcwelt.de/a/grafikkarten-gddr6-schneller-als-hbm2,3451036

"Auf einer Grafikkarte mit einem 256 Bit breiten Speicherinterface würden sich dann Geschwindigkeiten von 640 Gigabyte pro Sekunde ergeben.

HBM2 kommt auf maximal 652,8 Gigabyte pro Sekunde."


Shoryuken94 schrieb:
Es ist nur GDDR Speicher und kein HBM

Shoryuken94 schrieb:
GDDR6 ist weder schneller noch langsamer es kommt auf das Interface an. GDDR6 an einem 32 Bit Speichercontroller ist ziemlich lahm, ab 512Bit ziemlich schnell.

32 Bit, welche Grafikkarte soll das sein? ... :rolleyes:
Die vorhandenen 352 Bit der RTX 2080 Ti sollten ausreichend sein und HBM2 selbstverständlich übertreffen.
16GB mit 512 Bit wären auch in Ordnung gewesen, aber solange der Speicher schneller und größer als bei der Konkurrenz ist, sind mehr aus Sicht von Nvidia wohl nicht notwendig.



Zum Preis:

“The HBM2 memory is probably around $150, and the interposer and packaging should be $25.”

https://www.gamersnexus.net/guides/3032-vega-56-cost-of-hbm2-and-necessity-to-use-it


"GDDR6 @ 14 Gbps8 Gbit (1 GByte) GDDR6 @ 3500 MHz QDR (14 Gbps)$26.36 €22.51"

https://www.reddit.com/r/hardware/comments/8y9iup/gddr6_memory_prices_compared_to_gddr5/


HBM2 8GB (VEGA 56) = 175$
GDDR6 8GB (RTX 2080) = 210.88$

In welcher Realität soll HBM2 nochmal teurer sein?


lalelu schrieb:
Wird schon wieder ein Vortrag .... schönen Feiertag.

Amen. :daumen:


XXX94 genug für diesen Thread, ich kann nicht weiter jede Behauptung von dir widerlegen ...

Diskutieren wir weiter, wenn AMD es schafft mehr als 8GB in eine Grafikkarte zu packen:)
Dann macht das ganze Geheule über zu wenig VRAM bei Nvidia vielleicht auch Sinn ...
 
Zuletzt bearbeitet:
FCK-THIS schrieb:
Bist du übrigens auf einem Auge blind oder hast du die Hälfte meiner Beiträge überlesen?

Bei Kilometern an gequirlten XXX gehe ich nicht auf alles ein und lasse es jetzt ganz. Macht wenig Sinn mit Fanboys zu diskutieren. Also noch viel Spaß hier im Thread.
 
  • Gefällt mir
Reaktionen: FCK-THIS und CyberdyneSystem
lalelu schrieb:
Für das Rendern (Raytracing) im Hobbybereich ein Problem, da die Karten den Gaming Markt adressieren. Hierbei ist auch die klare Trennung zur Quadro RTX Linie zu erkennen, welche eigentlich für das Segment vorgesehen ist.

Die Optimierung der Texturen ist ohne weiteren Verlust der Qualität möglich, der Zeitaufwand muss jedoch berücksichtigt werden. "Und eigentlich möchte man sich um diesen Schritt gar nicht kümmern."

In Bereich DP/FX füllen GPU Render Engines einen kleinen Bereich in gesonderten Anwendungsumfeldern oder in Bereichen mit eigens dafür optimierten Plattformen. Mit Nvidia RTX, sind GPU's nun wesentlich interessanter geworden. Die GPU Render Engines haben zwar einen entprechenden Stand erreicht, es bleibt jedoch viel Potential für notwendige Optimierungen.

Blender Cycles GPU User werden sich sehr schnell über mangelnden Speicher beschweren. Iray User, dank "On the Fly Memory Compression" weniger, da die Texturen nur ein Drittel belegen. Wie immer in diesem Bereich, hängt der Bedarf der Hardware, immer vom jeweiligen Entwicklungsstand der verwendeten Engines ab.

x 4096 Character / 2048 Eyes ist für eine 1080p Produktion ein wenig drüber oder?
Bei Volldarstellung deines Characters hast du eine Oberflächensichtbarkeit von ca. 50% und bei einer 4096, ca. 8 mio pixel. Deine Zielauflösung liegt bei ca. 2 mio pixel (1080p). 1024 würde in der Situation also mehr als ausreichen.

Wie du schreibts, nutzt du jedoch 4096 jeweils für 4 oder 5 Zonen. Bei 4x 4096 sind das ca. 64 mio pixel pro Character. Bei einer Oberflächensichtbarkeit von 50%, noch immer gut 32 mio pixel.
Oder produzierst du nur extreme Closeups?
Angenommen die Head Maps haben 4096 (16mio pix), dann dürfte bei einem closeup shoot der Nase eine Oberflächensichtbarkeit von angenommen ca. 10% der Head Maps vorliegen, ca 1.6 mio pixel. ( Je nach Nasengröße ;-) )
Bei dem "Nasen" closeup shoot würden die 4096 Head Maps dann für Zielauflösung 1080p (2mio pix) passen. Allerdings könnte man sich dann alle anderen Texturen sparen bzw. auf 512 setzen.............

Wird schon wieder ein Vortrag .... schönen Feiertag.
Dir auch einen schönen Feiertag und Danke für den Kommentar!
Das Problem liegt in der Verwendung der Szenerie als Grundlage für einen Handlungsstrang und ist in 360' konstruiert, also aus jeder Perspektive nutzbar. Mal ein Beispiel, eine Szenerie auf zu bauen, also Hintergrund/Himmel, den Nahbereich als Kulisse, meist Architektur die nur auf einer Seite Texturen benötig, die Details im ganz Nahen, Schutt, kleinere Pflanzen, Grafiti, Straßenschilder, Automobile oder sonst was, das benötigt gut 2-3 Wochen, wenn man 90% aus vorgefertigten Sets hin bekommt und die retexturiere ich fast immer, um einen einheitlichen Stil hin zu bekommen. Das animiert natürlich, eine Bilderserie zu machen. Also ein Held der in die Szene aus der weite hinein kommt, sich nähert, ein Schusswechsel, eine Nahaufnahme/Portrait. Ist der Gegner nun auch ein Mensch, also organische Oberfläche, hat man schon ein paar hundert Texturen im Vorder- und Hintergrund. Die kann man natürlich alle jedes mal neu optimieren und sich Sets mit verschiedenen Auflösungen an legen, je nach dem, welche Kamera Perspektive man wählt. Das ist lästige Detailarbeit. Außer beim Portrait braucht man kein 4096*4096, wo dann die einzelnen Wimpern oder Poren zu sehen sind, bei Voll Perspektive natürlich keine 2048 für die Augen, da reichen sogar 256. Soll das aber künstlerisch interessant werden, dann spiegeln sich schon mal Explosionen im Auge beim Portrait . . . ein anderes mal verwischt alles hinter Rauch oder Regen.
Jedes mal alle Texturen zu wechseln und mit Sets zu arbeiten, ja, die Arbeit möchte man natürlich minimieren, da ist mehr VRAM echt hilfreich. Ein anderes Problem sind die Meshes/Texturen der Szenerie im Nahbereich. So ein Gewehr mit 500 Quads/Triangels und einer 512 Textur sieht bei Spielen vielleicht gut aus, aber wenn man näher ran geht, braucht man schon 5000 Quads bis hin zu 30-40.000, wenn der Held beim Entsichern gezeigt werden soll. Ähnliches bei der Architektur, im Hintergrund ja nett, aber nähert man sich auf 50 cm sieht die beste Textur Pixelig aus. Also muss man sich vorher Gedanken machen, welche Modelle und Texturen man verwenden möchte. Zoomt man nämlich später näher ran und hatte ein 1000 Quads Modell gewählt, kann man ja nicht einfach die Quads erhöhen, man müsste das Modell remodellieren, und hat man eine Textur, die es nur in 1024 gibt, kann man die nicht einfach hoch skalieren. Also muss man an einigen Stellen von Anfang an hohe Geometrie wählen und Texturen mit hohen Auflösungen, wie sie eigentlich eher bei 3DSmax, Maya oder ähnlichen Plattformen verwendet werden, sonst kann man jede Bilderserie mit Nahaufnahmen vergessen. Das schränkt die Kreativität schon ein. Ich habe aber auch schon lowPoly Modelle aus Skyrim für Fantasy Kulissen verwendet, Bethesda ist einfach Klasse wegen der mitgelieferten Sandbox. Aber wie gesagt, bei Nahaufnahmen muss man sich dann was einfallen lassen.

Und so schummelt man sich halt durch, deswegen reicht auch meine gtx970 noch. Würde aber auch gerne mal eine Sequenz drehen aber bei 1 Frame pro Stunde habe ich mir das bisher verkniffen. Irgend wann mal . . . 1080 ist auch nicht gut, 2048 wäre schon besser, aber 3-4h Renderzeit für ein Bild?

Die Politk von nVidia, iRay kostenlos zu vergeben nebst cudacore Unterstützung und als nächstes wohl die neuen rtx Fähigkeiten zu integrieren ist auf jeden Fall ein echter Gewinn für Hobby-CAD. Blender hab ich auch mal probiert, aber die Menüführung lag mir nicht. Und wie du schon sagtest, eigentlich wäre die rtx 5000 für mich die bessere Wahl, aber 2300$ sind mir doch zu viel um hier und da mal eine SF oder Fantasy Erzählung durch Bilder zu unterstützen.
 
Zuletzt bearbeitet von einem Moderator:
Shoryuken94 schrieb:
Bei Kilometern an gequirlten XXX gehe ich nicht auf alles ein und lasse es jetzt ganz.

Das einzig sinnvolle, das ich jemals von dir lesen musste ;)
Ich für meinen Teil habe mehr als oft genug betont, dass ich überhaupt nichts gegen Konkurrenz im Highend Segment von AMD hätte. Was du leider nicht verstehen möchtest, ist dass es das vor 2020 nicht geben wird.
Bis dahin bringt dir dein Genörgel an dem 11GB RTX Speicherkrüppel nicht viel, AMD bietet voraussichtlich bis 2020 maximal gerade einmal 8GB.
Was aber wiederum völlig egal ist, da nicht einmal der Speicherfresser Rise of the Tomb Raider unter 4K mehr als 8GB benötigt, wie ich dir nun durch mehrere Quellen belegt habe.
Das Entwickler nun Texturen erstellen, die mehr Speicher benötigen, als die auf dem Markt mit dem größten Speicher verfügbare Grafikkarte (11GB) darstellen kann, ist unwahrscheinlich.

Der einzige im ganzen Thread (bzw. das machst du ja in jedem Thread zu Grafikkarten im ganzen Forum), der durchgängig versucht ALLE Grafikkarten von Nvidia schlechtzureden und AMD in den Himmel lobt, nennt mich Fanboy?
Der Realitätsverlust tut dir wirklich nicht gut.

Deine Behauptung, HBM2 Speicher wäre teurer und schneller als GDDR6, habe ich ebenfalls durch Quellen widerlegt, kein Wunder, dass von dir nichts mehr kommt.

Das XXX94 steht übrigens für deinen Namen, den ich beim besten Willen nicht mehrmals ausschreiben müssen möchte, falls du das nicht verstanden hast.

Einen schönen Tag noch :)
 
FCK-THIS schrieb:
Der einzige im ganzen Thread (bzw. das machst du ja in jedem Thread zu Grafikkarten im ganzen Forum), der durchgängig versucht ALLE Grafikkarten von Nvidia schlechtzureden und AMD in den Himmel lobt, nennt mich Fanboy?
Muss ich doch noch Mal einhaken. Dann solltest du nicht nur die Beiträge lesen, die du lesen möchtest ;)
 
  • Gefällt mir
Reaktionen: CyberdyneSystem
Zurück
Oben