News Gerüchteküche: AMDs RDNA-2-Serie besteht angeblich aus drei GPUs

Navi 22 mit einer Größe von 340 mm²
Übrigens zum Vergleich, die XBOX X Series hat eine Die Size von 360.45 mm2 . Der beinhaltet aber SOC und 8 Zen Cores, aber 56 CUs. Somit könnte man für Navi 22 auf 56-64 CUs "schätzen".

Insofern, man nützt den selben Prozess.
 
Trefoil80 schrieb:
Was haben die für Systeme? Was haben die für Netzteile? Welchen Treiber setzen die ein?

Gerade in diesem Moment ist die 5700Xt von meinem Freund wieder abgeschmiert. Zur Abwechslung diesmal mit einem komplett grünen Screen auf einem Monitor, die restlichen Schwarz.

System:

i7 3960x, Asus x79 Rampage IV Extreme, 32GB DDR3 1600 im Quadchannel, Seasonic gx 850 Watt Netzteil, 2x Full HD Monitore, ein 4K Monitor und als Grafikkarte die 5700XT Red Devil. Treiber ist der aktuelle (20.4.2)
 
  • Gefällt mir
Reaktionen: howdid und Onkel Föhn
Botcruscher schrieb:
Die 5700XT ist von den Chipdaten nicht mehr als ein Mainstreamchip.

Mainstream im Preis ! RX 5700XT Custom / OC just ab 359 €. Und diese ist auf Augenhöhe (FPS) mit der RTX 2070 (Non Super/Ti) welche zu Release 639 € und bei "guten" Customs gerne mal 700 € aufgerufen wurden, also fast das doppelte. Soviel zu Deinem Mainstream ...

MfG Föhn.
Ergänzung ()

Shoryuken94 schrieb:
Gerade in diesem Moment ist die 5700Xt von meinem Freund wieder abgeschmiert.

Versuchs doch einfach mal mit anderen Freunden ;-)

MfG Föhn.
Ergänzung ()

Smartin schrieb:
ich will keine Gerüchte mehr, ich will endlich Tatsachen!
Wie lange werden wir noch hingehalten? :(

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-3000-Release-1349111/
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ThePlayer und Chismon
  • Gefällt mir
Reaktionen: howdid und Onkel Föhn
ZeroZerp schrieb:
Im Digital Foundry analyse- Video zu Minecraft, indem auch NVIDIA Techniker anwesend waren, wurde ein Hinweis fallen gelassen, dass man jetzt, wo DLSS unter "Kontrolle" wäre, mit Nachdruck dabei ist, am Tensor- Core Denoising zu arbeiten.

Alles in Allem wünsche ich AMD ein glückliches Händchen für ihre Karten. Allerdings sehe ich das wie viele hier, dass der Nachteil eines schon verfeuerten Nodesprungs und auch des Verschlafens von Raytracing, DLSS und co. NVIDIA wieder einen erheblichen Vorsprung verschafft.

Die hatten zwischenzeitlich genügend Zeit, mit den neuen Herausforderungen moderner Engines auf Tuchfühlung zu gehen und werden ihre Erfahrungen natürlich in die neuen Chips einfließen lassen.

NVIDIA ist halt nicht mit Intel zu vergleichen, da sie nebst den technologischen Vorsprung eine hohe Innovationsgeschwindigkeit vorlegen.

Jemanden bei einem 100 Meter Rennen zu schlagen, der sich ab Meter 70 den Knöchel verstaucht ist halt deutlich einfacher, als den Favoriten einzuholen, der 20 Meter Vorsprung hat.

LG
Zero

Moment, ich dachte die nutzen die Tensor Cores seit Beginn? Ich erinnere mich da an ein Video zum Start von RTX, das erklaerte wie Denoising auf den Tensor Cores funktioniert? Oder haben die das tatsaechlich nur im professionellen Bereich genutzt? Dann wundert mich der Leistungsverlust aber auch nicht und die Notwendigkeit von DLSS um das zu kompensieren. Da hat Nvidia es wirklich geschafft das schlechtmoeglichst zum laufen zu bekommen.

Zum Thema Vorsprung und Tuchfuehlung, da bin ich mir nicht sicher ob das wirklich so viel wert ist. Derzeit konnten sich Entwickler mit RTX auseinandersetzen, oder es sein lassen. Wobei da wahrscheinlich ordentlich Unterstuetzung von Nvidia dabei war da es eben neu, kompliziert, und teuer war. Bei den neuen Konsolen muessen sich Entwickler aber damit auseinandersetzen um nicht bloed auszusehen und zwar mit einer sehr spezifischen Version. Bei der Masse ist der Vorsprung ziemlich schnell aufgeholt und nicht mehr ganz so viel wert. Vor allem wenn man bedenkt, dass die Xbox wohl fast 1:1 die API fuer den PC nutzt. DLSS ist Nvidia klar vorne, aber mal schauen wie lange das weiterverfolgt wird wenn Denoising dann wirklich auf Tensor Cores laeuft. Da duerfte man schnell ein Ressourcenproblem bekommen auf den Karten. Wobei ich allgemein gespannt bin ob Nvidia teilweise die Komponenten in ihre Shader packt. Spezielle Komponenten sind schoen und gut, aber wenn sie nicht konstant genutzt werden, dann kosten sie vor allem Platz. Wenn die auch noch um das selbe Powerbudget kaempfen, wie jemand meinte, dann ist das eher semi-optimal.

Die Fertigung wird allerdings interessant, da noch nicht bekannt ist wer in was produziert. Wenn AMD einen anderen Prozess nutzt, dann fangen beide mehr oder minder bei Null an. Falls sie aber beim selben bleiben, dann steht Erfahrung gegen Shrink ohne Erfahrung. Da duerfte der Unterschied geringer ausfallen. Es ist ja auch noch nicht klar in welchem Prozess Nvidia produziert. TSMC und Samsung sind wohl beide noch im Rennen. Wobei ich darauf tippe, dass sie es teilen. Entweder professionell vs Consumer, oder teuer vs billig. Teslas und dergleichen wohl eher bei TSMC, weil sie die fuer weitaus mehr losbekommen. Kann also gut sein, dass die Consumer Karten bei Samsung landen, oder zumindest die billigen. Das wird dann echt spannend.

Bzw., der interne Name der Consumer Karten wird auch spannend. Ampere scheint wohl professionell zu sein und nicht Consumer, aehnlich Volta und Pascal/Turing.
 
GERmaximus schrieb:
da hast du recht, jedoch war der Gegenspieler die 980ti mit 6gb Ram und nicht die 970 ;)
Mir klingeln heute noch die Ohren von den Sprüchen dass der Speicher der 970er ach so ausreichend wäre.
War das dann in dem Kontext eine Lüge oder Schönrederei? Waren der Gegenspieler der 970er und der 980er nicht die 390er mit ihren 8 GB? Warum bekam dann die 980ti nur magere 6 GB? Eine murks Konstruktion wie bei der Fury? ;)
GERmaximus schrieb:
Nvidia lässt fertigen und hängt nicht, im gegenteil, die können mit 12nm noch immer 7nm schlagen.
BZW anders herum, AMd benötigt 7nm um mit Nvidias 12nm Fertigung mitzuhalten
Hält AMD mit den 7nm nur mit oder nicht eher nvidia mit ihren ca. doppelt so großen 12nm Chips die nur das Glück haben besser taktbar zu sein?
 
  • Gefällt mir
Reaktionen: eXe777 und Onkel Föhn
Shoryuken94 schrieb:
Aber schon verdächtig, dass man jetzt kurz vor der angeblichen Ampere Präsentation so eine Tweet


Nicht wirklich. Wenn beide Konkurrenzen auf einem ähnlichen Niveau sind, dann nähern sie sich den den maximalen akzeptierten Preisen an und du bekommst als Kunde ein höherwertiges Produkt zum gleichen Preis. Die Preise sinken nur, wenn die Konkurrenz deutlich überlegen ist.

Bestes beispiel ist Intel. Die Preise im Mainstream sinken kein Stück, stattdessen bekommst du mehr Kerne. Gleichzeitig zieht AMD mit, baut das Lineup nach oben hin aus und verlangt auch höhere Preise. Die 2066er CPUs die hoffnungslos unterlegen sind, wurden im preis gesenkt.

Ein anderes Beispiel ist die Autoindstrie. Auch VW senkt nicht die Preise, weil du einen gleichwertigen Hyundai kaufen kannst.

Konkurrenz fördert die Weiterentwicklung von produkten und man bekommt als Kunde deutlich bessere Produkte in kürzeren Abständen. Die Preise sinken aber nicht. Wäre auch schön dumm für die unternehmen. Als gewinnorientiertes Unternehmen strebt man eine möglichst hohe Marge an. Wenn es am Markt etablierte Preise gibt, dann nähert man sich denen auch an. Denn Konkurrenz erhöht auch massiv das R&D Budget, da man ansonsten schnell abgehängt wird, wenn man nicht mehr konkurrenzfähig ist und gezwungen wird die preise zu senken, damit man überhaupt produkte verkauft.

Das Konkurrenz die Preise senkt ist eher ein Wunschdenken vieler. Wir als Kunden profitieren nicht von niedrigeren preisen sondern besseren Produkten.



Das hast du falsch verstanden. Radeon Image Sharpening hat nichts mit DLSS 2.0 zu tun. Das Image Sharpening ist nur ein post Processing Effekt.
AMD könnte auf die Idee kommen, mit der Brechstange Marktanteile zu erkämpfen. Nur bei einem Mitbewerber der wie Intel eine brachiale Kriegskasse hat, muss man davon ausgehen, dass die nicht wehrlos zuschauen werden. Bei einem Duopol können sich zwei Wettbewerber in ihren Preisüberlegung in höheren Maß davon ausgehen, dass der jeweilige Mitbewerber auf ihre Preisentscheidung reagieren wird.
 
Colindo schrieb:
Und das nach zwei Jahren. Da sieht man mal, was AMD aufzuholen hat...
Na ja, allgemein wäre ich da auch vorsichtig von "aufzuholen" zu sprechen oder das da nVidia weit voraus wäre.

Auf Hardwareebene bewegen sich sowohl AMD als auch NVIDIA auf nun ähnlichem Niveau, auch da kann ich mal wieder nur die Präsentationen von NVIDIA und AMD verweisen. NVIDIA hat mit Turning die "Schwachstelle" beseitigt, dass pro Tick man entweder nur FP32 oder nur INT32 berechnen konnte - die Lösung ist dafür ist nicht so elegant, aber das ist meine Meinung. AMD hat mit RDNA bei den "Cachezugriffen" von den Shadern dann aufgeschlossen zu Turning. Wirklich "Vorraus" ist NVIDIA aktuell primär eben durch die RT-Cores und das NVIDIA hier bereits Erfahrungen sammeln konnte. Primärer Vorteil von NVIDIA sind noch die Tensore-Cores, aber deren Wert kann ich nur wirklich schwer einschätzen.

Für moderne Engines sind sowohl AMD als auch NVIDIA gut vorbereitet. Sie ziehen die richtigen Schlüsse und passen die Hardware entsprechend an. Die Hardware-Abteilung von nVidia als auch AMD sind sehr gut.

AMD hat ein Defizit im Bereich Software und ihnen fehlen dort die passenden Entwickler. NVIDIA hat bereits in seinem Kampf mit 3dfx verstanden, dass es nicht ausreicht nur gute Hardware zu liefern, sondern dass man auch etwas für die Entwickler tun muss und diese auch unterstützen muss. Sowohl ATi als auch AMD später haben sich immer eher darauf verlassen, dass die Entwickler ja sie auch beachten. NVIDIA hat das Geld in die Hand genommen, die Spieleentwickler zu unterstützen, die Engine-Entwickler und der Support für Entwickler bei nVidia ist wirklich sehr gut! AMD muss hier aufholen. Sie haben kluge Köpf, die auch wissen, wie sie ihre Ressourcen gut nutzen, man sah es ja direkt bei der Antwort auf DLSS, doch das reicht eben nicht.

ZeroZerp schrieb:
Vorsicht - Der Voxel Ansatz ist zwar im Prinzip ähnlich, aber doch was anderes als der DX12 RTRT Ansatz, welcher viel feingliedriger auflöst.
Irgendwie liege ich gerade lachend in der Ecke. Jetzt nicht wegen dir und deiner Aussage, aber hat man jetzt echt versucht einen "Voxel" basierten Ansatz für RT mit dem "PathTracing" Ansatz für RT zu vergleichen.

Ja, kann man machen, am Ende liegen da aber dann doch halt wieder Welten dazwischen. Sowas tut irgendwie innerlich weh, wenn man dann merkt, dass da wieder zu viele Sachen durcheinander geworden werden und deswegen das Bild über eine neue Technik getrübt wird.

ZeroZerp schrieb:
Und der Vorteil wiederum, dass mit ansteigender Szenenkomplexität die Rasterisierung an Effizienz verliert und Raytracing durch den per Pixel Ansatz dadurch kaum beeindruckt wird.
Was viele leider bis heute immer noch nicht verstehen. Die Rasterzierung zieht primär die Effizient daraus zieht, dass eine Szene massiv vereinfacht wird und viele Berechnungen nur annähernd erfolgen oder sogar pauschal angenommen werden, weil das halt für die Illusion reicht.

Man kann sich ja mal all die Effekte ansehen, die richtig schön Leistung kosten und was da aber für "Simplifizierungen" dahinter stehen. Und da sprechen wir dann schon von so erweiterten Beleuchtungseffekten wie SSAO. Von Problemen wie weiche und harte Schatten wollen wir da nicht anfangen, oder den üblichen diffusen Reflexionen von Licht oder eben auch die gerichteten Reflexionen, die für die allgemeine Lichtstimmung eines Bildes notwendig sind.

Wenn ich mir da die Quake 2 RTX-Demo ansehe, dann merke ich persönlich einfach, dass das Bild oft lebendiger und stimmiger wirkt, als so manche Vorzeigetitel der "pre" DXR-Ära. Klar, man erreicht durch gut gemachte Lightmaps und Co zwar ähnliche Ergebnisse, aber man merkt gerade in der Bewegung das es eben nicht passt.

Spätestens aber bei "Spiegelungen" die nicht mehr im Screenspace sind, hört es dann aber ganz auf. Will man diese mit einem Rasterzier umsetzten, geht der primäre Vorteil des Rastizer und warum er ebenso schnell ist, endgültig verloren, denn dann muss man recht schnell weitere Screenspaces aufmachen und schwupp di wupp ist die "Datensparsamkeit" dahin, vor allem wenn es eben in Echtzeit erfolgen soll und dynamisch ist. Von der "Effizienz" wollen wir ja nicht schreiben.


ZeroZerp schrieb:
Das gilt eben nur für einige Berechnungen. Shadowmapping, AO etc. ist bereits im jetzigen Zustand per RT genauer und schneller in der Berechnung.
Und das wichtigste: Es erfolgt in Echtzeit und kann damit auf die Dynamik der Szene reagieren. So etwas merkt man aber in der Regel nur, wenn man die Spiele dann in Bewegung sieht. Screenshots können diese Dynamik nicht einfahgen.

Hab ich auch wieder bei Quake 2 RTX gemerkt und der angeblich ebenso gut aussehenden "non"-RTX-Vesion mit den ganzen Mods. Auf Screenshots sah es dann bei bestimmten Szenen wirklich gleich aus, bei einem Video ist es aber dann halt aufgefallen, wenn Geschosse ins Spiel kamen und ebenso Bewegung.

Es ist halt ein Unterschied, ob man direkt von Anfang an alles richtig berechnet, oder man man versucht durch Tricks die Vereinfachung aufzufangen.

ZeroZerp schrieb:
Das war es mal. Inzwischen ist das Zeug mit Komplementärtechnologien wie DLSS inzwischen so weit,
dass wir z.B. in Minecraft einen waschechten realtime- Pathtracer in Aktion bewundern können.
Also in dem Fall will ich dich nur darauf hinweisen, dass das, was du da gerade durch die Verwendung mit dem Begriff Komplementärtechnologie ausdrückst, so etwas ungünstig rüberkommt. Wenn ich mir die Papers, Artikel und Co ansehe, dann spricht man in den meist von einer Komplementärtechnologie, wenn das eine nicht ohne das andere wirklich kann. Sich also nicht nur ergänzend, sondern auch eine gewisse Abhängigkeit besteht.

In dem Fall wäre es wohl besser, wenn wir von "ergänzenden" Technologien sprechen. Denn ein richtiger Pathtracer ist ja nicht von DLSS abhängig, und dass das ausgeführt wird, noch eben anders rum. Primär geht es ja bei DLSS darum, dass man entweder ein "gleichwertiges" Bild bei weniger Rechenbedarf bekommt oder bei gleichen Rechenbedarf ein besseres Bild.

Aber da kann man jetzt gut streiten. Ich gebe da nur meine Einschätzung zum Begriff wieder und das ich da eher einen anderen wählen würde.

ZeroZerp schrieb:
Wir sind also schon sehr sehr viel weiter in der Entwicklung, als sich einige hier träumen lassen.
Da kann man etwas darüber streiten, ob das so die richtige Aussage ist, auch wenn ich dir grundsätzlich zu stimme.

Das Problem aktuell mit RT ist, dass die Spiele, die die größte Stärke von RT zeigen, gleichzeitig die Spiele sind, die ansonsten doch recht simpel von der restlichen Bildsynthese sind. Ich hatte die Diskussion letzten auch wieder gehabt. Gerade die Hilfstechniken heute bei der Geometrie und die ganzen Tricks da sind auch nicht ohne und wenn ich es jetzt richtig gesehen habe, stellen da manche Techniken durchaus auch eine Herausforderung da. Klar die Probleme werden gelöst werden, hier aber davon zu sprechen, dass wir sehr sehr viel weiter in der Entwicklung sind, ist schon gewagt.

Ich finde es immer etwas gefährlich, weil man so oft dann gerne mal Erwartungen schürt und wenn dann das, was man da schürt, nicht den Erwartungen entspricht, ist die Entschäung groß und die Leute werden zu teilweise noch stärkeren Skeptikern.

Man sollte hier schon etwas ehrlicher und weniger enthusiastisch mit dem Thema umgehen, da kann man Skeptiker oft weit besser überzeugen.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Colindo
Kacha schrieb:
Da hat Nvidia es wirklich geschafft das schlechtmoeglichst zum laufen zu bekommen.
Willkommen in der Welt der neuen Technologien. Passiert eben immer mal wieder, dass Neues nicht ordentlich ankommt. Und bei RTX war es sicherlich so. Alleine dass DLSS jetzt erst so funktioniert, wie es anfangs beworben wurde, und eben wie oft angemerkt bisher nur in zwei Spielen.

Ich frage mich, ob Nvidia in der nächsten Generation massiv Tensor-Cores erhöht, wenn, wie @ZeroZerp sagt, demnächst Denoising auf denen ausgeführt werden kann. DLSS+Denoising wäre für Turing zuviel, würde ich sagen.
 
Colindo schrieb:
Alleine dass DLSS jetzt erst so funktioniert, wie es anfangs beworben wurde, und eben wie oft angemerkt bisher nur in zwei Spielen.
Sind 4 - Wolfenstein Youngblood, Control, Deliver us the Moon und Mechwarrior 5

Es wird sich zeigen, wie sich das weiterentwickelt, aber der Performanceimpact, den man in Summe ohne Nachteile durch DLSS erhält, ist enorm. Es ist ein Killerfeature, welches die Turing- Generation 1 auch in künftigen Titeln zu guten Leistungen verhelfen wird, wohingegen die anderen nicht auf stochastisches Rendering spezialisierten und ohne KI- Fähigkeiten ausgestatteten Karten relativ schnell wegbrechen werden.

Ich glaube nicht, dass Turing schlecht altern wird. Zumal da noch ungenutzte Technologien wie Mesh shader brach liegen.

Ich frage mich, ob Nvidia in der nächsten Generation massiv Tensor-Cores erhöht
Man munkelt, dass man sie über alle klassen verdoppelt. Wenn man die schiere Rechenleistung von den Dingern ansieht, sollte da ein verbessertes DLSS und zugleich noch mehrstufiges Denoising drin sein.

Ist aber schwer einzuschätzen, da es meines Wissens keinen offiziellen Status darüber gibt, wie sehr die Tensor- Kerne durch DLSS allein an ihre Grenzen gebracht werden....

Spannend wird der Ansatz von AMD zum Thema KI- Supersampling. Mal sehen, was die ihrem Baby da so mit auf den Weg geben. Ohne wirds künftig nicht mehr gehen, da man sonst zu viel Leistung auf der Straße liegen lässt.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeroStrat, Teralios, Shoryuken94 und eine weitere Person
[wege]mini schrieb:
Hier muss man aber auch noch einmal präzisieren:

Die neuen werden 50% mehr Leistung bei gleichem Verbrauch haben. Das heißt, nicht, dass sie bei halben Verbrauch, gleich viel leisten.

200 Watt 15 Tera, 300 Watt 20 Tera. das wäre eine Punktlandung.

mfg
Sie werden ein um 50% besseres Perf/Watt Verhältnis besitzen, das bedeutet nicht zwingend 50% mehr Leistung bei gleichem Verbrauch. Es kann das bedeuten, es kann aber ebenso gleiche Leistung bei 66% des Verbrauch bedeuten.
Viel wahrscheinlicher ist irgendwas dazwischen.

(Sollte die Architektur unwahrscheinlicherweise aber tatsächlich 50% mehr Performance bei gleichem Verbrauch hinbekommen, dann würde das bedeuten, dass man das ganze soweit runtertakten könnte, dass man sogar wirklich auf weit weniger als den halben Verbrauch bei gleicher Leistung kommen würde.)

Auch sind damit nicht die Teraflops gemeint, die Perf/Watt Angaben werden auch bei den AMD Folien durch die FPS Leistung in einer Spieleauswahl ermittelt.
Da RDNA2 weitere IPC Verbesserungen erfahren wird, bekommt man also mehr FPS pro TFLOP, die 12TFLOPs der Xbox Series X z.B. könnten durch RDNA2 schon 10-20% mehr FPS liefern als eine auf 12TFLOPs übertaktete 5700XT.

Diese Angabe wird auch nicht für spezielle Karten gemacht sondern für die Architektur als ganzes, daher wird dieser Faktor auch von Karte zu Karte streuen und je nachdem, mit was man sie vergleicht.

GCN zu RDNA1 sollten +50% sein, schauen wir uns die Perf/Watt Tabelle an, so trifft die Zahl exakt auf den Vergleich 5700 vs Vega56 zu.
Bei 5700XT vs Vega64 liegt dieser Wert bereits bei +63% und würde man die 5700 mit der Vega64 vergleichen, läge er gar bei +75%.
Vergleicht man aber 5700XT und Vega56, sind es nur noch 39% und die Radeon VII ist auch CGN und dort liegt der Unterschied zur 5700XT bei nur noch +26%.

Dann kam später die 5600XT, die ein um 95% beseres Perf/Watt Verhältnis als die Vega64 bietet, in diesem neuen Parcour sind auch die Unterschiede der anderen Karten nochmal größer geworden, sodass zwischen Vega64 und 5700 nun sogar 84% liegen.

Das Fazit: Diese Angaben auf den Folien sind bestenfalls Minimalwerte, realistisch betrachtet Durchschnittswerte und schlechtestenfalls sind es die bestmöglichen Werte.
Da die 50% die für GCN zu RDNA1 angegeben wurden aber ziemlich im Mittelfeld aller Vergleiche der ersten Karten liegen und später noch Karten kamen, die sogar noch besser darin waren, ist nicht davon auszugehen, dass die +50% von RDNA1 zu RDNA2 nur den Vergleich beschreiben, der am vorteilhaftesten für die Zahlen war, denn dann hätte man bei der RDNA1 Vorstellung auch 75% angeben können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Manfred_89
Shoryuken94 schrieb:
Zur Abwechslung diesmal mit einem komplett grünen Screen auf einem Monitor, die restlichen Schwarz.
Hui, den Greenscreen of Dead hatte ich öfters mal mit meiner GeForce GTX 980. Gerade als ich noch Win 7 verwendet, während das Problem dann mit Win8 als auch Win 10 nicht mehr vorhanden war. XD

Leider vergessen hier manche aber, dass das dort wo das Problem zutage tritt, auch die Ursache zu finden ist. All zu oft habe ich die Grafikkarte im Verdacht oder den Treiber, und dann war es was anderes, was dazwischen schoss.

Kacha schrieb:
Wobei ich allgemein gespannt bin ob Nvidia teilweise die Komponenten in ihre Shader packt. Spezielle Komponenten sind schoen und gut, aber wenn sie nicht konstant genutzt werden, dann kosten sie vor allem Platz. Wenn die auch noch um das selbe Powerbudget kaempfen, wie jemand meinte, dann ist das eher semi-optimal.
Das primäre Problem für nVidia wird der Platz sein mit der Zeit. Die Probleme beim Powerbudget sind eher zu vernachlässigen, solange nicht alle Einheiten zur gleichen Zeit laufen müssen, bekommen sie alle ihre Energie.

Problematisch würde es erst werden, wenn z.B. INT32, FP32 Shader als auch TC zur gleichen Zeit anfangen zu rechnen und dann sich im Weg stehen, aber bisher läuft alles recht schön nacheinander ab. ;)

Kacha schrieb:
DLSS ist Nvidia klar vorne, aber mal schauen wie lange das weiterverfolgt wird wenn Denoising dann wirklich auf Tensor Cores laeuft.
DLSS wird nVidia weiter verfolgen, da DLSS ein probates Mittel ist den Ressourcenbedarf für immer höhere Auflösungen abzufedern.

DLSS, genau so VRS sind - auch wenn es einigen nicht gefällt - der aktuell logische Schluss. Der Zug mit dem Namen "Silizium-Transistor" befindet sich auf einem Gleis, dass früher oder später sein Ende erreichen wird und das Ende ist hier auch in Sicht. Alternativen wie Transistoren auf Basis von Kohlenstoff sind zwar bereits bekannt, jedoch von der Marktreife noch entfernt. Der letzte Meilenstein war eine 16Bit-CPU mit knapp um die 14.000 oder 16.000 Transistoren.

Die nächste Auflösung mit 8K steht in den Startlöchern und viele moderne Spiele haben bei "vollen" Details selbst mit 4K ihre Probleme, auch auf dem PC.

AMD arbeitet nicht umsonst auch quasi an einer DLSS-Lösung für ihre Grafikkarten, auch wenn sie über Shader gehen möchten. *Dazu gleich etwas mehr.

Kacha schrieb:
Wobei ich allgemein gespannt bin ob Nvidia teilweise die Komponenten in ihre Shader packt.
Aktuell fährt nVidia mit dieser Taktik noch gut. Die Frage ist, wie lange es noch so sein wird. Wobei nVidia, bevor sie RT-Cores als auch TensoreCores "integrieren" wohl erst mal ihre Cuda-Cores noch mal umorganisieren werden, damit diese so flexibel wie AMDs CU sind. Damit wäre für nVidia dann schon sehr viel gewonnen.

Colindo schrieb:
Ich frage mich, ob Nvidia in der nächsten Generation massiv Tensor-Cores erhöht, wenn, wie @ZeroZerp sagt, demnächst Denoising auf denen ausgeführt werden kann. DLSS+Denoising wäre für Turing zuviel, würde ich sagen.
Mit hoher Wahrscheinlichkeit werden sie es tun.

ZeroZerp schrieb:
wohingegen die anderen nicht auf stochastisches Rendering spezialisierten und ohne KI- Fähigkeiten ausgestatteten Karten relativ schnell wegbrechen werden.
Also eines ist Sicher: Du wärst spitze im Marketing. Wäre ich du, ich würde bei nVidia mal anrufen, ob sie dich nicht unter Vertrag nehmen wollen. Aber nicht unter 250.000 anfangen, das bist du nämlich in dem Fall mindestens Wert. Und das ist in dem Fall ein Kompliment!

Was du hier jedoch ansprichst, ist in der Regel weder für AMD noch NVIDIA ein Hardware Problem als viel mehr ein Softwareproblem. AI-Algorithmen kann man auch recht gut über die Shader laufen lassen. Hier ist es dann eher eine Frage der "Effizienz".

Man wird abwarten müssen, wie weit AMD mit ihrer DLSS-Alternative auf DirectML-Basis kommt.
 
Zuletzt bearbeitet von einem Moderator:
GERmaximus schrieb:
Es wird aber leider AMD zugeschrieben
Erinnert ein wenig an den Grafik Bug bei Ashes of the Singularity wo bei der AMD Präsentation Unterschiede zru Geforce sichtbar waren und erstmal fleißig mit dem Finger auf AMD gezeigt wurde. Am Ende stellte sich raus das es ein Bug bei der Grafikberechnung der Geforce war, war auf einmal garnicht mehr so schlimm weil das Ergebnis ja sooo viel schöner wäre, ander offenbar fehlende Grafikelemente wurden nicht näher untersucht und letztendlich wurde das Thema recht schnell unter den Teppich gekehrt. Ich weiß bis heute nicht ob das irgendwann auch mal gefixt wurde.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Teralios schrieb:
All zu oft habe ich die Grafikkarte im Verdacht oder den Treiber, und dann war es was anderes, was dazwischen schoss.


Das stimmt schon, sicher kann man sich nie sein, dass gleiche System hat aber schon mehrere Grafikkarten gesehen, welche ohne Mucken liefen. Ich selbst hatte mit der Vega auch das Problem schon mal mit den 20er Treibern, Wenn ich mal eine passende Karte hier habe, werde ich es noch mal mit einer anderen Karte testen.

Aber sagen wir so, die Probleme bestehen erst seit eine 5700XT im System steckt un variieren durchaus mit den verschiedenen Treiberversionen. Viele Leute haben mit der Karte so ihre Probleme. Ich sage nicht, es ist zu 100% die Karte, bin mir aber schon relativ sicher.

Abseits davon ist es durchaus eine tolle Grafikkarte
 
Also wenn dann wirds direkt der große Chip mit nem neuen Monitor. :D das wird ein Spaß. Ich freu mich jetzt schon ^^ mal sehen wie die Leistung dann am Ende aussieht. Ich bin erstmal guter Dinge ^^
 
  • Gefällt mir
Reaktionen: Shoryuken94
Otsy schrieb:
Wenn ich dieses Problem recherchiere komme ich sehr schnell zu dem Schluss, dass es sich nicht, wie suggeriert, um einen AMD-exclusiven Fehler handelt, sondern dass aktuelle nVidia-Modelle ebenso betroffen sind.

Jein. Es gibt ein zwei Spielmodi, wo das Problem auch mit Nvidia bestand, diese wurden aber fix per Patch behoben. betoffen waren auch nur bestimmte Teile des Multiplayers, ich meine es was Groundwars. Auf Vega Grafikkarten hattest du das auf allen Karten, in allen Modi und das seit ca. einem halben Jahr. Desalb werden auch die Vegas explizit in den patchnotes erwähnt.

GERmaximus schrieb:
Es wird aber leider AMD zugeschrieben

Ist schon ein Fehler vom Spiel, wurde ja auch dort per Patch behoben. Was das ausgelöst hat, wissen wir als außenstehende nicht. Warum das Monate lang gebraucht hat auch nicht.

GERmaximus schrieb:
Ich denke das bei vielen AMD Problemen das Problem wie so oft vor dem Monitor sitzt.

Gewagte These nur weil im eigenen Bekanntenkreis keine Probleme aufgetreten sind, Patchnotes von Treibern und Foren damit gefüllt sind. Wenn das Problem vor dem PC sitzt, dann ist die Hardware dahinter auch egal.
 
Colindo schrieb:
@Taxxor Bei der Vorstellung von RDNA1 wurden auch die Karten genannt, die verglichen wurden.
Das stimmt, ich bezog mich jetzt auf die neuste Präsentation wo nur allgemein die 50% Sprünge angegeben wurden.
Bei der RDNA1 Präsentation hatte man dafür auch einen besseren Einblick, was das denn bedeutet, für die dort verglichenen Karten(Vega64 vs "Navi GPU") waren das +14% Performance und -23% Verbrauch.

RDNA2 wird ziemlich sicher auch ungefähr in diesem Bereich liegen, wenn es mit der 5700XT verglichen wird.
Jedoch könnte die Karte die 14% schneller und 23% sparsamer als die 5700XT ist, dann nicht die 6700XT sein, sondern eine Karte eine Klasse weiter unten, genau wie es dort ja auch der Fall war, die 5700XT ist eine Klasse tiefer als die Vega64.

Man könnte also mit einer 6600XT die 5700XT bei weniger Verbrauch schlagen.
Würde bedeuten die Karte wäre dann bei 175W etwas schneller als die 2070S bzw evtl 3060. Das würde dann der 240mm² Chip sein.
Die 6700 und 6700XT rücken dann mit 340mm² hoch zur 2080(S) bzw 3070(S), während sich die 6800 und 6800XT mit 505mm² um die 2080Ti und die 3080 kümmern sollen.
Die 3080Ti wird erneut an der Spitze stehen, jedoch nicht mehr um 50% wie aktuell sondern eher 20-25%.

Soweit zu meinem Wunschdenken ohne mMn allzusehr zu über- oder untertreiben^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und Colindo
Shoryuken94 schrieb:
Gewagte These nur weil im eigenen Bekanntenkreis keine Probleme aufgetreten sind, Patchnotes von Treibern und Foren damit gefüllt sind. Wenn das Problem vor dem PC sitzt, dann ist die Hardware dahinter auch egal.
Nicht unbedingt denn man kann die Aussage auch so oder so auslegen.
Hast du dir noch nie die Frage gestellt warum einige Spiele auf dem PC bei der genutzten CPU Leistung verhungern und auf den Konsolen mit erheblich schwächeren CPU Kernen ausreichend performen? Ich wette die dafür verantwortlichen saßen auch vor einem Monitor. ;)
 
Onkel Föhn schrieb:

Die gleiche Tour wie bei Pascal abziehen und moeglichst hochpreisig die angegrauten Turing ("Super") GPUs jetzt kurz vor der GPU-Nachfolgegeneration abzuverkaufen, ja das ist durchaus moeglich, aber die Grafikkarten interessieren mich zumindest selbst zu leicht gesunkenen Preisen nicht die Bohne, weil mit Ausnahme der RTX 2080Ti die meisten eher schlecht altern werden als erste RTX-Generation.

Solange sich RT-Raytracing so gemaechlich erst etabliert, wuerde mir eine angegraute Navi10 Karte von AMD/RTG zu Abverkaufpreisen (und laengerfristig erhaeltlich) sowieso mehr gefallen.

Es ist dürfte naheliegend sein, dass Nvidia eher mit Grafikkarten oberhalb der RTX 2080 Super oder 2080 Ti beginnt - also Geforce RTX 3080 (Ti).

Das obige PCGH Statement halte ich fuer ziemlichen Mumpitz oder Wunschdenken der dortigen Redaktion, denn traditionell kommen 70er und 80er nVidia Oberklasse-Karten (vermutlich beide mit GA104er Chips, Vollausbau und beschnitten) immer vor einer oftmals hinaus geschobenen 80Ti-Karte (abgespeckter GA102 Chip), mit der man hofft, dann noch einmal Zusatzverkaeufe bei neuen 80er Besitzern zu machen bzw. diese doppelt zu melken.

Dazu waer eine bspw. 6 Monate spaetere Veroeffentlichung der RTX 3080Ti der Ausbeute mit neuer Node zutraeglich und somit den Gewinnen. Daher sehe ich nicht, wieso diese Maximalprofitstrategie jetzt verworfen werden sollte, zumal man bei nVidia vermutlich nicht weiss, was AMD/RTG maximal bieten kann mit RDNA2.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben