Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

einfachder.de schrieb:
...Spielspaß bzgl. Spielmechaniken habe ich schon ewig nicht mehr...

Willkommen in meiner Welt. Irgendwie traurig :(
 
  • Gefällt mir
Reaktionen: Benji18, einfachder und Mcr-King
Jeronimoh schrieb:
Nur mal eine Frage an Rande, könnte es hinterher nicht ein Vorteil sein für AMD, dass die Next Gen Konsolen auf ein AMD Gespann setzen? Die Next Gen Konsolen beherrschen ja auch RT oder liege ich da falsch.
Hat sich wohl noch net bis zu den CP-Leuten rumgesprochen, obwohl die DEV-Kits schon länger im Umlauf sind als Ampere.
Was evtl. günstig werden kann ist die neue Strategie von MS endlich mal ein paar Studios einzukaufen.
(damit mal ein paar vernünftig programmierte Games reibungslos den Konsolenport zum PC schaffen)
 
  • Gefällt mir
Reaktionen: Mcr-King
  • Gefällt mir
Reaktionen: megaapfel und Mcr-King
AMD muss jetzt mehr mit Entwicklern koopierien, wie es Nvidia bei zahlreichen Titeln macht und/oder entsprechend Marketing betreiben. Ist sicher auch kein unerheblicher Grund, warum manche Leute reflexartig zu Nvidia greifen. Deren Logos tauchen gefühlt bei jedem Spiel auf.
Vor allem jetzt wo auch die Leistung im High-End Bereich da zu sein scheint.
Nicht jeder Käufer treibt sich nämlich in Tech-Foren rum.
 
  • Gefällt mir
Reaktionen: GhostDMonkey
Schade, dass die 6800 preislich so hoch angesetzt wurde, aber vielleicht bringt Nvidia trotzdem eine 3070 mit mehr Speicher. Auf die würde ich dann warten oder ansonsten zur 6800XT greifen, falls sie das bessere P/L-Verhältnis bieten sollte.
Kann mir aber kaum vorstellen, dass die 3080 dann lange mit nur 10GB verkauft werden wird. Falls doch, dürfte man spätestens nach Weihnachten einen krassen Preisverfall beobachten können.
 
Fighter1993 schrieb:
Was sagt der? Bzw wie meint er das?


Screenshot_2020-10-29 Mehr fps bessere Grafik Ist Nvidia DLSS 2 0 ein wahrer Game-Changer .png



https://www.gamestar.de/artikel/wie-gut-ist-nvidias-dlss,3360685,seite2.html


NVIDIA wird DLSS stark pushen, sollte es bei den 8/10GB bleiben, was aber eher auszuschliessen ist !
Die kommenden, richtigen NEXT_GEN Ports werden noch deutlich Hardwarelastiger als Control !
Wenn ein Spiel erscheint das jede Hardware zum frühstück verspeist, wird DLSS eingesetzt.

The Future

Example :
RTX3090 (DLSS ON) - 75FPS
6900XT (keine DLSS Unterstüzuung) - 45FPS

....und dann sind die 8GB wieder schnell vergessen.

Ich bin mir dennoch relativ sicher, dass es nicht bei 8GB bleiben wird bei Ampere ! So sicher wie das Amen in der Kirche. ;)
 
  • Gefällt mir
Reaktionen: megaapfel
sialickiz schrieb:
Spiele die AMD nicht so schmecken ala Assassins Creed oder ein paar NON-AAA Titel sehe ich da jetzt leider nicht !
In Assassins Creed ist eine 5700XT 9% hinter einer 2070S, das ist 1 Prozentpunkt besser als der Durchschnitt.

In Division 2 und Resident Evil steht sie genau so gegen die 2070S wie in Assassins Creed, in Borderlands 3 steht sie minimal schlechter da und in Shadow of the Tomb Raider schneidet sie mit am schlechtesten ab von den Spielen im CB Parcours.

Das sind 4 Spiele von 10, die AMD gezeigt hat, die RDNA entweder gleich gut oder schlechter liegen, als das Spiel welches du gerne gesehen hättest, weil es AMD schlecht liegt.

Dafür hat man mit BFV und CoD auch zwei Spiele wo sie besonders gut ist, beim Rest bewegt sich alles im Rahmen weniger Prozente um den Durchschnitt herum.
 
  • Gefällt mir
Reaktionen: Dittsche, Dai6oro, Infect007 und 3 andere
FrAGgi schrieb:
AMD muss jetzt mehr mit Entwicklern koopierien, wie es ...
Jo,
Das ist für mich der bisherige Schwachpunkt von AMD. Es wird immer nur kurz ein Dev unterstützt bei der
Einführung von DX11-MT, DX12, VLK, Fidelity FX und dann rennt man zum nächsten Game.
Was passiert in der Zwischenzeit? Natürlich hängt sich NV dann rein und 3 Patche oder AddOn später laufen die Games net mehr so sauber wie am Anfang.
Wolfenstein oder D2 sind z.Bsp. net mit der Zeit (besserer Treiber) schneller geworden, why?
Nach m.E. drückt NV dann massiv Partikel o.ä. rein, was AMD net schmeckt.
So verliert man schneller Performance als man in Hardware nachlegen kann.

Manche Studios werden komplett aufgegeben. (Hitman+StrangeBrigade)
Das ist schade, das AMD so ohne weiteres gute Engines NV überlässt.
 
TempeltonPeck schrieb:
@FrAGgi

Stimmt wobei die Optimierung der Grafikengeines von den Spieleschmieden hier wichtiger ist als reine Werbung.
Klar, aber der potentielle Kunde muss es auch mitkriegen. Jemand der hier regelmäßig auf CB liest und schreibt wird sowas wissen. Aber die Mehrheit der Leute wollen sich da nicht so hart mit beschäftigen. Die kaufen das, was sie kennen (oder was man ihnen ständig vor die Nase hält).
Da muss AMD einfach etwas aufholen im Vergleich zu Nvidia.
 
  • Gefällt mir
Reaktionen: DrFreaK666
Doenereater schrieb:
Ich finds ehrlich gesagt erstaunlich wie viel Bedeutung auf einmal Rt gewonnen hat. Mir sind scharfe Texturen und eine "gute Grafik" wesentlich wichtiger als irgendwelche hochaufgelösten Echtzeit-Spiegelungen oder Reflektionen...

RT ist mehr als nur exakte Spiegelungen. Global Illumination sehe ich als wichtiger an

Sumpfmolch schrieb:
Ich hätte im Lineup gerne noch eine 6800 mit 8GB unter dem Preis der RTX3700 gesehen...

Vielleicht gibt es für OEMs eine 6800LE, sonst dürfte das eventuell die 6700XT übernehmen
 
alle Arschl., die jetzt gerade probieren, ihre alte Gammelkarte noch zu Mondpreisen zu verkaufen auf ebay "och menno"
 
GerryB schrieb:
Manche Studios werden komplett aufgegeben. (Hitman+StrangeBrigade)
Das ist schade, das AMD so ohne weiteres gute Engines NV überlässt.

...gute Engines NVIDIA überlässt ?
Forza 4 hat eine gute und war das Vorzeigespiel schlechthin für AMD !
GTX1070 hat Vega überholt und in F12020 und vielen weiteren Titeln siehts ähnlich aus.

Engine überlassen ? LOL

OPTIMIERUNG !


Screenshot_2020-10-29 Nvidia Geforce RTX 3070 im Test 2080-Ti-Leistung mit eingebauter Sollbru...png
 
Kacha schrieb:
AM als HBCC Nachfolger, bzw. darauf aufbauend, ja. Aber die 128MB sehen mir sehr nach einem recht "einfachen" Cache aus. Mir ist durchaus klar, dass ein Cache riesige Unterschiede machen kann. Haetten sie gesagt man kann ein 384 Bit Interface ausgleichen, klar, kein Ding wenn der Cache so gross ist. Aber die doppelte Leistung?! Dafuer muessten sie massiv die Miss Rate senken. Und da frage ich mich halt ob das L1 Sharing schon mit reinspielt. Was natuerlich auch geht, den 128MB Cache vorausschauend fuellen.
Der L1 wird seit RDNA1 bereits geteilt. Es gibt - wenn man es genau nimmt - nun 4 Cache-Stufen in RDNA2:

CU - 1 * L0-Cache Daten. (Bei RDNA 16 KiB)
WGP - 1 * L0-Cache Instruktionen (Bei RDNA 32 KiB)
SE - L1-Cache, für alle WGP in der SE (128 KiB bei RDNA)
GPU - L2-Cache, (4 MiB bei RDNA Navi 11)

Es kommt nun der Infintie-Cache dazu als »L3«. Und genau das ist hier eben auch der Punkt, denn du ansprichst: Vorausschauend füllen. Ich spreche ja HBCC nicht umsonst ab. Wenn sie hier die Cache-Struktur sehr gut optimieren und gerade bei Bildsynthese ist es relativ klar, welche Daten man wann braucht, dann kann man hier sehr gut die Daten nach Bedarf in den Infintie-Cache als auch in den L2 schieben und von dort dann in L1 und L0.

Kacha schrieb:
Man koennte es auch zusammenfassen mit: Sie stimmen die Komponenten aufeinander ab. ;) War auch dringend noetig. Ich finde auch SAM recht interessant, das duerfte direkt von den Konsolen kommen. Mich wundert es nur warum das so spaet kommt. Allerdings frage ich mich was genau die CPU da macht. Man hat da immer noch PCIe als Bottleneck, da man Daten hin- und herschieben muss. Allerdings spart man sich den Umweg ueber den RAM. Man koennte gewisse Sachen natuerlich intelligenter platzieren, bzw. auswaehlen.
Nun, klar ist PCIe ein Bottleneck, gleichzeitig kann man aber auch hier entsprechend agieren und die limitierende Bandbreite durch intelligentes Laden kompensieren.

Bildsynthese, egal ob nun per RT oder klassische Rasterization, hat einen recht klaren Ablauf und daher sind die benötigten Daten auch wesentlich einfacher vorhersehbar. Man kann sich hier einiges zu nutzen machen um Daten »intelligent« im RAM als auch VRAM zu sortieren, darauf aufbauend dann in den 128 MB Infintie-Cache zu laden und von dort entsprechend der Tiles in den L2 und L1 zu verteilen.

Und man sollte sich hier jetzt auch nicht zu sehr an dem Patent aufhängen. Es gibt da ein wesentlich interessanteres Paper @Colindo hat sich das angesehen. Ich hab es nur überflogen. Es geht da nicht nur um die Verbindung der »L1«-Caches, sondern auch darum, was eine intelligente Organisation der Caches in der GPU bei »Deep Learing« an Leistung bringen kann und genau das ist der Punkt, weswegen folgende Aussage etwas »falsch« ist:

Krautmaster schrieb:
… 128MB L3 Cache im CPU [...] und funktioniert über weite Strecken [...] manchmal sogar besser - aber manchmal auch schlechter wenn man einen Cache Miss hat.
Wir sprechen hier aber von einer GPU, nicht von einer CPU! Auf einer GPU hat man - bei der Bildsynthese - viel mehr Möglichkeiten die benötigten Daten zu organisieren, zu sortieren und auch passend in die Caches zu schieben, als es auf einer CPU der Fall ist!

Die CPU sendet der GPU, was sie wie rendern soll und gibt damit auch klar an, welche Daten benötigt werden. Auf diesen Daten aufbauend kann man sehr gut die Daten entsprechend optimieren und beim Bedarf zu laden.

Ebenso wichtig ist hier: Bei der Bildsynthese arbeiten die AMD GPUs nach dem »In-Order«-Prinzip bei der Ausführung innerhalb der Shader (Programm!). Es ist also auch hier bekannt, welche Daten man als Nächstes braucht, welche Daten vorgehalten werden müssen in den Caches usw.

GPUs sind um ein vielfaches »simpler« aufgebaut als moderne CPUs und arbeiten die auszuführende Befehle recht stoisch und stur ab!

Du bist aber nicht der einzige, der hier dem Trugschluss erliegt und Probleme, die bei einer CPU durchaus zutreffend sind, auf die GPU überträgt und dabei vieles außer Acht lässt. Ich hab jetzt auf die Schnelle einen »Artikel« gefunden, der auch die Probleme bei einer »CPU« auf die GPU überträgt und darüber schwadroniert, dass der Infiti-Cache ja die Hölle für Spieleentwickler wird und die nun »Branchprediction« auf der CPU programmieren müssen, um die richtigen Daten in den Cache zu laden. Der Herr vergisst dabei nur: es läuft alles eh über den Treiber und dort entsprechend Anweisungen an die GPU zu senden, welche »Daten« er in welchen Cache schieben soll, ist ein leichtes.

Und hier kommt Smart Access gleich mit zum Tragen: AMD nutzt es voll aus, dass sowohl die benötigen Daten als auch wann und wo diese Daten gebraucht, recht gut vorhersehbar ist und kann damit vom RAM bis zum L2 oder gar L1-Cache der GPU Anweisungen mit geben.
 
  • Gefällt mir
Reaktionen: KadmosIII, LukS, jemandanders und 3 andere
Matthias80 schrieb:
Ja jetzt weil du jetzt was ganz anderes schreibst als vorher... 🤨
Quasi das was ich sagte.
Oder schlecht ausgedrückt... Schlecht verstanden von mir.

Soo long

Mfg


Kein Ding, ich erkläre es auch immer wieder gern ausführlich. Das ist ja auch der einzige Weg, Missverständnisse auszuräumen. Leider auf Forenbasis doch manchmal recht umständlich 😉

Ich ging allerdings durchaus davon aus, daß der Bezug des von Dir zitierte Satz durch den vorangestellten "Die Firmen sind gewinnorientiert und wissen voneinander, was wo geht." eindeutig klar sei.
Hätte ich vielleicht noch ein oder zwei Sätze ausführlicher schreiben können. Die Technik von AMD war mit "Job nicht gemacht" jedenfalls nicht gemeint. 😉

Aber cool, dann sind ja alle Klarheiten beseitigt. 😉

So long!
 
  • Gefällt mir
Reaktionen: Matthias80
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
  • Gefällt mir
Reaktionen: normanjf
Zurück
Oben