Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

🤣🤣
KlaraElfer schrieb:
Nvidia liefert doch, verstehe gar nicht was alle immer haben.
🤣🤣
You made my day!
 
  • Gefällt mir
Reaktionen: Veitograf, Nefcairon, Vendetta und 6 andere
Infect007 schrieb:
Hmm, meine 550W werden vermutlich nicht reichen für die 6800 XT.

Kumpel von mir betreibt seinen Ryzen 3700X, 3600er RAM, massig Lüfter und
eine 2080TI Seahawk X mit einem ollen Corsair CS 550M. Das geht problemlos
Die Karte hat auch 300W.
Der Systemverbrauch liegt kaum jemals über 440W.

Wenns nicht zu viele Spikes bei den Radeons gibt, ist das problemlos.
Und gute NTs bringen meist locker 20% Überlast.
Einfach mal probieren, tauschen kann man immer noch.
 
  • Gefällt mir
Reaktionen: PogoPogo und LukS
Oneplusfan schrieb:
@Benji21 Ich glaube du unterschätzt gewaltig die Anzahl derer, die vor allem wegen Cyberpunk aufrüsten.

Du meinst die die aufrüsten wollen aber quasi nicht können da es die entsprechenden Karten nicht in den Läden gibt oder halt das Modell nehmen müssen welches für höhere Auflösungen jetzt schon völlig nutzlos ist (und ebenfalls kaum verfügbar ist)?
 
  • Gefällt mir
Reaktionen: derSafran, Vendetta, tic-tac-toe-x-o und 2 andere
Ich kann mich gar nicht entscheiden.Nehme ich die 6800 oder die 6800XT?!

Meint ihr die 6800 reicht für 1440p und dauerhaft 144fps in jedem Spiel mit max Details?
 
jigg4 schrieb:
Gerne korrigieren wenn ich falsch leigen sollte, aber ich finde die Aussage nicht nur falsch sondern auch etwas engstirnig. Die 3090 ist primär nicht auf Spieler ausgerichtet, wie nvidia ja auch kommuniziert hat, demnach gleichzusetzen mit den Titan Versionen. Soweit mir bekannt (wie gesagt gerne korrigieren) ist AMD bisher nicht in dem Maß nutzbar gewesen in dem "Professional" Segment. Deshalb verstehe ich nicht ganz, wie man sowas gleich setzen kann, geschweige denn von "Totgeburt" reden kann. Trifft halt auf Gaming zu, aber der Rest?

arum hat sie dann keine professionellen treiber wie die titans? (die diese auch nur widerwillig nach amds vega frontier bekommen haben)

hat hardware unboxed ein gutes video zu. sorry die argumentation ist ne gurke.
 
  • Gefällt mir
Reaktionen: Otsy, JohnVescoya, Onkel Föhn und eine weitere Person
Benni82 schrieb:
Meint ihr die 6800 reicht für 1440p und dauerhaft 144fps in jedem Spiel mit max Details?
Also von dem Gedanken kannst dich verabschieden. Außer du hast ne Zeitmaschine und kannst eine karte 10 Jahre aus der Zukunft holen und jetzt benutzen...
 
  • Gefällt mir
Reaktionen: Nefcairon
Benni82 schrieb:
Ich kann mich gar nicht entscheiden.Nehme ich die 6800 oder die 6800XT?!

Meint ihr die 6800 reicht für 1440p und dauerhaft 144fps in jedem Spiel mit max Details?
Nein.
 
Benni82 schrieb:
Meint ihr die 6800 reicht für 1440p und dauerhaft 144fps in jedem Spiel mit max Details?
Und wenn nicht wäre das so schlimm? Zocke aktuell das erste DLC von Doom Eternal auf meinen 144 Hz Monitor mit 60-80 FPS und für meinen Geschmack ist das noch gut spielbar.
 
Uff, so eine gute Leistung hätte ich nicht erwartet. Erstmal Test abwarten und wenn alles gut verfügbar ist, dann kommt ein schnittiger 12 oder 16-Kerner gepaart mit der dicksten AMD Grafikkarte :) Vorfreude :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn und der Unzensierte
Vitali.Metzger schrieb:
Und wenn nicht wäre das so schlimm? Zocke aktuell das erste DLC von Doom Eternal auf meinen 144 Hz Monitor mit 60-80 FPS und für meinen Geschmack ist das noch gut spielbar.

Nein,wäre natürlich nicht so schlimm.Mit meiner 5700XT komme ich auch noch ganz gut zurecht,aber ich würde meinen Monitor schon voll auslasten :)

Schauen wir mal....
 
KlaraElfer schrieb:
Nvidia liefert doch, verstehe gar nicht was alle immer haben.

Die 3070 war wirklich lange verfügbar, wenn man bereit war, 50-150€ mehr als UVP zu zahlen. Da ist durchaus Supply vorhanden, denke ich mal.

Die 3080 geht halt Wochen nach Launch für 200€ über UVP noch immer instant weg, wenn sie ein Händler kurz drin hat. Selbst für 300-400€ über UVP geht sie weg, dauert dann eben 20 Minütchen.

Das ist schon ein ziemlicher Kontrast.
 
  • Gefällt mir
Reaktionen: tic-tac-toe-x-o und Onkel Föhn
Benni82 schrieb:
Ich kann mich gar nicht entscheiden.Nehme ich die 6800 oder die 6800XT?!

Meint ihr die 6800 reicht für 1440p und dauerhaft 144fps in jedem Spiel mit max Details?

Das wird noch dauern. Zumindest was Ultra Details angehen.

Momentan ist die Entwicklung froh, wenn man über 60FPS im Schnitt schafft mit Ultra Details auf 4K.
Das ist die Marke welche aktuell angepeilt wird.
Vielleicht schaffst du dann 80-100FPS auf WQHD.

Eventuell kannst du da mit DLSS oder AMDs Alternative noch mehr rausholen und kommst auch über 100FPS, aber das wird dir nicht bei jedem (AAA) Spiel gelingen.

Ansonsten musst du die Details runter stellen.

Entweder hohe FPS oder maximale Grafikeinstellungen.

Für mich sind die neuen Grafikkarten super, da ich eh nur in FPS Bereich zwischen 40 und 60FPS mit meinem Freesync 4K Monitor unterwegs bin und ich lieber das meiste aus der Engine und den Features raus ziehen möchte.
 
  • Gefällt mir
Reaktionen: Benni82
Teralios schrieb:
Sieht man sich das an, dann hat AMD das Paper @Kacha und @Colindo durchaus auch umgesetzt. 1. Indiz: der LDS (Registerfile) der aus 2 Blöcke zu 32 Banken zu 512 Einträgen mit 32 Bit besteht. Beide CUs können darauf zu greifen. An diesem LDS hängt dann an 2 Datenpfaden jeweils ein L0d (das, was bei CU der L1d war und im Paper als L1 bezeichnet wird). 10 L0d hängen dann gemeinsam an einem L1 Cache, des Shader Arrays. Man hat also das Paper wohl in vereinfachter Form umgesetzt, in dem man 2 CU zur WGP verbunden hat und 5 WGP einen gemeinsamen L1 gegeben hat.

Das war denke ich eher die erste Stufe. Also fixe Cluster zu definieren die unter sich ihre L1 Caches sharen koennen. Das Patent geht explizit weiter und spricht von einer dynamischen Restrukturierung der Cluster wenn die Cache Miss Rate zu hoch ist. Das hat es in RDNA1 eben noch nicht gehabt. Natuerlich bringt das ganze etwas Overhead mit, allerdings ist es die naetuerliche Weiterentwicklung der fixen Einteilung. Das Paper, so wie ich das lese, geht auch auf die dynamischen Cluster ein und nicht auf die fixen. Rein durch die dynamische Aufteilung bekommt man nochmal ordentlich Leistung. Was auch Sinn macht. Man hat nur selten eine optimale Auslastung bei fixen Clustern. Bei dynamischen ist das anders.

Ob die dynamischen Cluster schon in RDNA2 sind ist allerdings immer noch eine offene Frage. Es koennte durchaus sein, dass das immer noch auf fixen Clustern beruht und die meiste Leistung vom Infinity Cache kommt. Mich wuerde es nicht wundern wenn das Prinzip erstmal nur bei CDNA zum Einsatz kommt und dann spaeter vielleicht mit RDNA3. Das Paper fokusiert sich auf Compute und nicht Gaming. Dazu wuerde auch die Roadmap passen. Da steht explizit ML und HPC. Wuerde sehr gut dazu passen. Allerdings frage ich mich wann die MI100 rauskommen soll. Bis jetzt hiess es zweites Halbjahr 2020, was aber nur noch zweites Monate lang ist.

Zu Cache allgemein: Ich bin immer wieder ueberrascht wie sehr Caches unterschaetzt werden. Ich glaube da fehlt wirklich vielen der Hintergrund und sie sehen nur kleine Zahlen und denken sich die Auswirkung ist minimal. Die 128MB sind riesig an Cache und der Hauptgrund, dass Caches so klein sind ist in der Tat Platz und Geld. Ich denke auch wir werden mehr Cache sehen bei MCM oder Chiplet Designs. Das bietet sich zu sehr an.

@Wolfgang, @Jan Vielleicht wuerde es sich anbieten einen Artikel zu Caches zu haben? Moeglicherweise mit einfachem Beispiel damit klar wird wie viel das ganze ausmacht?
 
  • Gefällt mir
Reaktionen: PietVanOwl, Teralios, Onkel Föhn und eine weitere Person
netbuster21 schrieb:
Meine vorherige Vega 56 hatte vor einem Jahr neu 200 € gekostet. 580 € wäre da schon ein enormer Schritt.
Die Vega hatte eine UVP von 509€, du hast die einfach gegen Ende ihres Lebens gekauft. Damit das nochmal klappt, müsstest du auf die 6700 warten und dann die 5700 kaufen, die es dann wahrscheinlich wieder günstig geben wird. Aber damit hättest du nur eine einzige Generation gewartet.

Viel sinnvoller ist es, wenn du Preis/Leistung beibehalten willst, erstmal 2-3 Jahre zu warten. 8GB VRAM hast du ja schon, da waren 200€ echt günstig, und damit solltest du es gut bis zum nächsten Schnäppchen aushalten.
 
jigg4 schrieb:
Die 3090 ist primär nicht auf Spieler ausgerichtet, wie nvidia ja auch kommuniziert hat

Trifft halt auf Gaming zu, aber der Rest?
Na ja, so halb halb ...

MfG Föhn.
 

Anhänge

  • 3090.jpg
    3090.jpg
    367,2 KB · Aufrufe: 306
  • Gefällt mir
Reaktionen: Otsy, Dittsche und HighPerf. Gamer
Kacha schrieb:
Das war denke ich eher die erste Stufe. Also fixe Cluster zu definieren die unter sich ihre L1 Caches sharen koennen.
Deswegen schrieb ich ja auch, dass man es in einer vereinfachten Form umgesetzt hat. ;)

Das Paper geht natürlich noch mal ein Stück weiter mit der dynamischen Aufteilung. Nur sieht man durchaus Anleihen aus dem Patent als auch eben dem Paper bereits in RDNA, besser man sieht eine entsprechende Reorganistation der CUs zu den WGP und dass man für die WGPs nun einen gemeinsamen L1-Cache verwendet.


Kacha schrieb:
Das hat es in RDNA1 eben noch nicht gehabt. Natuerlich bringt das ganze etwas Overhead mit, allerdings ist es die naetuerliche Weiterentwicklung der fixen Einteilung.
Stimme ich dir vollkommen zu, ich denke das wird bei AMD auch der nächste Schritt sein, bei RDNA2 sehe ich den Schritt aber noch nicht, eher dann bei RDNA3 eventuell sogar erst bei RDNA4.

Wobei hier auch die Frage ist: Kommt das Patent auf CU/WGP-Basis, dass dort die L0-Caches verbunden werden, oder dynamisiert man dann den L1-Cache auf Shader-Arrray-Ebene, sodass dann die 2 SA pro SE erst mal dynamisch ihren L1-Cache verbinden.

Man kann hier jetzt echt viel spekulieren und überlegen, was kommt und wie es kommt. ;)

Kacha schrieb:
Zu Cache allgemein: Ich bin immer wieder ueberrascht wie sehr Caches unterschaetzt werden.
Ich denke, dass Problem ist, dass die möglichen »Fallstricke« wenn es denn mal wirklich zu einem vollständigen »Miss« kommt, sprich vom L1 - L3 (bei RDNA L0 - L3) für viele in der Regel sich sehr katastrophal anhören.

Nur das ist ein so katastrophaler Worstcase, dass in dem Fall nicht mal mehr die höchste Bandbreite hilft, um hier wirklich noch Geschwindigkeit zu retten und selbst die Latenz zum RAM kann hier nicht mehr soviel retten.

Dazu halt die Sache, dass man durchaus auch unterscheiden muss zwischen OoO-Designs mit spekulativer Ausführung bei CPUs und eben GPUs, die in der Regel ein IO-Design nutzen und wesentlich strikter arbeiten.

Im Endeffekt ist das durchaus ein interessantes und komplexes Thema und man muss je nach den Designs auch die Caches unterschiedlich designen und organisieren.

Kacha schrieb:
Ich denke auch wir werden mehr Cache sehen bei MCM oder Chiplet Designs. Das bietet sich zu sehr an.
Ich denke nicht nur, dass du recht hast in dem Fall, sondern sicher, dass du da recht hast. Sehe ich mir alle Entscheidungen von AMD bei den GPUs sowie eben auch bei den CPUs der letzten Jahre an, dann arbeitet AMD seit Vega auf ein MCM/Chiplet-System auch bei den Grafikkarten hin: Vega führte »HBCC« ein, auch wenn es bei RDNA und RDNA2 nicht als Feature dabei ist als ganzes, denke ich schon, dass man einige »Techniken« für den VRAM übernommen hat, vor allem jetzt mit dem Infiniti-Cache. Vega führte DSBR (Tiled-Based-Render) ein, sucht man sich da Informationen zusammen, scheint AMD hier in letzter Zeit auch darauf hingearbeitet zu haben, dass dieser feinere Tiles benutzt. Die Umstellung von Wave64 auf Wave32 beim Treiber, was die Datenmenge pro Befehl durchaus verringert.

Bei Zen arbeitet man beim Infinit Fabric darauf hin, dass auch hier die Latenzen möglichst geringer werden, man arbeitet an der Bandbreite usw.

Nehm ich mein theoretisches Wissen hinzu, was man ggf. an Daten puffern muss, wie man Daten/Tiles effizient verteilt usw. Mich würde es nicht wundern, wenn wir einen Main/Controller-DIE bei der GPU bekommen, der die Tiles dann an "GPU-Chiplets" verteilt und die GPU-Chiplets entsprechend den großen L2-Cache haben und der Main/Controller-DIE eigentlich nur ein riesiger Infintie-Cache-DIE wird, der die die Abfrage der GPU-Chiplets puffert.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Monstranz, Colindo und LukS
Benni82 schrieb:
Meint ihr die 6800 reicht für 1440p und dauerhaft 144fps in jedem Spiel mit max Details?
Unwahrscheinlich. Aber "max Details" ist sowieso nutzlos. Lös dich von dieser Anforderung und das Zockerleben wird sehr viel einfacher. Meist sind hohe Details nahezu genauso hübsch, brauchen aber deutlich weniger Leistung.
 
  • Gefällt mir
Reaktionen: tic-tac-toe-x-o, PietVanOwl und LukS
Ich habe mal aus Interesse bei Alternate und Mindfactory angefragt, ob Richtlinien und Maßnahmen (wie von AMD vorgeschlagen) für den Launch der AMD RX6000er Serie geplant sind und ob gewährleitestet wird, dass jeder nur eine Karte kaufen darf.

Bisher habe ich vom Mindfactory Kundenservice eine Antwort erhalten.
Ich fasse mal zusammen:

Man kann über den (Liefer-Bestell-)Prozess der Grafikkarten von Nvidia und AMD nichts mitteilen.
Sie werden die Karten nur einmalig pro Kunde ausgeben.
Aber sie rechnen auch damit, dass die Anzahl der Grafikkarten zum Zeitpunkt des Releases, voraussichtlich nicht ausreichen wird.

Dann hoffen wir mal, dass genügend Grafikkarten kommen werden, auch wenn nicht alle direkt beim Release eine abbekommen werden.

Hier sei aber nochmal betont, dass es sich um die Aussage eines Händlers (Kundenservice) handelt.
Es kann sich ja auch noch viel ändern. Somit bitte mit Vorsicht interpretieren.
 
  • Gefällt mir
Reaktionen: russianinvasion und grtty
Zurück
Oben