Notiz GPU-Gerüchte: Radeon RX 6900 XT mit höherem Taktlimit

KlaasKersting schrieb:
Man kann natürlich selektiv eine Seite mit den besten Ergebnissen wählen und sich die Welt schönreden. Geht aber auch andersherum.
PCGH vermischt in diesem Index aber alle Auflösungen miteinander. Das sollte man gerade bei Ampere und RDNA2 nicht tun, weil die Unterschiede je nach Auflösung teils extrem(er) sind.
 
  • Gefällt mir
Reaktionen: Backet, Mcr-King und GERmaximus
Ampere wird relativ gesehen immer um wenige Prozent schneller je höher die Auflösung ist. Bei niedrigen Auflösungen Treten Häufiger Auslastungsprobleme auf. Warum das so ist weiß ich nicht, die Zahlen Sagen nur dass ihnen hohe Auflösungen besser Liegen.

RDNA2 ist dafür bei niedrigeren Auflösungen schneller (nochmal zum Verständnis, beide sind extrem stark, wir Reden hier nur über gerigne einstellige Prozente) ob das am Cache liegt? Keine Ahnung. Ich stehe nur da und wundere mich :D
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
KlaasKersting schrieb:
Man kann natürlich selektiv eine Seite mit den besten Ergebnissen wählen und sich die Welt schönreden. Geht aber auch andersherum.
Eben, der Witz daran ist das es in beide Richtungen funktioniert. :freaky:
Das fängt bei der Spiele Auswahl an und geht bis hin zur dafür gewählten Bildeinstellung.

Wir redundant und hohl diverse Floskeln sind merkt man auch recht schnell bei der aktuellen Diskussion wo UHD Performance Trumpf und FullHD auf einmal irrelevant sein soll. Eigenartig, das war zu Zeiten von nvidias Vorteil durch den Multicore Workaround noch genau anders herum und inzwischen sieht man es offenbar auch als selbstverständlich an mit unterschiedlichen Grafikeinstellungen zu vergleichen, siehe DLSS.
Man versucht natürlich auch trotz der Berechnungsprobleme (auftretende Grafikfehler) DLSS als Voraussetzung für performantes RT zu verkaufen.

Unterm Strich gibt es da nur eine Konstante, der bevorzugte Hersteller.
 
  • Gefällt mir
Reaktionen: DDM_Reaper20, Onkel Föhn und GERmaximus
Unti schrieb:
Ja den hab ich schon gelesen, einen direkten Impact hat er nicht zwingend, aber bei hohen Auflösungen performt die 6800XT dennoch hinter der 3080, wieso auch immer, ein Cache ist hald eben nur ein Cache, liegt in der Natur der Sache, kann aber natürlich auch noch andere Gründe habe, wird uns technisch wohl nur AMD selbst genau sagen können ^^
Das eine 3080 in einigen Spielen schneller ist, hat ja nichts damit zu tun. Fakt ist, dass die Karte durch den Infinity Cache unter 4K nicht limitiert wird.
 
  • Gefällt mir
Reaktionen: bad_sign
Wadenbeisser schrieb:
Unterm Strich gibt es da nur eine Konstante, der bevorzugte Hersteller.
Oder die Performance unterstützter Features. In meinen Augen ist DXR ein richtiger visueller Mehrwert den ich nicht mehr missen will
 
KlaasKersting schrieb:
Man kann natürlich selektiv eine Seite mit den besten Ergebnissen wählen und sich die Welt schönreden. Geht aber auch andersherum.
Nimm bei PCGH Wolcen raus und aktualisiere den Benchmark-Parcours ein wenig:
Siehe dazu auch den Test von Computerbase zur 6800 (XT):
Zusatz: Sieben top-aktuelle Spiele im Benchmark
"In den meisten neuen Spielen schneidet die Radeon-RX-6800-Serie richtig gut ab und liegt gleich auf oder teils deutlich vor der GeForce-Konkurrenz."

Und schon sind die Karten mindestens auch ohne SAM gleich auf und bei einer Taktrate von 2.7 -3 GHz sollte es dann wohl keine Fragen mehr geben wer bei einem halbwegs aktuellen Benchmark-Parcours am Ende die Hosen anbehalten wird.
 
Zuletzt bearbeitet:
Ich hoffe nur das es endlich mal Modelle mit nem üppigen powerlimit gibt. Hoher Takt ist schön, ja. Aber den auch zu halten wäre ideal (wenn andere Parameter passen)
 
@guillome

Durchaus, wobei für mich die Aufwertung des Bildes nicht den Leistungseinbruch rechtfertigt, dafür habe ich einfach schon zu oft Fake Effekte gesehen die gut genug waren und erheblich weniger Leistung fraßen.
Am Ende kommt für mich aber eher ein anderer Effekt zum tragen.
Ich baller alles rein was geht solange die Framerate für mich gut genug spielbar ist. :volllol:
 
  • Gefällt mir
Reaktionen: guillome
@Unti
Kannst du aufhören zu behaupten, der Cache limitiert?
Er tut es nämlich nicht. Link hast du ja bereits von @Darkblade08 bekommen.

Igor hatte es zwar in seinem Test behauptet aber überhaupt nicht getestet.
 
  • Gefällt mir
Reaktionen: Darkblade08
Einschränkend sollte aber gesagt werden, dass Taktraten von mehr als 2,8 GHz eher für die wassergekühlten Grafikkarten interessant sein dürften und nicht die Regel sein werden.
Wakü + MoRa vorhanden?
[ ] nein
[X] JA
:daumen:

Ich warte momentan auch noch ab und entscheide dann nach Tests welche neue Graka es bei mir wird: 3090 (3080Ti!?) oder 6900XT stehen auf der Wunschliste^^.
ABER:
MSFS2020 ist eines meiner zukünftigen Maingames. Sollte in UHD die 6900XT dort genauso eingehen wie die 6800XT, dann würden mir auch keine 3GHz Taktfrequenz helfen...
Schaun mer mal ob AMD das noch gefixt (Treiberupdate) bekommt.
 
  • Gefällt mir
Reaktionen: bad_sign
Wadenbeisser schrieb:
@ Tigerfox
Das beschreibt auch weitestgehend den Unterschied zwischen einer 3080 und einer 3090 bei der ein Aufpreis von ca. 800€ verlangt wurde denn beide nutzen den gleichen Chip der bei letzterer auch nur mehr aktive Einheiten besitzt und beide nutzen die gleiche Sorte Speicher.
Sag jetzt nicht das hier auf einmal der größere VRAM eingerechnet wird der sonst offenbar keine Rolle bei der Preisgestaltung spielen darf da mehr Speicher keine Mehrleistung bietet und das offensichtlich auch beim 3080 vs. 6800XT oder gar 3070 vs. 6800 Vergleich?
Ich für meinen Teil tippe z.B. bei der 6900XT auch auf ein stärker erweiterbares Powerlimit mit dem mehr Leistung beim OC ankommen könnte.

Der technische Unterschied ist schon größer, wenn auch für 800€ zu klein. Natürlich ist da der Speicher eingerechnet und natürlich dürfen 14 1GB-Chips ordentlich was kosten, zumal die auf der 3090 auch noch für einen höheren Takt spezifiziert sind (2,1GHz statt 1,9GHz, obwohl sie nur mit 1,95GHz betrieben werden und auch die auf der 3080 meist mehr als 2GHz schaffen). Der Chip ist auch deutlich stärker beschnitten, wie oben gesagt sind 8 CU bei Navi21 nur 11% mehr als bei der 6800XT bzw. ~10% des Ganzen, beim GA102 sind 14 SM aber ~20,5% mehr bzw. ~17% der 3090 fehlen (wobei der Vollausbau 23,5% mehr böte als die 3080), dazu noch das Speicherinterface, das ebenfalls 20% breiter ist bzw. um ~17% gekürzt ist.
Der GA102 ist auf der 3080 um mehr als ein ganzes GPC gekürzt, so stark, dass die Gerüchte von einem GA103 mit nur 6 GPC plausibel erscheinen.
Dass die 3090 momentan nur 10% mehr bietet, liegt auch an den Games. In ein, zwei Jahren dürfte der Abstand gewaltig gewachsen sein. Das kann man jetzt schon an den Tests in 8K sehen. 8K ist Mumpitz und wird auf absehbare Zeit nicht der Realität bei 99% der Nutzer entsprechen, ist aber schon jetzt theoretisch möglich, wenn man auf einem 8K-TV zockt. Da ist der Abstand zwischen 3080 und 3090 bei den minimalen fps eher so >20% oder die 3080 bricht auf einstellige Werte ein oder lässt viele Texturen weg oder das Spiel bietet die Auflösung garnicht erst an. In CoD hatte CB schon in 5K sichtbare Texturnachladen bei der 3080, nicht aber bei der 3090.

Das mag im Moment alles Rosinenpickerei sein, in ein bis zwei Jahren mit moderneren Titeln wird die 3090 aber deutlich besser dastehen, vielleicht schon mit gerade neu erscheinenden, wo BigNavi sich ja auch deutlich besser absetzen konnte. Natürlich enspricht das nicht der typischen Nutzung einer 3090, weil die typischen Enthusiasten, die sich eine 3090 kaufen, vorher schon eine 2080Ti hatten und davor eine 1080Ti und 980Ti und nun sehnlichst auf die 4080Ti/4090 warten, weil es einfach immer das Beste und Neuste sein muss.
 
Wadenbeisser schrieb:
Der entscheidene Punkt wurde aber bereits angesprochen, was hat das mit der Framerate bei gleichen Bildeinstellungen zu tuen? Seit wann wird dafür mehr Speicher benötigt? Der muss dann lediglich schneller gefüttert werden und steigt mit dem GPU Takt auch der Takt des Cache wäre das wohl das geringste Problem.

furmark passt komplett in den cache, cyberpunk wahrscheinlich eher weniger. spiele sind komplexe 3D last, in denen ständig neue assets und shadereffekte geladen und berechnet werden müssen.
es ist nicht bekannt, ob der cache eine eigene taktdomäne hat. ich würde mal nicht davon ausgehen, dass der in irgendeiner weise an den coretakt gekoppelt ist, zumindest nicht außerhalb von idle und load powerstates.

Prüfling87 schrieb:
ja eben und solange man die selbe Auflösung und Qualitätseinstellungen benutzt ändert sich am RAM Bedarf egal ob von den 128 Mb Infinity oder 16GB eben nichts.

die kapazität des vrams stand nie zur debatte. ich weiß nicht, warum das immer wieder auftaucht.

mir geht es hier um die 128mb cache, und das ist was anderes als vram.

die hierarchie wird folgendermaßen sein:

gpu core <- infinity cache <- vram

man weiß noch nicht, wie genau der cache funktioniert oder was er exakt macht, aber fakt ist, dass der cache von der kapazität her den GDDR6 nicht ersetzen kann - ein puffer eben. wichtige daten zur weiterverarbeitung werden dann in den cache geladen und von da aus von der gpu abgerufen - aber der cache kann nicht alle daten des gddr6 fassen, daher muss man selektieren. die gpu wird bestimmte daten immer zuerst im cache suchen, und dann im vram.

im grunde macht zen2/zen3 mit dem großen L3 cache das selbe - der überbrückt auch die latenzen. threadripper 3000 ist beim gaming auch enorm schnell, aber das liegt an dem gigantischen L3 cache. und der R5 3500 säuft gegen den R5 3500X regelrecht ab, weil er einen beschnittenen L3 cache hat. der ist trotz zen2 chiplets nicht schneller als ein R5 2600.

je mehr arbeit die gpu verrichtet, desto mehr daten müssen durch den cache. und hier sind wir in der situation, wo "konventionelle" gpus mehr vram bandbreite brauchen, um genügend daten in den core zu schieben, damit auch alle einheiten etwas zu tun haben. wir sind uns einig, dass leistungsstärkere gpus einen höheren bedarf an speicherbandbreite = daten haben?

meine vega 56 hat 585gb/s speicherbandbreite (übertaktet) und skaliert in doom eternal von 800mhz hbm2 takt bis zur stabilitätsgrenze von 1150mhz - da ist nie eine sättigung erreicht, wo der core mit dem selben takt aus der gesteigerten bandbreite keinen nutzen mehr zieht. die 6900 XT hat eine speicherbandbreite von nur 512gb/s mit ca 1000mhz mehr takt auf 43% mehr CUs mit 20% mehr IPC.

die frage ist, was passiert, wenn die gpu zu viele daten auf einmal verarbeitet, und der cache ggf. nicht mehr schnell genug oder in ausreichender menge die daten vorhalten kann.

dann passiert nämlich aller wahrscheinlichkeit nach folgendes: die gpu wird wichtige daten, die normalerweise im cache liegen, im cache suchen - aber der cache hat ggf. aufgrund von platz oder durchsatzbeschränkungen die daten nicht - und dann wird das zeug, das nicht im cache ist, im GDDR6 abgerufen - und dann ist der cache teilweise wirkungslos und eine 2,7 ghz 80CU gpu muss dann daten durch ein 256bit nadelöhr beziehen oder warten, bis der cache die daten aus dem GDDR6 geladen hat.
wir sind uns einig, dass dieses szenario eher ungünstig wäre, oder?

es geht hier ja erstmal nur um eine theorie - die ausführung dient hier lediglich der erklärung des offensichtlich mehrfach missverstandenen ausgangspunkts. das soll nicht heißen, dass ich davon ausgehe, dass der cache ein problem ist. es ist ja noch nichteinmal klar, ob überhaupt ein missverhältnis bei takt = performance vorhanden ist. aber falls ja, dann wäre das ein punkt, wo ich mal ansetzen würde. ohne eine karte zum test ist das ganze ohnehin hinfällig.
 
@Tigerfox

Warum wird bei solchen Diskussionen bei nvidia ein größerer Speicher angerechnet, hat aber für anderen bei der Preisgestaltung keine Rolle zu spielen?
Warum wird die Steigerung an Recheneinheiten angeführt, die geringere Leistungssteigerung durch den gesenkten Takt trotz weiter gestiegenen Verbrauch verschwiegen? Bei der kommenen Karte von AMD scheint die TDP ja gleich zu bleiben und der Takt wird sich dann zeigen. Wieviel ist die Argumentation also wert wenn z.B. die Leistungssteigerung gleich ausfällt?

Wenn du schon mit den Titeln in 1-2 Jahren für die 3090 argumentierst, was passiert dann mit der 3080 wenn sie dann höchst warscheinlich bei gleich hoher Bildeinstellung wegen Speichermangel einbricht und die Radeons durch das dickere Speicher Polster nicht einmal mit der Wimper zucken? Darf man dann nur mit einer Einstellung vergleichen bei der die 3080 nicht verhungert? Dieses Szenarion ist angesichts der Speicherausstattung der neuen Konsolen alles andere als unwarscheinlich.


@duskstalker

Ich habe die Vermutung das im infinity Cache nicht zuletzt der Framebuffer abgelegt wird, welcher zwar nicht viel Speicherkapazität benötig aber auf ständig zugegriffen wird und entsprechend Bandbreite fressen dürfte.
Daher auch meine Vermutung zum multi Monitor Setup denn der scholl ja lediglich für UHD ausgelegt sein.
Verdammt viel Speicherplatz dürften z.B. die Texturen fressen, sind vom Bandbreitenbedarf her allerdings nicht so gewaltig groß. Das ist z.B. etwas was ich von meinen Erfahrungen mit dem HBM Cache abgeleitet hatte. Es ist also extrem wichtig was bei der Bearbeitung wo abgelegt wird. Das Datenmanagement ist für dieses Design also elementar wichtig. Das konnte man ja auch bei Intels Iris Pro Grafik sehen die sich erst durch den schnellen Zwischenspeicher absetzen konnte, welcher anfangs wohl nicht zuletzt ebenfalls 128 MB groß war. Es gab zwar auch Varianten mit 64 MB aber die sollen deutlich problematischer gewesen sein was FPS Einbrüche anging.
 
  • Gefällt mir
Reaktionen: duskstalker
Vor Veröffentlichung der 6900 sehe ich bislang schon mal einen Vorteil:
Wenn sie zu bekommen sein wird (?), dann auf jeden Fall zum UVP. Warum ? Ganz einfach, weil es von der 6900 lt. Aussage von AMD zunächst KEINE Custom Designs geben wird und fertig.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wechhe schrieb:
Oder nur Wunschvorstellungen eines Fanboys / Fangirls?
Graka-Fanboys 2020: "Meine imaginäre Grafikkarte ist viel besser als deine imaginäre Grafikkarte"
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Unti
@Wadenbeisser : Du scheinst mich als NV-Fan misszuverstehen.

Ich wollte mihilfe der 3090, die aus ihren ~20% besseren Daten nur etwas über 10% mehr Leistung gegenüber der 3080 zieht, die aber durch den Speicher in höheren Auflösungen deutlich besser dasteht, begründen, dass bei der 6900XT mit noch viel weniger Vorteil gegenüber der 6800XT zu rechnen ist, weil sie anscheinend außer 8 CU mehr und einen höheren theoretischen OC-Takt, der in der Praxis ersteinmal erreicht werden muss, nichts weiter bietet.

Der Aufpreis der 3090 ist zu hoch, aber durch den Speicher ist ein gewisser Aufpreis ggü. der 3080 gerechtfertig, natürlich nicht 800€. Bei der 6900XT ist er nicht gerechtfertigt. Bei der 6900XT ist auch nicht zu erwarten, dass sich der Abstand zu 6800XT bei moderneren Titeln oder höheren Auflösungen erhöht, er wird immer gleich bleiben.

Natürlich sind AMDs Karten mit 16GB momentan das bessere Gesamtpaket als mit 8GB und 10GB, auch wenn man das momentan in 1440p nicht ausspielen kann und zumindest die 6800 in UHD schon an ihre Grenzen kommen dürfte. Aber auch nur momentan und nur wenn einem RT nicht wichtig ist. Mir ist es das nicht, weil ich bisher keines der Spiele interessant fand, die das einsetzen. Cyberpunk wäre aber z.B. ein Titel, der in mein Genre fällt, mir nur vom Setting nicht zusagt, was sich aber ändern könnte, wenn das Spiel RPG-technisch so genial wird, wie alle hoffen. Es werden aber auch in meinen Genres RPG und Strategie Spiele mit RT kommen und da sieht AMD nunmal momentan alt aus.
Es kommt nun sehr auf 3070Ti und 3080Ti an und wie NV die preislich gestaltet. Die 3080Ti dürfte die 6800XT und selbst die 6900XT weghauen und kaum langsamer als die 3090 sein, aber auch fast die gleichen Materialkosten haben, die 3070Ti wird deutlich schneller als die 6800 sein und manchmal in Reichweite der 6800XT, zu den gleichen Materialkosten wie eine 3080 auf GA103-Basis. Ich würde wetten, Nvidia muss die Karten günstiger verkaufen, als ihnen lieb ist, kann das aber auch.

Ist dann ähnlich wie zu Zeiten von Fermi, Kepler und Maxwell, da hab ich mich bei diversen Modellen auch immer geärgert, dass es bei NV keine oder zu wenige bzw. zu teure zukunftssichere Modelle mit doppeltem Speicher gibt (z.B. wenige 560Ti 2GB und 580 3GB, fast keine 570 2.5GB, keine 560Ti-448 2.5GB, kaum 660 und 660Ti 3GB, keine 780Ti 6GB oder 970/980/980Ti 8GB/12GB), bei AMD aber schon (ok, keine HD6850/6870 2GB und wenige HD6950 2GB, ebenso keine 7850/7870 und R9 285 mit 4GB, dafür hatten 7950/7970 bzw. R9 280(X) schon normal 3GB, R270X und 290X gab es dann viele mit 4GB bzw. 8GB, 370, 380(X) und 390(X) gab es dann fast nur mit 4GB bzw. 8GB, ebenso gab es die 480/580/590 meist mit 8GB).
 
  • Gefällt mir
Reaktionen: Tanzmusikus
bad_sign schrieb:
@Unti
Kannst du aufhören zu behaupten, der Cache limitiert?
Er tut es nämlich nicht. Link hast du ja bereits von @Darkblade08 bekommen.

Igor hatte es zwar in seinem Test behauptet aber überhaupt nicht getestet.

Ja kann ich sorry, war evtl. auch falsch von mir formuliert bzw. gemeint.
Ist im Test definitiv wie von euch erwähnt korrekt getestet worden und hat keinen Performanceverlust gezeigt! . My Bad.
______________________________________________________________________________________________

Wollte die Leistung der RX6800XT auch keinesfalls schlecht reden oder das geile Ding in den Dreck ziehen, bitte nicht falsch verstehen ;)
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Tanzmusikus und bad_sign
@Tigerfox

Mir ist ehrlich gesagt ziemlich egal was du dir kaufst, ist schließlich dein Bier. Ich habe nicht umsonst nicht auf dich bezogen geschrieben, es ging vielmehr um die allgemeine Diskussions"kultur" bei dem Thema und da schaut es nur allso oft wie oben beschrieben aus.

Wenn nvidia seine Marktmacht bei den Spiele Herstellern ausspielt dürfte man die Ampere Architektur vor allem pushen indem die PC Versionen so "optimiert" werden das sie deutlich FP lastiger ausfallen werden und so die Schwäche im Design umgangen wird. Damit ist natürlich auch absehbar das AMD es nicht allso viel bringen wird wenn die eigene Hardware in den Konsolen vertreten ist. Das Spiel wird ja schon lange genug getrieben, was sich nicht zuletzt in PC Versionen von Spielen äußern dürfte die auf AMD Hardware erstaunlich schlecht läuft.

Die nächste Karten Generation verkauft man dann vor allem über den größeren Speicher der den entsprechenden Leistungseinbruch der meisten aktuellen Modelle bei höheren Grafikeinstellungen ganz einfach übergehen wird und Fortschritte beim Fertigungsprozess fließen dann nicht zuletzt in Effizienz Verbesserungen..
 
Das letzte befürchte ich auch, AFAIK ist ja mit Hopper als Ampere- NAchfolger erst 2022 zu rechnen, für 2021 müsste man also entweder mit 30x0Ti-Karten oder mit einem Refresh (mit TSMC-Shrink?) als RTX 4000 arbeiten. Und da weder über deutlich mehr SM noch über wesentlich mehr Takt, selbst bei einem Shrink, Leistung geholt werden kann, muss man wohl mit kleinen Verbesserungen und mehr Speicher punkten. Wäre schön, wenn der Kunde das durch Kauf einer Radeon RX 6800 abstraft, ich glaube es aber nicht.

Das Nvidia noch so stark wie früher Einfluss darauf nehmen kann, dass Spiele auf seine Architektur hin optimiert werden, glaube ich aber nicht, immerhin ist AMDs Architektur Grundlage der zwei meistbenutzten alten und neuen Konsolen.
Ich bin da aber nicht auf dem Laufenden und lasse mir gerne Beispiele für Konsolenports zeigen, in den AMDs unterdurchschnittlich abschneiden. Mich persönlich betrifft z.B. Anno 1800, dass aber ein reines PC-Spiel ist.
 
Zurück
Oben