News AMD Radeon RX 6800: Navi 21 XL auf über 2,5 GHz stabil übertaktet

foo_1337 schrieb:
Lass mich raten: Nachgeplappert vom CB WDL Test?

Nein weil ich nicht 1900€ für 60FPS in HD für GPU Ausgebe da ist mir meine PS5 lieber und günstiger.
Auch die PS5 kann sowas mit CB 2,5 ist recht gut und keiner merkt was auf dem TV.
Nee WD3 ist totaler UBI Schrott ( Story Müll Grafik naja und HW Anforderung zum kotzen) wer den käse unterstütz kann auch Fifa21 vom EA Verbrechern kaufen.

Zum WD habe ein Video gesehen wo RT Effekte durch DLSS Qualität verlieren.
 
  • Gefällt mir
Reaktionen: cookie_dent
Taxxor schrieb:
Die angegebene Gaming Taktrate wird aber nicht das sein, was die Karte real fährt, war bei der 5700XT auch nicht so.
Die 6800 dürfte Stock mit 2150-2200MHz laufen, zumindest hab ich bisher noch keine niedrigeren Taktraten gesehen und daher kommt ja auch unsere Aussage mit den 10% bei 13% mehr Takt, weil die 13% genau der Unterschied zwischen dem 2,5GHz OC und Stock ist.
Und damit kommt man in einigen Spielen bis auf 5% an eine 3080 ran, überholen wird man sie aber nicht, und die 3090 schon gar nicht.
Dann stimmen aber die von AMD selbst auf ihre Webseite gestellten Spezifikationen nicht: spec. amd 6800
Bei der 5700XT war ja der:
max. Boost 1.905 GHz
Basis Takt: 1.605 GHz
Gaming-Takt laut Computerbase: 1.83GHz

Bei der RX 6800 wird von AMD selbst von einer Gaming Taktrate von: 1.815 GHz / max. Boost von 2.105 GHz gesprochen. Wie will da der Gaming Takt 2150-2250Mhz betragen wenn der max. boost nur 2105MHz ist?
6800 spec amd.png


Bei der RX 6800XT: Gaming-Takt 2.015 GHz / max. Boost von 2.250 GHz
6800xt sec.png
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Mcr-King
ArrakisSand schrieb:
Dan stimmen aber die von AMD selbst auf ihre Webseite gestellten Spezifikationen nicht: spec. amd 6800
Bei der 5700XT war ja der:
max. Boost 1.905 GHz
Basis Takt: 1.605 GHz
Gaming-Takt laut Computerbase: 1.83GHz
Und Gaming Takt laut AMD 1.75GHz

Und Nvidia gibt bei der 3080 nen Boost von 1770 an während die Karten mit 1950 laufen.

Es kann natürlich sein, dass bei sämtlichen Benches die wir bisher erhalten haben, UV betrieben wurde, aber der Verbrauch passt genau auf die 250W TBP.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Taxxor schrieb:
Und Nvidia gibt bei der 3080 nen Boost von 1770 an während die Karten mit 1950 laufen

Auch ein Grund warum die so Warm werden nee danke alles über 80 kann nicht gesund sein auf Dauer.
 
Taxxor schrieb:
Und Gaming Takt laut AMD 1.77GHz

Und Nvidia gibt bei der 3080 nen Boost von 1770 an während die Karten mit 1950 laufen
Ja, bei der 5700XT liegt der reale Takt ziemlich mittig zwischen Game Clock und Boost:

Game Clock: 1755MHz
Realer Takt in Spielen im Schnitt (laut CB): ~1830MHz
Boost: 1905MHz

Deswegen, bei der 6800:

Game Clock: 1815MHz
Boost: 2105MHz

Wie soll der reale Takt da bei 2150-2200MHz liegen? Wenn du stattdessen die XT meinst, würde das mehr Sinn ergeben.
 
@Linmoum Sofern die Leute die Karte nicht manuell umbenannt haben, kann ich halt nicht mehr als z.B. das hier liefern^^
Screenshot 2020-11-15 224651.png


197W Schnitt und 204W max ist exakt das was man von einer Stock 6800 erwarten würde, es kann sein, dass man hier vielleicht UV betrieben hat um den Takt hoch zu bekommen, ohne gleichzeitig das Power Limit anzufassen, weiß ich nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Terminator-800 und Mcr-King
Taxxor schrieb:
Und Gaming Takt laut AMD 1.77GHz

Und Nvidia gibt bei der 3080 nen Boost von 1770 an während die Karten mit 1950 laufen.

Es kann natürlich sein, dass bei sämtlichen Benches die wir bisher erhalten haben, UV betrieben wurde, aber der Veerbrauch passt genau auf die 250W TBP.
Aber wenn sie sogar explizit dazu schreiben Game Frequency = up to 2.015 GHz dann sollten eigentlich keine Missverständnisse mehr existieren.
Aber selbst wenn sie die Game Frequency mit dem Boost Takt verwechselt hätten dann wäre wohl analog der 5700XT ein Takt zwischen basis und max. boost immer noch am wahrscheinlichsten 1.815 - 2.105 also z.B. ca. 2GHz.

Ganz ausschließen das sie es wie NVIDIA machen und man sich überhaupt nicht auf die Angaben verlassen kann möchte ich wiederum allerdings auch nicht.

TBP 250W heißt ja nicht das sie auch 250W verbrauchen muss auch eine Karte mit 230W kann in eine TBP von 250W eingestuft werden. Die 6800XT und 6900XT haben auch beide 300W.
 
Mcr-King schrieb:
Nein weil ich nicht 1900€ für 60FPS in HD für GPU Ausgebe da ist mir meine PS5 lieber und günstiger.
"Deine" PS5, die du vermutlich noch nicht hast, sprich auch nur vom Hörensagen berichten kannst, macht das ganze dann halt mit 30fps. Wenn es dann so läuft, wie bei der Series X, sind die RT Effekte schlechter als in der minimalsten PC Einstellung. Ob das dann wohl besser als in der plötzlich ach so schlechten DLSS RT aussieht darf stark bezweifelt werden.
Da du offensichtlich keine Möglichkeit hast, dich selbst von DLSS+RT zu überzeugen, solltest du dir einfach mal mehr als nur ein Video dazu anschauen um dir zumindest ein breiteres Bild davon zu machen.
Wie du auf 60FPS in HD bei einer 1900€ GPU (welche soll das sein?) kommst, erschließt sich mir ebenfalls nicht.
Mcr-King schrieb:
Auch die PS5 kann sowas mit CB 2,5 ist recht gut und keiner merkt was auf dem TV.
DLSS qualitativ anzweifeln und Checkerboard loben? Das kann ich nicht ernst nehmen. Übrigens benötigt die PS5 selbst für Rocket League 4k@60fps Checkerboard Rendering. Die Series X nicht. Ja, ich weiß, schlechter Vergleich, da das wohl eher die Schuld des Studios ist. Aber AC:V gibt's halt auch nicht in nativem 4k auf der PS5.

Die PS5 wird fast jeden Vergleich gegen einen PC mit einer Grafikkarte der 2020er Generation verlieren. Ist ja auch nicht schlimm, denn die PS5 kostet einen Bruchteil und ist für 499 eine sehr gute Konsole. Ich verstehe auch jeden, der die dem PC vorzieht. Aber diejenigen brauchen dann nicht damit zu kommen, wie gut sie im Vergleich zum PC performen würde oder wie toll das Checkerboard Rendering sei. Für letzteres arbeitet Sony ohnehin an einem Replacement, welches auf Supersampling basiert.

Können wir es dann bitte damit belassen und die dämlichen Konsolenvergleiche außen vor lassen? Damit werden nämlich weder die Konsolen- noch die PC Spieler glücklich.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: stevefrogs
ArrakisSand schrieb:
TBP 250W heißt ja nicht das sie auch 250W verbrauchen muss auch eine Karte mit 230W kann in eine TBP von 250W eingestuft werden.
Dann würde man sie eher als 225W vermarkten, wie die 5700XT. Die TBP ist ja auch kein ganz genauer Wert, der einzige Wert, der genau überwacht und eingehalten wird ist die TGP, der Rest kann schwanken.
ArrakisSand schrieb:
Die 6800XT und 6900XT haben auch beide 300W.
Und liegen soweit mir bisher bekannt auch beide leicht über den 300^^
 
Nachtrag:

@Mcr-King
Hier mal RT mit Checkerboard vs RT mit DLSS
Von links nach rechts: 4k mit Checkerboard (series x), Mitte: FHD mit Checkerboard (series s), rechts: 4k DLSS.

1605478023036.png


Such' Dir selbst aus, welches dir am besten gefällt.
 
foo_1337 schrieb:
Such' Dir selbst aus, welches dir am besten gefällt.
Sehe da zwischen 4K Checkerboard und 4K DLSS keinen Unterschied, außer der Darstellung in der Pfütze, die bei der XBox durch die niedrigeren Settings kommt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Taxxor@
Aber die TGP für die 6800 ist ja stock 203W und die TBP 250W die 197W GPU power (TDP) die bei Far Cry bei 2.2GHz ermittelt wurden sind doch lediglich die TDP:
Genau kann ich das natürlich auch nicht sagen aber könnte es nicht in etwa so aussehen:
2.2GHz:
TDP (nur GPU) = 197W
TGP (GPU + Speicher) = 225W
TBP = 275W

Bzw. Stock:
TDP (nur GPU) = 175W
TGP (GPU + Speicher) = 203W
TBP = 250W
 
Taxxor schrieb:
Sehe da zwischen 4K Checkerboard und 4K DLSS keinen Unterschied, außer der Darstellung in der Pfütze, die bei der XBox durch die niedrigeren Settings kommt.
Es geht ja in der Diskussion genau um den RT Effekt in der Pfütze. Die Aussage war ja, dass DLSS mit RT versagen würde und es mit CBR dafür wunderbar funktioniert. Eben die sinnlose Konsolen vs PC Diskussion, wie oben erläutert.
 
foo_1337 schrieb:
Es geht ja in der Diskussion genau um den RT Effekt in der Pfütze. Die Aussage war ja, dass DLSS mit RT versagen würde und es mit CBR dafür wunderbar funktioniert. Eben die sinnlose Konsolen vs PC Diskussion, wie oben erläutert.
DLSS funktioniert dort halt nicht in RT Effekten, daher hat man in der Pfütze wirklich nur die niedrige Auflösung. Um da jetzt was mit CBR zu vergleichen, müsstest du schon ein Beipiel mit gleichen RT Settings haben.
Ergänzung ()

ArrakisSand schrieb:
Taxxor@
Aber die TGP für die 6800 ist ja stock 203W und die TBP 250W die 197W GPU power (TDP) die bei Far Cry bei 2.2GHz ermittelt wurden sind doch lediglich die TDP:
Genau kann ich das natürlich auch nicht sagen aber könnte es nicht in etwa so aussehen:
2.2GHz:
TDP (nur GPU) = 197W
TGP (GPU + Speicher) = 225W
TBP = 275W

Bzw. Stock:
TDP (nur GPU) = 175W
TGP (GPU + Speicher) = 203W
TBP = 250W
Die Angabe, die AMD im Treiber rausgibt, beschreibt nach bisherigem Kentnissstand das was allgemein als TGP bezeichnet wird, also GPU + VRAM.

Anders ließen sich die 185W bei der 5700XT auch nicht erklären, denn bei einem Realverbrauch von im Test 210W während die Karte im Power Limit arbeitet ist es unmöglich, dass der Rest vom Board + Wandlerverluste + 8GB VRAM lediglich 25W ergeben.
Alleine wenn man auf die 185W nur die Wandlerverluste draufrechnet, würde man schon bei 212W landen, dazu noch der VRAM, sonstige PCB Verluste und Lüfter und man landet irgendwo bei 250W, die die Karte so ziehen müsste, wenn 185W nur die GPU ist.

Bei meiner Vega56 war übrigens der Unterschied zwischen dem was im Treiber angezeigt wurde und dem Realverbrauch der Karte deutlich größer, und das lässt sich dann auch damit erklären, dass der HBM weniger verbraucht hat und somit die TGP niedriger ausgefallen ist im Vergleich zum Gesamtverbrauch.


Edit nach Nachforschung: Die 6800 lief Stock mit den 2200MHz, es sind also im Treiber selbst schon mehr als die 2150MHz eingetragen.
Da es nur ein Spiel ist, lässt sich natürlich keine Aussage über den Durchschnittstakt über mehrere Spiele treffen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Taxxor schrieb:
DLSS funktioniert dort halt nicht in RT Effekten, daher hat man in der Pfütze wirklich nur die niedrige Auflösung. Um da jetzt was mit CBR zu vergleichen, müsstest du schon ein Beipiel mit gleichen RT Settings haben.
Das ist schlicht nicht möglich, weil sich die RT Settings am PC nicht so niedrig drehen lassen. Aber dennoch sieht man, dass der RT Effekt trotz der niedrigeren Auflösung deutlich besser als die "Checkerboard 4k mit minimalst RT" Variante der Konsolen ist. Denn genau das war der Claim.
 
foo_1337 schrieb:
Das ist schlicht nicht möglich, weil sich die RT Settings am PC nicht so niedrig drehen lassen. Aber dennoch sieht man, dass der RT Effekt trotz der niedrigeren Auflösung deutlich besser als die Checkerboard 4k Variante der Konsolen ist. Denn genau das war der Claim.
Und wie willst du die Aussage, dass es mit DLSS besser aussieht, machen, wenn das RT Detaillevel nicht mal das gleiche ist?

Ist das DLSS Bild denn mit RT= Low?
 
  • Gefällt mir
Reaktionen: Otsy
Taxxor schrieb:
Und wie willst du die Aussage, dass es mit DLSS besser aussieht, machen, wenn das RT Detaillevel nicht mal das gleiche ist?
Ist das DLSS Bild denn mit RT= Low?
Nein, ist es nicht. Die Aussage war, dass RT mit DLSS qualitativ mies ist und das ganze auf der Konsole dagegen mit Checkerboard Rendering gut aussieht. Da die Konsole in dem Fall aber nicht mehr hergibt, muss das nunmal als Maßstab für diese Aussage getroffen werden.
 
ArrakisSand schrieb:
Also zwischen der 6800XT und der 6900XT sehe ich keinen Platz mehr dazwischen und 32GB dürfte auch nicht wirklich ein Argument sein, denn 16GB sind schon reichlich bemessen für einen Gaming Chip wie ich finde.
Bei NVIDIA ist die Lücke von 10 auf 24GB hingegen extrem groß, da macht es auch Sinn eine Karte dazwischen zu platzieren auch wenn sie leistungstechnisch wohl auch nicht gerade der Überflieger sein wird.
Von einem größeren als 80CU beherbergenden Chip, hätten wir wiederum mittlerweile sicherlich bereits irgendwas gehört darum denke ich das bei dieser Gen. 80CU's das grösste der Gefühle bleiben wird.

Gut möglich das dies einer der Gründe ist wieso man so hohe Taktraten erreichen kann ????

Naja eigentlich meine ich, dass Platz gelassen wurde um eine 6950Xt nachzulegen ???
 
Ich will eure Diskussion ja nicht unterbrechen, aber eine Zwischenfrage sei erlaubt....

Ich hab mir grade Igors Vid mit dem Test der 3080 FE noch mal angeschaut, damit ich wieder voll im Thema bin, wenn es um mein Geld geht. und jeder 5. Satz ist "Die hängt im CPU-Limit....."

Das wird ja vermutlich bei den RDNA2 auch nicht anders sein.

In wie weit sind die Test denn überhaupt brauchbar? Igor hat da schon nen Ryzen 3900xT verbaut.

Braucht man jetzt dann nen 9 5900X für um die Dinger zu befeuern?
 
Zurück
Oben