News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost

Linmoum schrieb:
...
Und du glaubst nicht, wie oft Investoren (auch) auf Medienberichterstattung reagieren. Die ist fester Bestandteil. Muss man nicht gut finden, ist aber so.
Den Investoren ist das genaue Datum egal, solange es vor / am Black Friday ist, welcher irgendwo zum Monatswechsel November Dezember afaik lieg.
 
Taxxor schrieb:
Wo sollte sie denn diese 15% her nehmen?
Zertruemmerdog schrieb:
Hä? Mit photoshop das raster von 8nm auf 7nm shrinken. Easy!
Cpt.Willard schrieb:
Hmm - wie sind denn die Ergebnisse der 3080 unter Wasser?
Das wäre dann doch quasi das Ergebnis bei einer entspannten TSMC-Variante unter Luft, oder irre ich mich?
NV kennt ja durch den GA100 die Fertigung von TSMC.
Ob man überhaupt die Masken ändern müsste- oder lieber weniger Dichte=größerer Takt.
In dem Sinne ist AMD sicher auch net auf größtmögliche Packdichte gegangen sondern ala Navi10 moderat.

Hier mal den Takt von XT@255W TGP von PatrickSchur:
3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Mit 289W waren die 3 Takte noch mehr auseinander. (Hotspot-Temp? , Treiber , who knows)
 
  • Gefällt mir
Reaktionen: Cpt.Willard und foo_1337
foo_1337 schrieb:
So ist es.. und vielleicht wurde der GA103 bereits auf 7nm designed und kam daher bisher nicht.
Der kann vllt. net so schnell kommen, weil die Teslas/Quadros mehr Gewinn abwerfen.
Falls Jensen bei TSMC mehr Kontingent bekommt würde wohl zuerst mal noooooch mehr Gewinn gemacht.
Glaube net, das sich der Küchenchef so sehr um die Gamer sorgt. Die bekommt man mit mehr Marketing satt.
(1-2 zusätzliche RT-Games)
Und die Fertig-PC´s und Elektronikmärkte werden ja auch seeeehr einseitig nur von Grün beliefert.
Der Absatz wird damit net wegbrechen.
AMD wird net böse sein, wenn der Verkauf net zu sehr explodiert, hat ja auch noch andere Interessen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard
Man darf hier jedoch nicht die Vergangenheit von nvidia und tsmc außer acht lassen. Die beiden haben sich gegenseitig groß gemacht. Und so eine Historie und der Umstand, dass Jensen da bestens vernetzt ist, ist viel Wert bei Geschäftsbeziehungen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
foo_1337 schrieb:
Man darf hier jedoch nicht die Vergangenheit von nvidia und GAMERN außer acht lassen. Die beiden haben sich gegenseitig groß gemacht. Und so eine Historie und der Umstand, dass Jensen da bestens vernetzt ist, ist viel Wert bei Geschäftsbeziehungen.
Habe mal in dem Zitat TSMC durch Gamer ersetzt.
Liest sich dann gleich viel interessanter. Nach m.E. denkt Jensen nuuuuuur an sich.
1080Ti@11GB-->2080@8Gb-->3070@8GB
2080Ti@11GB-->3080@10Gb
Die 4k-Einsteigerkarten sind net so prall, wie die liebevollen Geschäftsbeziehungen zu den Gamern.

Die Fans müssen Jensen noch viel mehr loben, dann klappts auch mit der 3060@6GB.

edit: Worauf will ich hinaus?
Durch das Herunterfahren des Vrams zwingt Jensen die Studios die Qualität der Texturen zu verringern.
Das ist ein vollkommen unsinniger Trend!
Man könnte heutzutage mit den 2GB-GDDR6-Modulen sehr leicht 12+16GB einbauen und die Nutzung kostet keine Fps+W.
Das ist der eff. Weg mehr Optik zu bekommen.

Wer dann noch ein bisschen Muße hätte (als Programmierer) könnte auch noch POM bei den Texturen nutzen.
(siehe Crysis Original) Es muss ja net immer gleich Alles mit Tess. gemacht werden.

Ich hoffe mal die neuen Games für die Konsolen werden in dieser Hinsicht den Weg weisen.
(und bei den PC´s dann noch ne Ultra-Stufe für Texturen obendrauf)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und Haenger
GerryB schrieb:
Durch das Herunterfahren des Vrams zwingt Jensen die Studios die Qualität der Texturen zu verringern.

Kann man so sehen oder man sieht es wie ich als Herausforderung an eine neue Komprimierung. Mit Video hat man es ja auch hin bekommen ca. 50% zu sparen wenn man von h264 auf h265 geht. Bei Texturen geht das genau so indem man auf HEIF oä setzt.
 
Vermutlich wird net die Textur an sich schlechter sondern eher das LOD angepasst.
Ob dann in Game XYZ ne 3080 net die selben Texturen verwendet wie ne 3090 wurde ja schon im Gamethreads
diskutiert. Das sollten aber eher Ausnahmen sein.
Mir fällt eigentlich nur auf, das heutige Games bis auf Ausnahmen (RDR2) ne rel. schlechte Fernsichtqualität haben.

Nichtsdestotrotz wäre ne 3080@10GB an der Grenze des Ausreichenden.(man kann ja sogar im NV-Treiber am LOD rumspielen)
Die 3080FE wurde anscheinend aufgrund der Beobachtung von Igor zum Hotspot (throtteln) leicht nachgebessert.
Hoffentlich dadurch jetzt wieder in Produktion/verfügbar demnächst.
https://www.pcgameshardware.de/Nvid...vision-der-3080-Founders-Edition-ein-1360599/
Sehe Da auch wenig Konkurrenz zw. NV+AMD, eher haben Beide genug zu tun in ausreichendem Maße bis Weihnachten auszuliefern.
Lustig finde ich eher so die Previews auf irgendwelche kommenden Intel-Grakas. Durch den Leistungssprung von NV+AMD wirds für Raja wohl ein poor Intel.

btw.
Ein ähnliches Spielchen wie bei den Texturen/LOD hat man in den RT-Vorzeigegames.
Nach m.E., rein subjektiv, werden extra seeeeehr schlecht ausgeleuchtete Räume kreiert, die erst durch
indirekte RT-Beleuchtung erträglich sind.(bzw. Sonnenlicht durch Fenster absichtlich abgeschwächt?)
NORMAL ist das net ganz korrekt, weil ja bereits durch HDR selbst in dunklen Räumen ganz gut Nuancen zu sehen sind. (z.Bsp. die Umsetzung bei SOTR und Metro ist net so ideal)
Auf diesem Weg die Gamer zu RT zu zwingen ist net schön.
 
Zuletzt bearbeitet:
GerryB schrieb:
Auf diesem Weg die Gamer zu RT zu zwingen ist net schön.
Sieht man in vielen RT Titeln, am auffälligsten war bisher für mich Control, wo man ohne RT einfach gar keine Spiegelungen in Fenstern o.ä. gesehen hat, wo ich mir zu 100% sicher bin, dass diese vorhanden gewesen wären, wenn das Spiel kein RT geboten hätte.
 
  • Gefällt mir
Reaktionen: Benji18
Die Älteren können eigentlich nur mit dem Kopf wackeln, wenn man mal den Fortschritt über die Jahre vergleicht.
Anhand der Graka-Mehrpower müssten ala Hitman 2 auch normale Reflektionen besser ausschauen können.

Bsp., einmal RT on/off , wo auf einmal anscheind die Sonne komplett weg ist, net mehr durchs Fenster scheint.
Dagegen der olle 3dMark 2000, der schon mehr spiegelte oder ein Grid2.
3DMark 2000 Demo FullHD (1080p) - YouTube
Nach m.E. sollte dem Gamer die Wahl gelassen werden. (erfordert beide Methoden mit ordentlicher Quali)
Man darf schließlich net vergessen, das die Mehrheit (steam) net so potente Hardware hat.

Eigentlich müßte mit der neuen starken Hardware auch mal das vol. Lighting neu angeschaut werden.(RE2)
Resident Evil 2 im Technik-Test - ComputerBase
Da war Turing noch zu schwach fürs Maxed4k. Ich denke, es lohnt sich ältere Games nochmal mit nem ordentlichen HDR-Moni zu spielen.
 

Anhänge

  • ray-tracing-on-e-off.jpg
    ray-tracing-on-e-off.jpg
    83,2 KB · Aufrufe: 325
  • Reflektionen-G2.png
    Reflektionen-G2.png
    3,2 MB · Aufrufe: 338
Zuletzt bearbeitet:
3DMark2000 lange ist es her.
Das fand ich damals echt fazinierend.
Besonders die letzte Szene mit dem Pool und das Soundsample. :)

Ja, ich würde es auch begrüßen, dass man es selbst regeln kann, wie Reflektionen berechnet werden, ob mit RT oder ohne RT. Aber ich bin kein Entwickler und weiß somit auch nicht wieviel Zeit es kostet, so wohl das Eine als auch das Andere zu implementieren und ob der Aufwand sich gegenüber den Kosten noch rechtfertigen lässt.

Aber warten wir mal ab.

Ich finde aktuell durch die neuen Konsolen und Technologien wie DLSS und Raytracing kommt nochmal Schwung rein. Auch AMD Mantle (Vorreiter von Vulkan) hat letztendlich zu DirectX12 verholfen und ich hoffe dass die Entwicklung endlich DX12 voll auslastet und man langsam DX11 nicht mehr so viel Beachtung schenkt.
Dann wird sich Performance und Qualität unter DX12 auch deutlich bessern.
Vor allen Dingen Mehrkernnutzung und Verteilung auf mehere Threads muss weiter in die Entwicklung einfließen.
Bin mal gespannt wie es mit den Cores auf den Grafikkarten in den nächsten Jahren weiter gehen wird.
 
Eigentlich schade das MaxPayne net mehr unterwegs ist.
Max Payne 3 Screenshots - GamingCore

Die Dame von Control ist net so mein Fall. Hat netmal die Haare so ordentlich gemacht wie Lara.
Wenn man sowas die ganze Zeit von Hinten ansehen muss... ist net mein Favorit.
 
GerryB schrieb:
Durch das Herunterfahren des Vrams zwingt Jensen die Studios die Qualität der Texturen zu verringern.
Das ist ein vollkommen unsinniger Trend!
Was willst Du denn mit dem VRAM alles anstellen, wenn die gängigen größen und die Texturen dahinter so vorliegen, dass Du nach der Geometrie- Entzerrung bereits pro Pixel ein Texel hast?

Shit in->Shit out. Es gibt heutzutage einfach noch viel zu viele unoptimierte, schlechte Texturen.

Ab einem gewissen Level ist es einfach völlig unsinnig noch mehr VRAM an Texturen zu verschwenden, denn mehr als 4K in einem 1:1 Mapping Pixel/Texel wird nunmal nicht benötigt, im Gegenteil. Es kann schlechter werden. Es gibt ja nicht umsonst mip- mapping.
Die Entwickler sollen lieber mal anfangen, den Texturen ein wenig mehr Liebe zu schenken. Da bleibt nämlich enormes Optimierungspotenzial auf der Strecke.
Und es gibt immernoch genügend Titel, in denen eine nicht optimale Texturkompression gemäß des Texturzwecks gewählt wird oder man kein ordentliches UV- Mapping hinbekommt.

Die Jungs haben in Fallout 4 die Texturen einfach mal durch die Mangel gedreht. Die Originaltexturen verbrauchen bei keinerlei optischen Gewinn mal entspannt 50% mehr.

Vanilla textures are far too large for the majority of computers to handle, such as 2K-Res textures for 40-60% of all diffuse maps in the game, even on grass! This is ridiculous. This mod fixes that problem by selectively reducing texture size, using proper compression and retaining the vanilla art style!
https://www.nexusmods.com/fallout4/mods/978

So lange man also versucht, technische Unzulänglichkeiten, schlechte Texturen und handwerkliche Fehler mittels VRAM zu erschlagen, ist nichts gewonnen. Damit kriegt man früher oder später nämlich jede Hardware klein.

Noch schlimmer- Die Industrie hat die die Leute schon so weichgekocht, dass sie auf diesen Wahnsinn der Ressourcenverschwendung bezüglich Hardware schon ins gleiche Horn blasen und einfach noch immer mehr Rechenleistung und VRAM auf schlechte Enginetechnik und schlampiges Asset- Design werfen, obwohl den Entwicklern viele Mittel an die Hand gegeben werden, es besser zu machen.

Just my 2 cents
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer, oeMMes und foo_1337
.Sentinel. schrieb:
Was willst Du denn mit dem VRAM alles anstellen, wenn die gängigen größen und die Texturen dahinter so vorliegen, dass Du nach der Geometrie- Entzerrung bereits pro Pixel ein Texel hast?

Shit in->Shit out. Es gibt heutzutage einfach noch viel zu viele unoptimierte, schlechte Texturen.

Ab einem gewissen Level ist es einfach völlig unsinnig noch mehr VRAM an Texturen zu verschwenden, denn mehr als 4K in einem 1:1 Mapping Pixel/Texel wird nunmal nicht benötigt.

Du hast doch mit (Spiele)-Entwicklung zu tun, oder?

Mich würde mal deine Meinung zum Thema Voxel interessieren.
Warum wird diese Technik nicht so richtig weiter verfolgt und gepusht?
Lassen sich damit Objekte und Texturen nicht noch besser darstellen und auch glaubwürdiger erscheinen lassen, was z.B. Veränderungen/Zerstörungen dessen angeht?

Natürlich in Verbindung mit den heutigen Hardware/Feature-Möglichkeiten - wenn man diese voll ausreizt.

Wird da noch was kommen oder bleibt das ein Nischenprodukt?

Und sorry für OT ^^
 
  • Gefällt mir
Reaktionen: .Sentinel.
mc_ace schrieb:
Du hast doch mit (Spiele)-Entwicklung zu tun, oder?
Inzwischen ja. Ich arbeite inzwischen an einem größeren Projekt mit (wird aber noch dauern und genaues darf ich (noch) nicht sagen).

Mich würde mal deine Meinung zum Thema Voxel interessieren.
Warum wird diese Technik nicht so richtig weiter verfolgt und gepusht?
Das wird sie schon. Und in einigen Bereichen sogar ziemlich erfolgreich meiner bescheidenen Meinung nach (z.B. Voxel conetracing).

Du holst Dir damit aber, wie bei vielen Techniken einfach Nachteile/Schwierigkeiten ins Boot, die durch den Bruteforce- Ansatz eines Path Tracers grundsätzlich nicht auftreten. Dafür leidet dann wieder die Performance.

Lassen sich damit Objekte und Texturen nicht noch besser darstellen und auch glaubwürdiger erscheinen lassen, was z.B. Veränderungen/Zerstörungen dessen angeht?
Texturen nein. Für Zerstörung kann man es nutzen, bietet ber meine Meinung keine überlegeneren Möglichkeiten, als es die Vertex- gestützten Verfahren liefern.

Das hier ist doch z.B. schon ganz nett... Und ehrlich gesagt, sehe ich keine Notwendigkeit das Zerstörungsmodell noch granularer zu gestalten (wie es z.B. mit Voxeltechnik machbar wäre).

Wird da noch was kommen oder bleibt das ein Nischenprodukt?
Ich kann mir durchaus vorstellen, dass man mit den neuen Rechenwerken einen effektiven Hybriden gestalten kann.

Cryteks Ausflüge in die Voxeltechnik finde ich z.B. ziemlich interessant. Aller Unkenrufe zum trotz, schreibe ich die technisch noch nicht ab...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Backet, foo_1337 und mc_ace
.Sentinel. schrieb:
Noch schlimmer- Die Industrie hat die die Leute schon so weichgekocht, dass sie auf diesen Wahnsinn der Ressourcenverschwendung bezüglich Hardware schon ins gleiche Horn blasen und einfach noch immer mehr Rechenleistung und VRAM auf schlechte Enginetechnik und schlampiges Asset- Design werfen, obwohl den Entwicklern viele Mittel an die Hand gegeben werden, es besser zu machen.
Erst mal Danke für die umfangreichen Ausführungen.(x)

btw.
schlechte Engine !?
Gerade gibts nen DLC zu Doom Eternal. Da scheinst so zu sein, als ob in 4k die 8GB-Grakas Probleme haben.
Phil muss noch mal checken, worans liegt.
Es gab heute früh komische Ergebnisse RX64 vs. RX56 und 2080 vs 2080Ti.
https://www.pcgameshardware.de/Doom...rt-One-Test-GPU-CPU-Benchmark-Review-1360390/
edit: Phil hat den Fehler von seinem Kollegen gefunden und die Werte korrigiert.#13
Doom Eternal Ancient Gods Part One - Das Addon für den Shooter-Hit im Technik-Test | Die Hardware-Community für PC-Spieler - PCGH Extreme
Sollte man evtl. mal inGame beobachten, obs diesen Speicherüberlauf gibt (nach längerer Zeit)
(oder obs nur beim Wechsel von 5k auf 4k passiert)

Da muss Id-Tech ja wirklich AC sehr stark nutzen damit Vega>Navi in 4k da steht.
Dito steht Turing natürlich besser da als Pascal.

(x)Daher würde ich beim Kauf heute ungern ne 8GB-Graka nehmen, vor Allem, wenn die nextGen-Konsolen
"schlampigerweise" mit 10GB operieren.

btw.
Die neue Möglichkeit sich den tatsächlich genutzten vs. belegten Vram anzeigen zu lassen, scheint
net sauber zu funzen oder der Ausleseintervall der beiden Werte war unterschiedlich.
im Anhang mit MS: genutzter V > belegter geht ja gar net!?
 

Anhänge

  • GDDR6-Usage vs GDDR6 belegt.png
    GDDR6-Usage vs GDDR6 belegt.png
    1.011,7 KB · Aufrufe: 286
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
GerryB schrieb:
im Anhang mit MS: genutzter V > belegter geht ja gar net!?
Kommt ganz drauf an was die Werte genau beschreiben.
Es kann sein, dass der genutzte inkl Swap aus dem normalen RAM ist und der belegte nur das zeigt, was physisch auf der Karte belegt ist.

Wobei das bei der 3090 nicht bei 10,5GB passieren dürfte.

Wir haben bei CX aber auch unterschiede von ~200MB festgestellt, wenn man z.B. den von der Nvidia ausgegebenen VRAM mit dem Memory Usage von HWInfo vergleicht. Die ~200MB sieht man bei dir ja auch.
 
  • Gefällt mir
Reaktionen: .Sentinel. und GerryB
GerryB schrieb:
btw.
schlechte Engine !?
Gerade gibts nen DLC zu Doom Eternal. Da scheinst so zu sein, als ob in 4k die 8GB-Grakas Probleme haben.
Da habe ich verallgemeinert. Es gibt natürlich Titel, bei denen die Auslastung und ein hinreichendes "Caching" durch VRAM Sinn ergibt.

Bei High- FPS Games mit hoher Streaming- Last muss man als Hersteller natürlich drauf achten, dass man das Streaming- System so konfiguriert, dass es auch mit einer HDD noch annähernd spielt.
Deswegen stopft man den VRAM/RAM voll, wo nur möglich, da jeder Zugriff der Grafikkarte außerhalb des eigenen VRAMs ein sehr Performancintensiver Zugriff ist.

Ich hoffe, dass die Krücke, dass Spiele immernoch auf HDDs optimiert werden, mit der neuen Konsolengeneration der Vergangenheit angehören.
Das ist inzwischen zu einer der größten Bremsen geworden.

Mit DirectIO zwischen Storage und VRAM sollte die VRAM- Größe künftig keine so große Rolle mehr spielen.
 
.Sentinel. schrieb:
Mit DirectIO zwischen Storage und VRAM sollte die VRAM- Größe künftig keine so große Rolle mehr spielen.
Kommt aber erst in nem Jahr für den PC.
Solange hätten die nextGen-Konsolen sogar 10GB Vram + directstorage.
(Sollten dann z.T. smoother laufen/laden)

btw.
Das o.g.Game sollte kein Bsp. für ne schlechte Engine sein. (eher das Gegenteil)
Phil hat ja auch den Fehler gefunden. (Wechsel von 5k auf 4k ist net zu empfehlen, besser erst aus dem Game raus)
An dem AddOn ist evtl. nur interessant das langsam die VLK-Version mit den Treibern besser werden.
Macht sicherlich Sinn mal ggü. dem alten DE z.vgl., wie sich die Performance entwickelt.
(günstig ist bei PCGH die Verwendung der Custom-Grakas, weil so das PL net so reinhaut wie bei CB,
alternativ kann natürlich Jeder selbst UVen; = KARMA, das jetzt mit Ampere UVen richtig wichtig wird)
 

Anhänge

  • DE-Day1.png
    DE-Day1.png
    102,2 KB · Aufrufe: 275
  • DE-AG4k.png
    DE-AG4k.png
    86,5 KB · Aufrufe: 266
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Preissenkung der 5700xt bitte, dann kauf ich mir nach 5 jahren endlich auch mal wieder ne neue GPU.
 
Zurück
Oben