News AMD RDNA 3: Navi 31 könnte mit 3 Modellen ab Oktober starten

Woah alter Falter, wenn das stimmt dann haut AMD die Top Karte mit mehr als doppelt soviel Shader raus als die Vorgänger Gen. und mehr Takt..... Und die menge des Grafikspeichers liest sich auch verdammt gut im Gegensatz dazu Nvidia ziemlich Mager. Also bin schon ziemlich gespannt auf die Lesitung der neuen Gen.
 
ShiftyBro schrieb:
Hmm, wollte eigentlich gerne ne 7700 XT für meinen 4k screen, weil mir die Leistung einer 6800 (XT) eigentlich ausreicht. Aber die 12 GB machen mich jetzt irgendwie nich so an.. hm. Dann vielleicht doch das Geld für ne 7800 in die Hand nehmen.. hoffe, die Preise gehen nich komplett an die Decke. :(
Also ich kann dir sagen daß diese wohl reichen werden ich habe die 6800xt und es kommt nur selten in UWQHD vor das ein Spiel mehr als 8GB haben will. Ist halt so da die meisten Nvidia Karten zwischen 6-10GB haben. Selbst in 4K werden es selten mehr als 10GB werden die 3080 hat ja nur 10GB.
 
Galatian schrieb:
Zur VRR Thematik gibt es bis Anfang des Jahres mehrer Updates von LG

Diese Updates dienten dem Flimmern in dunklen Bereichen wenn bei VRR die 120Hz unterschritten werden, weil dann die Gammacurve nicht mehr stimmt. Das liegt nicht am HDMI Port, sondern am Panel selbst weil die Kalibrierung auf 120Hz liegt. Wenn z.B. 108FPS geliefert werden und auch wegen VRR nur 108Hz dargestellt werden leuchten die OLEDs 10% länger was das Bild verfälscht. Erst wirklich neue Panels werden dieses Problem nicht mehr haben.

Galatian schrieb:
So richtig sehe ich noch nicht wo es AMDs schuld ist.

AMDs "Schuld" ist, dass sie seit Marktstart mit Features geworben haben die sie nicht geliefert haben. Jedenfalls bis jetzt nicht. Und das bringt uns zu deiner Meinung es läge am TV, denn dann stellt sich die Frage wieso das Problem mit einem Treiberupdate seitens AMD gelöst wird...
Ergänzung ()

ThePlayer schrieb:
Selbst in 4K werden es selten mehr als 10GB werden die 3080 hat ja nur 10GB.

Nvidias DLSS senkt den VRAM Verbrauch, und gerade bei 4k nimmt man DLSS gerne mit um die FPS oben zu halten.
 
@FreedomOfSpeech ich seh es immer noch nicht. Der Reddit post ist ziemlich klar. Zwei Sachen werden auch vermischt (gerade bei Reddit): erstens VRR und zweitens >60 Hz. Es sollte klar sein, dass der HDMI Anschluss schlicht und ergreifend auf der Seite von LG nicht die nötigen Anforderungen erfüllt für > 60 Hz und zweitens wurde VRR nur als Update eingeführt. Auch da scheint es nur bei Nvidia einigermaßen zu laufen und sowohl bei Intel, als auch bei AMD nicht. Mir ist aus der vorliegenden Material und dem Fakt das es bei dem Fernseher der von vornherein mit den vorhanden Features wirbt (ab CX) auf Anhieb funktioniert immer noch nicht klar, warum es ein Problem bei AMD sein soll. Gerade über ein nicht richtiges HDMI 2.1 zu sprechen wenn sehr klar ist, dass die HDMI Anschlüsse beim C9 auch irgendwie nur VRR mit 60Hz können (wenn überhaupt, nach einem Update) ist schon gewagt. Die Vermutung liegt doch eher näher, dass es ein Problem mit dem C9 ist.
 
Ich bin wirklich gespannt wie sich RDNA3 gegen RTX 4000 schlagen wird. Ich bin zwar gegenwärtig im grünen Lager unterwegs (ich habe eine GTX 1080 Ti), aber ich könnte mir gut vorstellen auf eine Highend RDNA3 Karte zu wechseln.
Ich plane eh meinen PC dieses Jahr zu upgraden.

Ich finde AMD hat mit RDNA2 schon gut zu Nvidia aufgeschlossen. Die einzige Achillesferse ist bei RDNA2 die RT Performance. Da ist Nvidia einfach weiter.
Daher hoffe ich, dass RDNA3 nicht nur bei der Rasterizing Leistung ebenbürtig mit RTX 4000 sein wird, sondern auch bei Raytracing.
Dann könnte mein PC komplett ins rote Lager wechseln:)
 
Galatian schrieb:
Es sollte klar sein, dass der HDMI Anschluss schlicht und ergreifend auf der Seite von LG nicht die nötigen Anforderungen erfüllt für > 60 Hz
Doch tut er. Sogar alle vier sind HDMI 2.1 mit 48Gb/s, ALLM und VRR. Deswegen ging es von Anfang an mit Nvidia aber mit Big Navi nicht, obwohl AMD seine Karten damit beworben hat. Seit 2-3 Tagen hat AMD VRR für den C9 wieder auf Big Navi Karten freigeschaltet. Wenn der HDMI Port des C9 es laut deiner Aussage nicht kann, wieso geht es jetzt durch ein AMD Treiberupdate?
 
Zuletzt bearbeitet:
@FreedomOfSpeech

Mal ganz davon abgesehen, heißt es trotzdem nicht das die Schuld bei AMD liegt.

Da es scheinbar ja bei anderen Geräten anderer Hersteller ohne Probleme funktioniert, spricht vieles dafür, dass für LG eine Treiberanpassung notwendig war.

Wäre ja nicht das erste mal, dass ein Hersteller Probleme mit HDMI 2.1 hat.
 
Von welchem Problem redet ihr eigentlich? Sowohl bei meinem E9, als auch C1 haben Gsync comp. Und Freesync/VRR anstandslos funktioniert.
 
Von HDMI Forum VRR am C9 mit Big Navi. Am Anfang ging es mit C.R.U., dann hatte AMD es aktiv unterbunden und vor ein paar Tagen im AMD Treiber doch noch freigeschaltet.
Ergänzung ()

t3chn0 schrieb:
Und Freesync/VRR anstandslos funktioniert.
Mit C.R.U. schien es nach dem Treiberupdate Q1 2021 zwar eingeschaltet zu sein, aber der Tearing Test zeigte, dass es nicht aktiv war.
 
ETI1120 schrieb:
So sehe ich das auch. Alles erinnert an die Spekulatius vor zwei Jahren zu RDNA2 damals. Dort war alles dabei von sind 30-50% schneller als Nvidia bis sind 50% langsamer.
Ich denke beide werden dieses Jahr wieder dicht beieinander liegen und AMD wird für die gleich Leistung weniger Watt brauchen. Wichtig für mich wäre das AMD in dieser Generation auf dem gleichen Niveau ist beim Raytracing wie Nvidia und nicht weit abgeschlagen.

Und jetzt Mal etwas Spekulatius meinerseits, AMD wird in normalem 3D 10% schneller sein als Nvidia und bei RT aufschließen. Anders kann ich mir die Gerüchte zu dem heftigen Anstieg der TDP bei Nvidia nicht erklären. Vor allem da sie dieses Jahr bei TSMC fertigen und nicht den schlechten Prozess von Samsung nutzen.
Ergänzung ()

FreedomOfSpeech schrieb:
Nvidias DLSS senkt den VRAM Verbrauch, und gerade bei 4k nimmt man DLSS gerne mit um die FPS oben zu halten.
Das ist ja schön aber meine 6800xt kann kein DLSS. Es ist doch eine Tatsache daß die Spiele auf eben die 8-10GB Vram der Nvidia Karten zugeschnitten sind. Wieso sollte man auch auf die Idee kommen und auch 12 oder 16 oder gar die 24GB der 3090 nutzen wenn Otto maximal die 3080 hat mit krüppeligen 10GB selbst die 1080ti hatte schon 11GB gehabt und das ist über 6 Jahre her.
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Das ist ja schön aber meine 6800xt kann kein DLSS.
Dann halt FSR, das senkt den VRAM Verbrauch ebenfalls. Und ist wohl bald für alle Games verfügbar. Abgesehen davon bist du mit 16GB doch auf der sicheren Seite?
 
ThePlayer schrieb:
Alles erinnert an die Spekulatius vor zwei Jahren zu RDNA2 damals. Dort war alles dabei von sind 30-50% schneller als Nvidia bis sind 50% langsamer.
Das mussten sie auch um dann sagen zu können, ich hab's ja gesagt, ...

Ich habe die Sache seit September 2020 als Nvidia RTX3000 vorgestellt hat intensiv verfolgt.
In den ersten Wochen hat sich das Internet mit Meldungen schier überschlagen, dass AMD von Nvidia überrascht worden wäre und Big Navi viel zu klein wäre.

Erst nach dem Teaser von AMD, hat sich die Meinungslage gedreht.
ThePlayer schrieb:
Und jetzt Mal etwas Spekulatius meinerseits,
Mutig. Einen Tipp abzugeben ist legitim, aber ich würde das ganze mit dem Toto oder einem Tippspiel beim Fußball vergleichen.

Ein Kopf an Kopf Rennen erwarte ich auch. Aber ganz ehrlich, es ist jede Menge Wunschdenken dabei.
Im Zweifel wird Nvidia die Nase vorne haben.

Beim Fußball habe ich mir abgewöhnt im Vorhersaus über Spiele zu spekulieren. Und das halte ich hier auch so.
 
FreedomOfSpeech schrieb:
Dann halt FSR, das senkt den VRAM Verbrauch ebenfalls. Und ist wohl bald für alle Games verfügbar. Abgesehen davon bist du mit 16GB doch auf der sicheren Seite?
Jo bin ich auch. Aber ich denke mir immer wie die Performance wohl wäre wenn man die 16GB auch nutzen würde. Oder ob einfach eine bessere BQ bzw. bessere Texturen etc. Möglich wären. Und ich nicht mit meiner Karte zurückstecken muss weil Nvidia die 10GB der 3080 wieder als Feature verkauft.
Ergänzung ()

ETI1120 schrieb:
Ich habe die Sache seit September 2020 als Nvidia RTX3000 vorgestellt hat intensiv verfolgt.
In den ersten Wochen hat sich das Internet mit Meldungen schier überschlagen, dass AMD von Nvidia überrascht worden wäre und Big Navi viel zu klein wäre.
Es war ehr umgekehrt. Naja Nvidia ist nicht ganz überrascht worden. Aber anhand der TDP der 3xxx Genaration und der "Günstigen" UVP hat man versucht RDNA2 zuvor zu kommen da man wusste was für ein Brett AMD mit RDNA2 hatte.
ETI1120 schrieb:
Mutig. Einen Tipp abzugeben ist legitim, aber ich würde das ganze mit dem Toto oder einem Tippspiel beim Fußball vergleichen.
Deswegen habe ich ja auch Spekulatius geschrieben. In ca. 3 Monaten sind wir schlauer. Chiplet hin oder her ich sehe AMD diese Generation vorne wieso sollte Nvidia sonst solche irren verbrauche mit der 4080 haben 450w und mehr kommt doch nicht von ungefähr. Die wissen doch bestimmt schon seit einiger Zeit was AMD da mit RDNA3 in petto hat.
Ich würde sagen die sind schon durch RDNA und erst Recht RDNA2 von AMD kalt erwischt worden.
 
Zuletzt bearbeitet:
ThePlayer schrieb:
die 4090 soll bei 450W einsteigen und geht dann hoch bis 800W mit der 4090Ti, aber da ist auch noch rein gar nix in Stein gemeißelt und offz. bestätigt, dass die Karten aber mehr Verbrauchen als die jetzige Generation das ist wohl sicher, fragt sich nur wie viel mehr
https://www.computerbase.de/forum/t...-watt-mit-luft-gekuehlt.2095926/post-27137344

was den VRam Verbrauch angeht, reichen die 12GB der 3080 selbst unter 4K noch dicke aus, bis vielleicht auf das ein oder andere unoptimierte Game, hier am Beispiel der aktuellen Topkarten, man achte auf den VRam Verbrauch


und selbst wenn der Speicher der 3080(Ti) mit ihren 10/12GB in 3-4 Jahren knapp werden sollte, stellt man halt die Texturdetails auf hoch statt auf ultra, wenn man bis dahin eh nicht wieder mit der nächsten oder übernächsten Generation aufgerüstet hat, first world problems...
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Es war ehr umgekehrt.
Ich rede von September.

Nach der Vorstellung von Zen 3 und dem Teaser hat sich die Sache gedreht, dann sind die Prognosen für die Performance von RDNA 3 sorunghaft angestiegen.

ThePlayer schrieb:
Naja Nvidia ist nicht ganz überrascht worden.
Das hat auch niemand behauptet. Nvidias wusste was auf sie zukommt. AMD hat es ja angekündigt.
ThePlayer schrieb:
Deswegen habe ich ja auch Spekulatius geschrieben.
Wie gesagt tippen ist Ok.
ThePlayer schrieb:
Ich würde sagen die sind schon durch RDNA und erst Recht RDNA2 von AMD kalt erwischt worden.
Ganz ehrlich: Mich hat RDNA 1 sehr überrascht. Ob Nvidia von RDNA 1 überrascht wurde kann ich nicht beurteilen, aber RDNA 1 hat Nvidia im Grunde nicht wirklich weh getan. Von AMD war es das dringend notwendige Zeichen, dass sie verstehen wie Gaming-Grafiken funktionieren.

Nvidia wusste im September 2020 was auf sie mit RDNA2 zukommt.
 
Die 7900 / 7800 hören sicht gut an, mal sehen was die Teile kosteten. Zum Glück hab ich noch ne 1070 bekommen und hab wieder etwas Luft zum warten °_°. Stromverbrauch ist auch sehr wichtig.
Selbst jetzt bei den 140 Watt der 1070 kommt schon viel warme Luft unterm Tisch vor. Mehr mal 200 Watt geht nicht. Muss man halt gut undervolten können, auch wenn man 5-10 % der Leistung verliert.
 
Dann werde ich auch nochmal meinen Senf dazugeben. Die Tabelle von RGT ist eigentlich gar nicht so schlecht, was ein Lineup auf Basis der bereits vorliegenden spekulierten GPU-Konfigurationen von Navi 31,32 und 33 angeht.
Ein paar Dinge sind mir dann aber doch aufgefallen:
1. RX 7975 XT klingt bescheuert. Entweder 7970 XT oder etwas, was dem Leistungssprung dieser Generation, dem dazugehörigen saftigen Preis und dem Status der Karte gerecht werden. Also keine Nummer sondern, analog zu Titan. "RX Nova" oder so.
2. 7950 XT ...da machen 88 CUs mehr Sinn als 92.
3. RX 7800: Bei 56 CUs bedarf es keinen Speicherinterfacecut? Wozu auch? 256-bit !!!
4. 7500XT. Ich glaube nicht daran, dass Navi33 2 Salvage-Varianten bekommt. 96-bit und 6Gbyte VRam bei ~6750 XT Rohleistung? Als ob! Navi33 bekommt meiner Meinung nach die 7600XT und 7600 and thats it!

Kommen wir nochmal zum Chiplet-Design von Navi31 und 32. Wozu das Ganze, wenn es doch wie von mir unten aufgeführt weder Multi GCD Varianten noch 3D-Cache geben wird in dieser Generation? Es gibt für mich genau 3 klare Vorteile und man muss sich einfach mal den Launch von Zen2 vor Augen führen:
1. Kapazität
2. Kosten
3. Binning

1. Wie wir alle wissen sichert sich Apple bei TSMC gerne mal fast alle Wafer eines neuen Prozesses. Aber auch danach sind die Kapazitäten heiss begehrt. Wenn ich technisch die Möglichkeit habe Einheiten, die ohnehin schlecht skalieren auf einem älteren Prozess zu fertigen und damit nur ~2/3 der Chipfläche tatsächlich auf dem neusten Prozess basieren, kann ich 50% mehr von diesem Produkt herstellen im Vergleich zu einem monolithischen Chip. Ein unverkennbarer Vorteil!

2. Mit dem Tod von Moores Law werden neue Prozesse immer teurer. MCDs in 6nm herstellen hat zusätzlich einen Kostenvorteil, da die Wafer billiger sind. Das hat sicherlich auch Nachteile was die Performance angeht, aber der Kostenvorteil überwiegt. Und jetzt kommen wir zu einem weiteren Kostenvorteil, von dem ich noch nirgendwo etwas gelesen habe, welcher aber aus meiner Sicht logisch ist auch auch so kommen wird.
Nach den Gerüchten zu Folge haben die MCDs 2 GDDR6-PHYs mit je 32-bit Bandbreite also ingesamt 64-Bit integriert. Es ist meines Erachtens und auch für RGT, Kepler, Greymon & Co sehr wahrscheinlich, dass es Salavage-Varianten mit verringertem Speicherinterface gibt. Navi 31 mit 320 statt 384-Bit und Navi 32 mit 192, statt 256-Bit, also dem Equivalent von einem 64-Bit MCD. Was macht AMD also? Man nimmt entweder ein defektes MCD, aber es ist auch sehr Wahrscheinlich, dass die Yield bei 6nm so gut ist, dass es gar nicht so viele defekte MCDs gibt. Man nimmt also einfach Dummys. Nicht belichtetes und damit vom Wert her "quasi" kostenloses Silizium. So könnte man nochmal ~5-8 % Kosten einsparen, die man sonst einfach mitkalkulieren müsste.

3. Ein weiterer Vorteil ist, dass man analog zu Zen2 mit mehreren Dies viel bessere Möglichkeiten des Binnings hat:
Keine defekten CUs und hoher Takt möglich => Topmodell und bekommt die schnellsten MCDs spendiert
Keine defekten oder wenig defekte CUs, aber Takt mäßig? => Salvage-Modell zusammen mit mittelmäßigen MCDs
Defekte CUs und taktet schlecht? => Double-Salvage mit 3 bzw. 5 schlecht taktenden MCDs(statt 4 respektive 6).
Bei einem monolithischen Die muss nur ein Faktor schlecht sein, so dass kein Topmodell mehr sein kann. Bzw. AMD hat die Möglichkeit Topmodelle mit einer höheren Performance rauszubringen, die sonst gar nicht möglich gewesen wären, weil man zu wenig Mengen davon hätte herstellen können.

Fazit: Auch ohne 3D-Cache und Multi-GCDs ergeben sich klare Vorteile durch das Chiplet-Design. Zumindest bei den großen Navi Varianten.
Bei Navi 33 halte ich es für durchaus plausibel, dass dieser monolitisch ist. Ab einem bestimmten Preissegment sind die Fixkosten für das Chip-Packaging einfach ein zu großer Faktor. Zusätzlich benötigt es für Mittelklassekarten auch ganz andere Wafermengen. Da fährt man mit 6nm statt den stark nachgefragten 5nm doch lieber die sichere Schiene.

Nikon71 schrieb:
Moment mal ... da war doch noch ein secret sauce N3X mit 16384 Alu, der angeblich 2023 kommt.
Da glaub ich mittlerweile ehrlich gesagt nicht mehr dran. Schon allein, dass wenn der Chip aus 2 Navi32 GCDs bestehen soll die ganze GPU dann insgesamt 512-bit Speicherinterface hätte. Das bekommt man auf der Karte bei GDDR6 gar nicht mehr unter. Bei GDDR5 ging das noch, die die Speicherbausteine weit genug von der GPU weg waren. Bei GDDR6 sind sie näher dran aufgrund der notwendigen Signalqualität (Bei GDDR6X sogar noch näher). Das ist vom Platinenlayout schlichtweg nicht mehr machbar. Und auch das GPU-Layout von Navi32, müsste anders sein als es aktuell spekuliert wird.
https://cdn.videocardz.com/1/2022/07/FYM2hopWYAALi1U.jpg

Plaste schrieb:
Laut einer besser informierten Quelle sollen sich die Spitzenlösungen bei Navi31 nicht durch kleine Kürzungen bei den WGPs unterscheiden, sondern es soll von den jeweiligen Spitzenmodellen jeweils eines ohne und eines mit 3DCache geben.

Glaube ich ebenfalls nicht dran. Denn das würde wohl mit einer Taktreduzierung ähnlich wie beim 5800X3D einhergehen, wenn auch nicht ganz so schlimm. Und der zusätzliche Cache würde sich wahrscheinlich auch erst in 4k wirklich bemerkbar machen.
D.h. du hast ein Topmodell, was in FullHD langsamer ist in 1440p ungefähr gleich schnell und erst in 4k deutlich schneller als das Modell eine Stufe darunter? Wie soll man dem Kunden das mit einem saftigen Mehrpreis verkaufen?

ETI1120 schrieb:
Es zirkuliert auch anderes, und da muss Red Gaming Tech abweichen, siehe oben:
https://twitter.com/Kepler_L2/status/1545605190685966336
Anhang anzeigen 1244395

Während auf der Nvidia-Seite wohl den Zahlen von kopite7kimi einigermaßen zu trauen ist, würde ich auf der AMD-Seite sehr vorsichtig sein.
Auch bei Keplers Tabelle hätte ich mir etwas mehr Sorgfalt gewünscht. Zum 3D-Cache habe ich mich bereits oben geäussert.
Aber auch die Diskrepanz zwischen dem Navi31 Salvage mit 70 CUs (sehr unrunde Nummer) und 3Ghz Takt und Ful Navi32 mit 64 CUs und 3,4 Ghz Takt ist doch deutlich. Vorausgesetzt die IPC ist ungefähr gleich (ich seher eher Full Navi32 was IPC angeht leicht im Vorteil, weil je breiter die GPU ist die IPC logischerweise abnimmt, so lange es nicht andere limitierende Faktoren wie Speicherbandbreite gibt) so wäre die Rohleistung von Navi32 sogar höher. Ich glaube nicht, das es einen Chip gibt , bei dem 28% der CUs deaktiviert sind. Dafür ist 5nm bereits jetzt viel zu gut was Yields angeht. 28% Salvage würden ungefähr dem Faktor einer RX 6800 mit 60CUs von ursprünglich 80CUs entsprechen. Und die 6800 ist AMDs ungeliebtes Kind, was durch die 6750 abgelöst wurde. Das macht AMD sicherlich nicht nochmal.

Pestplatte schrieb:
in einem feld wie cpu/gpu wo sich die leistung alle 2-3 jahre verdoppelt, ist das aber kein argument.
wenn ich cpus vergleiche von vor 5 jahren in derselben preisklasse... da hat sich einiges getan.

Die UVP der Vega56 war aber 399 EUR. Das kann man mit den 260 EUR im Abverkauf im Mindstar (hatte vor meiner 6800 XT auch eine MSI Vega 56 Airboost für 260EUR ergattert) und dem UVP einer 6600XT, die übrigens deutlich schneller ist als eine Vega56 überhaupt nicht vergleichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ETI1120
Chismon schrieb:
Das fällt bei mir unter die erwähnten GPU-Käufer mit Spezialanforderungen und diese gibt es sicherlich, aber eigentlich
... mal z.Vgl. die Moni-Umfrage bei PCGH:
--> 4k ist kaum mehr verbreitet als UWQHD, ... also ist ein Markt für ne 6800nonXT vorhanden
(Das CB die Games net in UWQHD testet, ... bringt dann Klicks bei der Konkurrenz.)
 

Anhänge

  • Monis2021.JPG
    Monis2021.JPG
    83,7 KB · Aufrufe: 133
  • Gefällt mir
Reaktionen: Chismon
Rock Lee schrieb:
Dafür ist 5nm bereits jetzt viel zu gut was Yields angeht. 28% Salvage würden ungefähr dem Faktor einer RX 6800 mit 60CUs von ursprünglich 80CUs entsprechen. Und die 6800 ist AMDs ungeliebtes Kind, was durch die 6750 abgelöst wurde. Das macht AMD sicherlich nicht nochmal.
Ungeliebtes Kind trifft es genau.
Die RX6800 war notwendig, um die gewaltige Lücke zwischen Navi 21 und Navi 22 zu schließen. Aus diesem Grund hat AMD 3 SKUs aus Navi 21 ableiten müssen. Mit dem "Refresh" wurden es sogar 4.

Aber das war vor 2 Jahren. Inzwischen hat AMD die Entwicklungskapazitäten massiv aufgestockt Es ist letztendlich wirtschaftlicher mehr Dies zu machen, da man das teure Silizium besser ausnutzen kann. Deshalb verwundert es mich, dass AMD bei RDNA3 nur drei Dies haben soll nachdem AMD bei RDNA2 vier Dies hatte, Differenzieren geht dann nur über deaktivieren von WGPs. Was bei einem sehr guten und teuren Prozess keinen Sinn ergibt. Denn man müsste AMD komplett funktionierende WGPs deaktivieren.

Für mich ist die SKU-Tabelle angesichts der angeblich 3 Dies viel zu groß.
 
  • Gefällt mir
Reaktionen: Rock Lee
GerryB schrieb:
... mal z.Vgl. die Moni-Umfrage bei PCGH:
--> 4k ist kaum mehr verbreitet als UWQHD, ... also ist ein Markt für ne 6800nonXT vorhanden
Guter Punkt, darüber bin ich heute auch zufällig gestolpert, auch wenn ich denke, daß diese Umfrage wenig repräsentativ ist (insbesondere den Rückgang bei Full-HD bei den Grafikkartenpreisen halte ich für nicht repräsentativ, dagegen wäre eine Steam-Umfrage deutlich repräsentativer, denke ich, auch wenn ich diese i.d.R. auch nicht an Anhaltspunkt nehme, da einfach zu ungenau).

Da ich mit den gebogenen UW-Monitoren weder ästhetisch noch funktionell (zum richtigen arbeiten) viel anfangen kann, käme für mich das nicht in die Tüte, aber klar, für andere mag das passen (selbst wenn der Zuwachs deutlich geringer in der Richtung ausfällt als in der PCGH Umfrage suggeriert).

Also ich würde gleich von Full-HD auf 4K/UHD springen (WQHD/UWQHD überspringen), ebenso wie ich plane DDR5 komplett zu überspringen (wie es dann kommt, muss ich abwarten), auch wenn bspw. Hardware Unboxed, deren Meinung ich schon schätze, geraten haben den Zwischenschritt mit WQHD zu machen (wegen der geringeren Monitorpreise) auf die Frage eines Users.
Das kann ich auch durchaus nachvollziehen, aber ich habe da trotzdem eine andere Mentalität (lieber weniger oft aufrüsten/investieren (damit weniger Preise und Elektroschrott befeuern) und dann gleich richtig (über-)springen, aber da ist wohl jede/r anders ;)).
 
Zurück
Oben