Test GeForce RTX 3090 Ti im Test: Ein Blick in die Zukunft

Die, die jetzt immer noch keine Karte haben,weil vergriffen,zu teuer, zu viel Strom....die werden auch ab September wohl keine Karte kaufen können, da o.g. tendenziell noch mehr wird.
 
  • Gefällt mir
Reaktionen: Bright0001
54,5 dB :freak:
Dann stell ich den Rechner wohl auf den Balkon...
 
  • Gefällt mir
Reaktionen: hermigua
mesohorny schrieb:
jetzt stell dir mal vor, wie wenig 5000€ auf 5 Jahre sind, wenn man sich ein Haus gebaut hat, Kinder hat oder sich auch nur ein neuen Auto zulegt
Eben, bei Haus und Auto sind diese Beträge Kleingeld. Insbesondere beim Auto verpufft das Geld deutlich schneller im buchstäblichen Sinn. Das scheint irgendwie wesentlich selbstverständlicher zu sein, irrwitzige Beträge zu verblasen. Ich brauche seit einiger Zeit keines mehr, das macht sich gewaltig bemerkbar auf dem Konto.


Laphonso schrieb:
TLDR: 100 Euro im Monat für das Sparen auf eine High End Kiste alle 3-4 Jahre bzw. für das PC Gaming ist im Vergleich so das günstigste Hobby, was man haben kann.
Und dann arbeitet man sich am äußersten Ende des High End Spektrums ab, als ob man unter 5000 Euro Investtion nicht daddeln könnte.

Ja, es gibt wenige technische Hobbys, in denen man zu diesen Kosten ins äußerste Segment vordringen kann.
Keine Ahnung, welche Möglichkeiten oder Optionen heute bestehen, wir haben als Schüler nebenher gearbeitet, wenn wir uns was leisten wollten. Nachhilfe, am Wochenende in der Tankstelle (ab 18 Jahren), in den Sommerferien in der Industrie jobben, das war damals ganz normal.

Qualla schrieb:
54,5 dB :freak:
Dann stell ich den Rechner wohl auf den Balkon...

Ja, warum denn nicht? Keller oder Nebenraum wäre ggf. besser. Gibt Leute, die sich für die High-End Weber Grillstation Strom und Wasser in den Garten legen lassen, für die Sauna ein kleines Häuschen bauen mit Starkstromanschluss.
Ist halt keine Konsole für Plug'n'Play im Wohnzimmer, sondern was für Enthusiasten.
 
Ich will ja keine 3090 Ti haben, hoffe aber, das diese Scalper auf den Karten sitzen bleiben!
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Basshinzu
Tja ,da liegt es an NBB die Hausaufgaben zu machen und die Adressen intern für eine erneute Bestellung jedweder FE Karte zu sperren wenn die Karten wieder Retour kommen.
 
Laphonso schrieb:
Aber manche kaufen sich halt daher die "beste" GPU jeder Genereation, um das "Regler drehen" so lange wie möglich vermeiden zu können
Also ich finde das Argument, immer die beste GPU für die längste Nutzungsdauer hier recht dürftig.

Enthusiasten und 3090 Ti-Käufer sind ganz selten jene, die 4-5 Jahre Ruhe haben wollen. Das sind eher jene, die bereit sind für kleine Leistungsschübe tief in die Tasche zu greifen und auch wohl die ersten, die mit der nächsten Gen auch wieder aufrüsten.

Es braucht auch keiner seinen Kauf mit Hobby-Whataboutism oder sonst wie zu rechtfertigen - kann jeder mit seinem Geld machen was er will. Die schnellste Karte zu sein macht es in meinen Augen aber nicht gleich zur besten Karte. Das ist auch kein Stänkern aus Prinzip (weil sowieso nicht die Zielgruppe) - die Non-Ti ist der Ti einfach in allen Punkten überlegen, außer der absoluten Leistung.
 
  • Gefällt mir
Reaktionen: Sly123, Unnu, Dai6oro und eine weitere Person
SirBerserk schrieb:
ich will doch auch keine 600w karte und kann trotzdem gutheißen das es karten mit hoher tdp angeboten werden. warum soll das keine gute entwicklung sein, mehr freiheiten zu haben? es gibt keinen nachteil die option zu haben, eine grafikkarten mit 600w oder mehr kaufen zu können. das sagst du aber, indem du sagst, das die grafikkartenentwicklung mit 450 oder mehr watt schlecht ist. es gibt keinen nachteil für dich. du kannst dir die tdp selbst einstellen, ganz frei! du hast durch hohe tdp einstellungen keinen nachteil, sondern nur vorteile.
Aus meiner Sicht wirfst du zwei völlig verschiedene Paar Schuh in einen Topf.

Du redest von tatsächlicher Leistungsaufnahme und meinst aber das Power Limit.

Abgesehen davon dass ich völlig offen gelassen habe welche Entwicklung ich nicht gut heiße (;)), ist mir persönlich tatsächlich völlig egal ob alle neuen Karten ein PowerLimit von 1k Watt haben oder nicht. Mir geht es rein um den tatsächlichen Verbrauch und hier biegst du aus meiner Sicht irgendwo falsch ab mit deinem Argumenten.

Ich will Grafikkarten die Ihre Mehrleistung durch Effizienz erreichen und nicht durch eine tatsächliche Steigerung der Leistungsaufnahme. Das PowerLimit ist in meiner Aussage völlig außen vor. Gleichzeitig würde die Steigerung der Effizienz bei gleichem PowerLimit trotzdem zu mehr Leistungsreserve führen.

Meinetwegen können alle Karten ein PowerLimit von 1kWatt haben, von der kleinsten bis zur größten. Wenn du meinst die takten zu müssen um mehr rauszuholen ist das dein Bier, geschenkt.
Aber deine Aussage liest sich als ob du den Mehrverbrauch begrüßst, nicht das höhere PowerLimit.
Ich darf dich hier zitieren: "ich feiere diese hohen Stromverbräuche geradezu".
Der Verbrauch steht ja nicht in direkter Beziehung zum PowerLimit. Das PL deckelt diesen nur.

Abschließend möchte ich noch mal rausstellen, dass die RTX 3090TI in sämtlichen Tests am meisten Strom frisst und gleichzeitig die schlechteste Effizienz im gesamten Testfeld hat.

Zitat: "So bietet das neue Flaggschiff 10 Prozent weniger FPS pro Watt als die GeForce RTX 3080 Ti und gegenüber einer von Haus aus übertakteten GeForce RTX 3090 ist die Effizienz um ebenso 10 Prozent schlechter"

Und genau darauf bezieht sich meine Kritik.
 
  • Gefällt mir
Reaktionen: Unnu
casual_gamer schrieb:
...dazu noch krank laut, heiß...
Trifft nur auf die TUF zu. Die EVGA FTW3 oder MSI Suprim X sind relativ leise.

Onkel Föhn schrieb:
Und das AMD Spitzenmodell liegt auf Niveau einer 3080 in RT.
Nein liegt sie nicht. Hör auf immer wieder diese Fakenews zu verbreiten!
Die reine RT Leistung der 6900XT liegt nicht auf der 3080. Dein Screenshot zeigt zum Großteil hybride Titel, welche nur zum Teil gebrauch von RT Effekten macht. Der Großteil ist immer noch Rastergrafik.

Hier ist die 6800XT gerade mal halb so schnell wie die 3080: https://www.pcgameshardware.de/Rayt...e-2-RTX-mit-Radeon-Vulkan-Raytracing-1363692/

In Cold War und CyberPunk liegt die 6900XT sogar Meilenweit hinter der 3070: https://www.pcgameshardware.de/Rayt...nchmarks-Vergleich-AMD-oder-Nvidia-1375343/2/

Und in Minecraft ist AMD auf dem Niveau der 2070 Super :freak:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Sly123, Atma und Pro_Bro
Schrotti schrieb:
Ich will ja keine 3090 Ti haben, hoffe aber, das diese Scalper auf den Karten sitzen bleiben!
Dieser Art von Service scheint am Markt gut anzukommen.
Eine Karte die für UVP+X verfügbar ist hat offensichtlich einen größeren nominellen Wert als eine Karte für UVP, die nicht verfügbar ist.

Der Wohnungsmarkt soll anscheinend ähnlich funktionieren, aber das weiß ich nicht, ich wohne bei Mama im Keller.
 
Revan1710 schrieb:
Die schnellste Karte zu sein macht es in meinen Augen aber nicht gleich zur besten Karte.
Zustimmung, ich meinte das direkt auch bezgen auf die fps Werte, hätte ich vielleicht klarstellen sollen.
Wir sind hier nicht mehr in einer Preisleistungs-Diskussion.

Wenn man sieht, wie eine 3090Ti die 3080 vom Platz fegt in einigen Benchmarks, wird das einige ggf. doch noch zu dieser "irrationalen" Ausgabe treiben.

Was die 3090Ti in 4K Raytracing abliefert, ist schon nett.

Ich hoffe, dass die 4080 und 4090 hier nochmal netto 40-50% drauflegen können.
 
  • Gefällt mir
Reaktionen: Maggolos
@Laphonso
Ich kann mir nicht so recht vorstellen, dass viele 3080 Besitzer hier auf die 3090 Ti umsteigen. Aber gut auch die wird es geben.

Meiner Einschätzung nach werden die meisten Käufer der 3090 Ti jene sein, die es schlicht stört, nicht mehr die schnellste GPU im Rechner zu haben. Aber selbst für absolute Enthusiasten mit einer 3090 wird die Entscheidung wohl selten so einfach gewesen zu sein, ein Upgrade auszusetzen (sowohl was Leistungssprung als auch Zeitpunkt angeht).
 
  • Gefällt mir
Reaktionen: Laphonso
Krasse Maschine. Aber die Lautstärke und Idle/Desktop consumption ist zu hoch. Aber wohl nicht anders zu erwarten von einer Top-Enthusiasten-Karte. Da würde ich lieber zu einer 3080 Ti oder 3090 greifen, oder eben noch bis zur next gen warten.

Was ich langsam bereue ist dass ich (kürzlich) "nur" ein 750W Netzteil gekauft habe. Ich dachte, das reicht locker für die Zukunft...........

@ComputerBase: Eine Sache die mir in eurem Artikel gar nicht klar ist, ist wie ihr die Power Consumption gemessen habt... ist das Graka-only, oder das gesamte Desktop System? Ihr erwähnt auch ein NVIDIA tool, ist das Software und alle Messungen sind von dem? Kein Hardware-Messgerät? Das ist alles nicht wirklich ersichtlich, hab auch die Sektionen mehrmals gelesen.
Wäre echt nützlich, den Gesamt-Stromverbrauch auch zu sehen/messen, wenn das noch nicht gemacht wurde.
 
owned139 schrieb:
Nein liegt sie nicht. Hör auf immer wieder diese Fakenews zu verbreiten!
Die reine RT Leistung der 6900XT liegt nicht auf der 3080. Dein Screenshot zeigt zum Großteil hybride Titel, welche nur zum Teil gebrauch von RT Effekten macht. Der Großteil ist immer noch Rastergrafik.
Im Grunde hast du recht, man muss zur seiner Verteidigung aber sagen, dass man schon aufpassen muß, es sind tatsächlich Spiele mit RT enthalten, die quasi kein RT bieten, wie far cry 6 https://www.computerbase.de/2021-10/far-cry-6-benchmark-test/2/

Das verzerrt natürlich die Benchmarks. Viele wissen das sicher und man kann diese Titel ja über die „bearbeiten“ Funktion rausnehmen, aber wenn man nicht aufpasst kann man zu so einem falschen Ergebnis kommen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Paradox.13te schrieb:
... wohl entgangen das es die RTX 3080 auch mit 12GB VRAM gibt.

Naja, in Fairness wurde diese relativ spaet nachgereicht und die RTX 3080 haette eigentlich von Beginn an mit 12 GB kommen muessen, aber dazu war Jen-Hsun wohl ein zu grosser Geizhals ;).


Die RTX 3080 12 GB ist m.E. auch die einzig sinnvolle Karte im High-End-Bereich von nVidias Ampere Generation, nur leider zu spaet auf dem Markt und deswegen wohl auch noch vergleichsweise ueberteuert, ansonsten m.E. aber vor allem wegen RT-Raytracing und DLSS 2.0 klar dem AMD/RTG Pendant (RX 6800XT) vor zu ziehen, denn 12 GB duerften auch mittelfristig noch locker reichen in 4K/UHD zumal die im Vergleich dazu viel zu teurere RTX 3080Ti ja auch nur auf die gleiche Speichergroesse setzt.

Ansonsten gebe ich der Einschaetzung recht, dass die AMD-Karten - mit Ausnahme der RTX 3060 vielleicht noch - die sinnvollere Wahl sind, wobei ich die Lebenszeit einer RX 6700XT - mit dem abartig hochgetakteten Chip und den immer mehr auf Ersparnis angelegten Kuehlloesungen, als langfristig orientierter dGPU-Nutzer eher kritisch einschaetze und mit Sicherheit keine 2-Lueftermodelle mehr in Betracht ziehen wuerde und dafuer immer noch ueber 600 Euro zahlen (schoener Gruss an MSI bspw.; selbst das Referenzmodell liegt nach AMDs/RTGs Preiserhoehungen im Onlinestore immer noch gut ueber 500 Euro, was die Karte gemessen an Leistung zur Vorgeneration und Chipgroesse eigentlich nicht wert sein duerfte, aber die 12 GB Optionen sind leider spaerlich gesaeht aktuell).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maggolos
SavageSkull schrieb:
In einem Test, bei dem ein gigantisches Gehäuse, komplett aus Mesh Struktur mit 7! Lüftern verwendet wurde.
Ganz toll.
Ach, man wird vor de heißen Monanten auch wieder Lüfter mit Wattestäbchen putzen dürfen und Co. Ich freu mich wahnsinnig darauf! Hihi!
heroesgaming schrieb:
Sie können es erheblich schlechter, das muss man schon so festhalten.
Wobei man da auch aktuell noch festhalten muss, dass viele Spiele bisher primär auf NVIDIA entwickelt wurden mit den Effekten und natürlich diese Implementation auch bevorzugen.

Spiele die jetzt kommen zeigen da teils dann schon eher unterschiedliche Bilder, was die Leistung angeht und man wird jetzt auch mal warten müssen wie es weiter geht.
calippo schrieb:
Aber auch nicht zu lange. In den 90ern konnte man locker 7000 DM für einen Rechner ausgeben und der war dann immer noch nicht in diesem High-End Segment wie die 3090TI unterwegs und vor allem nach 4 Jahren nur noch als Schreibmaschine zu gebrauchen. In den 80ern wurde es ganz schnell 5-stellig...
Das kann man so nicht wirklich miteinander vergleichen, weil da doch ein paar andere Faktoren eine Rolle spielen.

In den 80er war der PC - wie wir ihn heute benutzen - gerade erst im Kommen und war primär als Arbeitsgerät vorgesehen un war deswegen auch entsprechend teuer. Die Konkurrenten waren damals die HeimPC von Comondore und Amiga und Co. Zudem muss man auch beachten, dass man in den 80er zwar schnell mal 5-stellig zahlen konnte für einen PC, nur hatte man den dann auch entsprechend lange.

Softwaremäßig konnte man den 80286 - also mitte der 80er - sogar bis mitte der 90er durchaus mitspielen, mit dem 386er und 486er ebenso. Wenn man also in den 80er für einen 286er oder 386er bereits mal 5000 - 10000 DM auf den Tisch geblättert hatte, dann konnte man durchaus bis mitte der 90er damit auch zufrieden sein. Ebenso mit dem 486er.

Viele DOS-Spiele - also bis Mitte der 90er - benötigten oft nur 286er oder 386er und liefe auf so einer Hardware sogar vergleichsweise gut. Wir hatten - Secondhand - damals das Glück, dass wir von einem Freund meines Vaters einen Compaq-Rechner von 1989(?) bekommen hatten, der damals einen 486er hatte und schon 8 MB-RAM (den RAM hat damals der Freund noch aufgerüstet, weil er selbst gerne "zockte". Er hat damals den Rechner von seinem Arbeitgeber bekommen und das Ding war damals wirklich teuer, aber er war Softwareentwickler und brauchte soein Gerät. Wir haben den dann 1992/3 bekommen, als er sich seinen ersten Pentium gekauft hat und bei uns werkelte der 486er bis 1998 bis der Pentium 2 450 MHz kam.

Die kurzen Halbwertzeiten von Hardware haben eigentlich erst mit dem Siegeszug von Windows 95/98 und DirectX, sowie den wirklichen Anfängen von 3D und damit verbunden auch Glide und später ebenso Direct3D, angefangen. Und dieser Siegeszug wiederum war möglich, weil sich AMD und Intel seit ca. 1996 und 1997 mit dem K5/Pentium, K6/Pentium 2 und dem Athlon/Pentium 3 einen Schlagabtausch geliefert haben, was ihre Prozessoren anging.

Der Kampf von AMD und Intel hat damals die Preise nach unten getrieben, gleichzeitig aber auch mit der immer schneller steigenden Leistung auch dafür gesorgt, dass man innerhalb von 2 Jahren quasi nichts mehr wirklich brauchbare spielen konnte.

Bei den Grafikkarten ist es ähnlich. Gute 2d-Grafikkarten haben ihren Dienst - wenn man jetzt nicht gerade die Auflösung brauchte - teilweise relativ lange gehalten und konnten durchaus 5 - 8 Jahre ihren Dienst tun ohne dass man einbußen hatte. Erst mit de 3d-Zeitalter setzte ein rascher Verfall der Hardware auch in dem Bereich ein, weil damit quasi Dämme gebrochen sind. Voodoo², so toll die Karte 1998 war, war bereits 1 Jahr später mit manchen Spielen schon überfordert und nach dem DirectX8 kam und ab 2001 DirectX 7 für viele Spiele damit Minimum wurden, war eine Voodoo² unbrauchbar. Und das Schicksal hatten auch die Riva128, TNT und TNT2. Und die RivaTNT ist von Anfang 1999 und wurde von der GeForce 256 im Oktober abgelöst.

In den 80er waren PCs wirklich etwas primär für "Nerds", in der Arbeit setzten sie sich langsam durch, im Heimbereich hatte sie quasi keine Bedeutung, da spielten die Heimcomputer die Hauptrolle. Als dann Anfang der 90er die PCs erschwinglich wurden, kaufte man Hardware, die bereits durchaus 5 Jahre auf den Buckel hatte - 386er - die aber damals noch gut 5 Jahre für das meiste ausreichend war. Die Halbwertszeit der Hardware kann man da schon gut mit fast 10 Jahren angeben.

Ab 1995 un dem Siegeszug von Windows, DirectX, 32 Bit und 3D gab es eine massive Beschleuniging der Hardwareenwicklung und die Softwareentwickler konnten sich quasi frei ausleben. Was man sich da in einem Jahr hingestellt hat, war schnell veraltet. Bis dann 2007 ein kleines Spiel aus Deutschland auf den Markt kam - Crysis und man unter DirectX 9 eine Grafikpracht erreicht hat. Seit 2007 - und das merkt man auch wieder - hat sich die Entwicklung wieder etwas entspannt und mit DirectX11 (2009) setze erst mal wieder eine Phase der Ruhe ein und die Schwäche von AMD hat dazu auch beigetragen.

Erst jetzt - das Erstarken von AMD - führt quasi wieder zu einer beschleunigten Entwicklung nur dass wir jetzt das Problem haben, dass die "Fertigung" nicht mehr wirklich mit kommt.

Wir haben - vereinfacht ausgedrückt - 4(5) Phasen beim PC:
1980 - 1997: relativer Stillstand, PCs waren anfangs sehr teuer. Mit einem gewissen Preisverfall durch neue "Generationen" wurden PCs erschwinglich, das führte aber dazu, dass man Anfang der 90er die Hardware 5 Jahre zuvor gekauft hat (286, 386) und selbst die Highend-Hardware Anfang der 90er hielt locker für 5 - 6 Jahre.

1996 - 2011: AMD/Intel, ATi und NVIDIA stehen in starker Konkurrenz und entwickeln immer schnellere und bessere Produkte. Die Fertigung kann sich auch in wenigen Jahren relativ schnell verbessern und neue Prozesse kommen quasi auch jährlich heraus. Top-Hardware des Jahres im am Ende des Jahres bereits überholt. Die Software-Entwickler haben immer mehr Möglichkeiten und können die Leistung auch relativ einfach umsetzen, da sie auf Ideen aus den 80er und 90er aufsetzen können.

2009 - 2019: AMD fängt an zuschwächeln, kann aber noch vereinzelt Stiche gegen NVIDIA und Intel setzen - HD5x00 und später GCN1. Entwicklungen die in der Phase 1996 - 2009 eingesetzt haben, kommen nun auch in anderen Bereichen an (DeepLearning) und führen auf Softwareseite zu einem erneuten großen Durchbruch Gleichzeitig können Inte und NVIDIA sich ausruhen, konsolidieren und ggf. ihre Positionen festigen, gerade NVIDIA. Man kann beiden aber auch unterstellen, dass sie in einen gewissen Schlaf verfallen.

2017 - heute: AMD fängt sich wieder von seinen Schwächen. Zen ist zwar nicht der "mega" Wurf, zeigt aber, dass man AMD noch ernstnehmen muss. Intel hat noch nocht soviel zu befürchten, Zen ist auf Haswell-Level also auf dem Level von 2014/2015. Intel hat aber Probleme mit der Fertigung. AMD zeigt dann 2019 mit RDNA, dass sie auch im GPU-Bereich aufholen können. Sie greifen erst mal Mittelklasse an, aber RDNA zeigt bereits, wohin es gehen kann. Intel hat ein Problem mit der Fertigung und ihre "Strategie" bricht zusammen und AMD kann, was 2017 so mancher hier noch nicht glaubt - nicht nur aufholen, sondern überholen. NVIDIA wiederum scheint vielen 2019 - trotz Achtungserfolg bei RDNA - immer noch uneinholbar, weil ist ja nur kleiner Chip und der skaliert sicher nicht so gut. 2020 zeigt sich dann aber: Der Vorbote von 2019 skaliert eben doch recht gut. NVIDIA scheint zwar schon etwas zu Ahnen, aber eigentlich sind sich fast alle einig: AMD wird vielleiht zur 2080 Ti aufholen, vielleicht sogar sogar etwas drüber liegen, aber sonst? Und was kam? AMD legt sich mit der 3090 an.

Da die Fertigung nicht mehr im Jahrestakt wirklich neue Verfahren bietet. Um also entsprechende Marken zu platzieren im wichtigen Marketing und in Tests, muss man nun halt über den Verbrauch gehen und diesen anziehen lassen, damit man irgendwie den längsten Balken hat.

Die erste Phase ist sehr entspannt, die Transistoren entwicklen sich gemächlich. Leistung kommt oft sowohl aus Fertigung als auch neuem Design, aber so wirklich Bedarf ist nicht da.

Phase 2 ist dadurch geprägt, dass es Konkurrenz gibt aber auch die Fertigung ist schnell genug, so dass man trotz mehr Leistung oft weniger Energie benötigt.

Phase 3 ist durch die Schwäche von AMD geprägt. Die Fertigung kommt noch halbwegs mit, aber im Endeffekt muss man nur das nötigste machen und kann sich auf andere Sachen konzentrieren.

Phase 4 ist nun die Rückkehr von AMD, nur das eben die Fertigung nicht mehr mithalten kann.

Und ja, mir war langweilig! Ich konnte das schreiben, hat geholfen die Zeit totzuschlagen!
 
  • Gefällt mir
Reaktionen: ComputerJunge, LamaMitHut, Unnu und 3 andere
calippo schrieb:
Ich hatte die Rechnung gestern schon mal gepostet: Eine 5.000€ Maschine alle 5 Jahre kostet ca. 110€ pro Monat.
Also bei mir sind es 83,33 € mtl. (5000 € / 60 Monate) ... :cool_alt:

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Laphonso
Vitali.Metzger schrieb:
... auch AMD wird den Preis bei der 7900xt wahrscheinlich auf 1500€ anheben.

Das waere noch arg guenstig, 1500 Euro fuer eine RX 7900XT, und ist m.E. unwahrscheinlich; Schaetzungen gehen seit langem beim RDNA3 MCM-Flagschiff von deutlich ueber 2000 Euro aus (wie zutreffend diese Quellen von MLID sein werden am Ende, ist natuerlich fraglich).

Vielleicht reichen 1500 Euro mit viel Glueck fuer den beschnittenen Navi 31 Chip, wobei ich mir aber fast vorstellen koennte, dass man da in 500(+) Euro/USD Scrhitten unterwegs sein koennte bei den High-End-dGPU-Abstufungen und erst mit dem Navi 32 MCM-Vollausbau bei ca. 1500 Euro landen koennte.

Es gibt zwar Spekulationen seitens MLID, dass der beschnittene Navi 32 Chip in Kartenform ab 600-700 Euro (UVP) "zu haben sein koennte" (ab Marktstart mit reichlich Bots oder Vitamin B vielleicht, aber sonst?), aber so richtig kann ich das nicht glauben und ich denke man peilt fuer die guenstigste MCM-RDNA3-Karte vermutlich eher knapp unter 1000 Euro an (wie urspruenglich bei der RX 6900XT wohl).

Das "Monolith-Flagschiff" mit Navi 33 Chip koennte dann bei 800 Euro liegen usw., aber gut, vielleicht aendert meine Glaskugel noch die Meinung in den kommenden Monaten und basierend auf kommenden Leaks, wer weiss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben