EmmanuelMar
Cadet 2nd Year
- Registriert
- Juli 2025
- Beiträge
- 24
„Zwei RTX 5080 für 1050 Euro neu zu bekommen“.Extraportion25 schrieb:Wie ich geschrieben habe betrifft P/L NUR den Neukauf und die Rohdaten, nicht aber das Langzeit und Feature-Verhältnis, was jeder auch etwas anders gewichtet, speziell unter Linux.,
Meine zwei RTX 5080 ( gekauft je um die 1k€ wo es sie noch unter 1000€ gab) laufen unter 4k 120hz / 144hz mit max 225W mit RT ( ( UV+ OC, meist deutlich darunter ohne RT)
Was Du "jeder irrt sich" nennst, ist aber Real und eben kein Irrtum.
Und da rede ich von 5080, nicht mal 5070ti. Keine der 3 rx 9070xt's habe ich stabil unter 240W bekommen ohne zu viel Leistung zu verlieren und die hängen dann immernoch bis 40% mit UV der 5080 UV hinter her, denn nicht nur die RX Profitieren von UV .... Und während durch den Gddr7 die RTX Karten leise und kühl bleiben, sind die RX Karten wegen dem heißen Gddr 6 was die mind. Drehzahlen zum Kühlen dieser angeht deutlich im Nachteil.
Zudem kannst auch FSR4 bei 4k im Vergleich zu Dlss was Bildqualität und Stabilität angeht auch nicht so wirklich Vergleichen. Auf zB 42" ist FSR Q fast genauso verschwommen als wenn ich nativ FHD nehme, FSR4 -> wie mit 1440p nativ, schalte ich Schärfe dazu bekommst oft unruhiges Bild was bei Dlss bis Ausgeglichen oder selbst bei 4.5 Performance auf der Bildgröße bis 65" kein wirkliches Thema ist. Bei kleineren Zolldiagonalen ist das weniger eine Sache, trotzdem aber vorhanden. Zudem, alle meine aktuellen Games hat DLSS, bei der hälfte davon ist FSR noch nicht mal in Sicht....
Die einzige Möglichkeit, diesen Preis zu erzielen, ist die Founder Edition, und dabei handelt es sich um einen äußerst begrenzten Vorrat dieser GPU direkt von Nvidia.
Das ist nicht die Regel, sondern eine Ausnahme; die meisten Käufer einer RTX 5080 zahlen ab 1200 Euro.
Wenn wir uns die Qualität der Hardware einer GPU selbst ansehen und uns anschauen, was diese GPUs elektronisch und im Leiterplattendesign zu bieten haben, werden wir hier einige Überraschungen erleben.
An erster Stelle steht die Arbeit, die jedes Unternehmen (AMD/Nvidia) leistet, und die Kontrolle, die es über die GPU-Hersteller oder AIBs ausübt.
Im Falle von Nvidia unterliegen nur die GPUs der Founders Edition einer Qualitätskontrolle; die Hersteller bzw. AIBs haben völlige Freiheit bei der elektronischen Bestückung und dem PCB-Design. Dazu gehört die Verwendung der billigsten auf dem Markt erhältlichen Komponenten wie Kondensatoren, Widerstände, Spannungsregler, Lastausgleichswiderstände und Induktivitäten sowie die Verkleinerung der Leiterplatte durch das Weglassen von Leiterbahnen und die Reduzierung des PCI-Steckplatzes von x16 auf x8 usw.
Bei Nvidia findet man GPUs, deren elektronische Komponenten und deren Design von minderwertiger chinesischer Qualität sind; sie enthalten keine japanischen Kondensatoren und keine teuren Spannungsregler – es wird an Komponenten gespart.
Im Fall von AMD gibt es für GPU-Assembler (AIBs) eine Mindestqualitätskontrolle, die niemals unterschritten werden darf und von AMD selbst vorgeschrieben wird. Dies bedeutet, dass der Assembler niemals massiv Profit machen kann, indem er GPUs von sehr schlechter elektronischer Qualität auf Kosten des eigenen Markenimages von AMD ausliefert.
Zitat des AIB-Leiters von Saphire: „AMD lässt uns bei der von uns gelieferten Hardware keine verrückten Dinge anstellen; tatsächlich betragen die Leistungsunterschiede zwischen den verschiedenen Modellen unserer GPU-Produktpalette nur 1 %.“
Es gibt mehrere Websites, auf denen defekte RTX 5090 für 1.500 Euro verkauft werden, wobei weder bekannt ist, um welche Schäden es sich handelt, noch ob sie reparierbar sind oder nicht, noch wie hoch die Reparaturkosten wären.
Ich möchte daran erinnern, dass diese GPUs vor 14 Monaten auf den Markt kamen.
Eine RX 9070XT mit 300 W auf 240 W herunterzutakten … macht das in irgendeinem Gehirn überhaupt Sinn? Dafür kauft man sich doch eine RX 9070 für 500 Euro.
Wer eine GPU für 1440p oder 2160p kauft, weiß schon längst, dass seine jährliche Stromrechnung steigen wird, und das umso mehr mit Raytracing und Pathtracing.
GDDR6-VRAM ist der Speicher, den sogar die RTX 4090 verwendet. Er weist keinerlei Bandbreitenprobleme mit früheren und neueren GPU-Generationen auf. Der einzige Nachteil ist, dass er mehr Strom verbraucht und mehr Wärme erzeugt; außerdem ist er günstiger und leichter erhältlich als GDDR7.
Der einzige Nachteil ist die Verwendung von Optiscaler für ältere Spiele, die kein FSR 3.1 unterstützen, auf den RX 9000-Modellen.
Bei den Vorgängerserien RX 6000 und 7000 bleibt nur die Verwendung von Optiscaler oder das Spielen in nativer Auflösung, um FSR 4.0 INT 8 nutzen zu können.
Die Qualität von FSR 4.1 übertrifft, wie bereits in den Vergleichen zu sehen ist, derzeit das aktuelle DLSS 4, das in Spielen für die RTX-Serien 20/30 vorkonfiguriert ist. FSR 4.1 ist deutlich schärfer als dieses und kommt DLSS 4.5 näher.
Derzeit gibt es über 200 Spiele, die FSR 4 unterstützen.
Die neuen Xbox-/Play6-Spielkonsolen basieren auf einer angepassten RDNA 5-Architektur und werden zweifellos Varianten des aktuellen FSR 4-Scalers bzw. FSR 5 verwenden. Man kann fast schon offiziell sagen, dass die RX 9000/10000 weiterhin den aktuellen FSR4-Scaler und dessen Weiterentwicklungen nutzen werden, da beide GPUs auf Hardware-Ebene mit FP8 ausgestattet sind – eine Funktion, über die die RX 6000/7000 nicht verfügen und die deren Leistung deutlich einschränkt.