Botcruscher schrieb:
Ich verstehe Manager die Millionen verdienen nicht. Das muss Überheblichkeit sein.
Die Wissen ganz genau was sie tun. Wieso sollte Nvidia es attraktiv machen billigere Karten zu kaufen?
Nur wenn die Verkaufszahlen nicht stimmen oder die Konkurrenz zu viele Karten absetzt, wird Nvidia das untere Ende Preislich nach unten schieben.
Navi 44 ist so klein, dass nicht so viele Dies anfallen, die nicht als 9600XT taugen. Die legt AMD nun erst Mal ins Lager.
eastcoast_pete schrieb:
Wirklich schade, daß AMD hier nicht mit 12 GB VRAM angefangen hat.
Das Problem ist, dass es keine 3GB Chips für GDDR6 gibt.
Ein breiteres Speicherinterface treibt die Kosten.
yamiimax schrieb:
Denke 15 und 12 GB VRam wären mit 3 GB Chips möglich gewesen oder?
Mit dem 128 Bit Speicherinterface und 3 GB Chips wären 12 GB möglich gewesen.
Da die Sklarierung von DRAM ihrem Ende entgegen geht ist und alles viel langsamer voranschreitet, werden 3 GB Chips erst mit GDDR7 angeboten.
AMD hat festgestellt, dass für RDNA4 GDDR6 genügend Bandbreite liefert. GDDR7 wäre teurer gewesen.
Ein 192 bit Speicherinterface wäre ebenfalls teurer geworden und hätte abgesehen von der höheren Kapazität keinen Vorteil gebracht.
SP-937-215 schrieb:
Ich hatte mal bei Igor´s Lab gelesen, dass die Hardwre Encoder bei Navi44, im Gegensatz zu Navi48, komplett fehlen würden.
https://www.igorslab.de/amd-rdna-4-av1-codierung-und-einschraenkungen-bei-einsteiger-gpus/
Das ganze ging auf einen Tweet von Kepler zurück.
https://x.com/Kepler_L2/status/1925053481066389995
zumindest dieses Mal steht Kepler für den Bockmist ein, den er verzapft hat.
Ich finde
@Alesis ist schon ein bisschen hart mit Igor's Lab. Was die Artikel zu Gerüchten betrifft, überkommt mich bei Igor's Lab immer wieder das kalte Grausen. Diese Artikel Schaden der Glaubwürdigkeit von Igor's Lab.
SP-937-215 schrieb:
Bin deshalb wirklich gespannt, ob die Aussage von AMD (siehe Dein Link) dann auch wirklich zutrifft.
Wieso sollte das Datenblatt nicht zutreffen?
Vor allem da AMD 16 PCIe Lanes spendiert hat, sehe ich keinen Anlass diese Angaben zu bezweifeln.
eastcoast_pete schrieb:
Allerdings sind 8 GB in einer Desktop Karte für Gaming, die in 2025 das Licht der Welt erblickt, halt wirklich nicht mehr zeitgemäß.
Es ist doch ganz einfach, wenn es Dir zu wenig Speicher ist, kaufst Du es nicht.
Wenn die Karten niemand kauft, werden sie nicht produziert.
Es ist nun mal die Aufgabe der Käufer sich über die Produkte zu informieren, die sie kaufen wollen. Wer eine Grafikkarte mit unpassenden Spezifikationen kauft ist selbst Schuld.
Zu fordern, dass Leuten die nicht viel Geld ausgeben wollen oder können, die Option für eine billigere Grafikkarte genommen wird, ist anmaßend. Nicht jeder hat dieselben Anforderungen. Es gibt genügend Games die mit 8 GB locker auskommen.
Zum Jubel über die 16 PCIe Lanes:
Die 6600XT hatte PCIe 4.0 x 8
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-6600-xt-test.77498/seite-4
Auch so ein Beispiel, wie man die Ergebnisse der eigenen Messungen wegdiskutieren will.
Es macht bei einem Spielen einen deutlichen Unterschied, bei einigen einen kleinen Unterschied, bei den meisten nur einen marginalen Unterschied.
Die 6500XT hatte PCIe 4 x
4 und 4 GB. Die 4 GB haben die 6500XT im Testparcours schon bei PCIe 4.0 ausgebremst. Deshalb hat die 6500XT gegen die RTX3500 mit 6 GB kein Land gesehen.
https://www.computerbase.de/artikel...-3#abschnitt_benchmark_mit_pcie_40_vs_pcie_30
Mit PCIe 3.0 brach die Leistung der 6500XT um weitere 25 % ein.
Es war die 6500XT, bei der der Unterschied zwischen PCIe 3.0 Boards und PCIe 4.0 Boards gravierend war.
Die RTX3050 mit 6GB verlor mit 8 Lanes PCIe 2 gegenüber 8 Lanes PCIe 4 ganze 5 %. 8 Lanes PCIe 2.0 entsprechen 4 Lanes PCIe 3.0. Dies ist ein klares Zeichen, dass der für den Testparcours zu kleine Speicher erheblich zu dem Problem der 6500XT beigetragen hat.
Bei PCIe 3.0 zu PCIe 4.0 hat die RTX3050 nur 1 % verloren