• ComputerBase erhält eine Provision für Käufe über eBay-Links.

News Radeon RX 9060 XT: Mit 16 GB für 349 USD leicht hinter der RTX 5060 Ti 16 GB

@Icke-ffm

Ich habe einen Fehler gemacht.
50 GB/s macht ein DDR5-RAM-Riegel (2x32bit). Bei zwei Riegeln im Dual-Channel-Betrieb sind es ja bei DDR5-6400 dann 100 GB/s, bei DDR5-6000 was in CB-Testsystem verbaut ist dann etwas weniger. Damit lastet PCI 5.0 x16 mit 63 GB/s die Bandbreite vom RAM nicht komplett aus und es bleibt noch etwas Bandbreite für die CPU übrig... Aslo ja, könnte durchaus noch ordentlich Boost auch bei PCIe 5.0 dank 16 lanes geben. Ich bin auf die Tests gespannt.

https://de.wikipedia.org/wiki/DDR-SDRAM

https://de.wikipedia.org/wiki/PCI_Express
 
  • Gefällt mir
Reaktionen: Icke-ffm
Northstar2710 schrieb:
Wenn man die cu‘s und die chip klasse in betracht zieht.
Quatsch, die 9070xt ist der Nachfolger, die Anzahl der CU ist irrelevant da die massiv in der Leistung pro Shader gestiegen sind. Daher kickt man ja auch ne 7900xt mit der 9070xt komplett aus dem Leben mit 4096 vs 5376 Cores.

Nun kann man von nem Generational uplift natürlich fragen wie hoch der sein muss, um der Nachfolger zu sein, da stellt sich die Frage was war der Nachfolger der 6800xt am ehesten bei RDNA2 gabs ja viel mehr Modelle, 6900xt 6950xt.

Wenn wir die 7800 XT nehmen haben wir 6% mehr Speed, davon ab hat die 9070xt laut techpowerup 44% mehr Speed aber vielleicht wäre fairer die 7900 xt zu nehmen, die XTX seh ich nicht weil es gab noch die 6900xt und 6950xt, das wäre da passender.
Selbst dann hat die 7900xt 39% mehr Speed und die 9070xt als Roh Daten nur 9% schneller aber auch das trügt weil das FSR ignoriert.

Aber selbst wenn wir nur die 9% nehmen gibts keine Garantie das jede Generation gleich hohen Versionssprung hin legt sie ist zumindest schneller (und viel viel billiger zum jeweiligen Release).

Das beste Gegenargument wäre der Ram aber das ist nicht so ungewöhnlich mehr wie 16gb sind nunmal für Gamingkarten ein absolutes Luxusfeature. Man hat sich halt entschieden all das für Gaming Fett weg zu schneiden um günstige Preise bieten zu können zumal der Speicherkontroller wohl auch besser ist bei der Gen.

Die Verbesserungen sind halt in ne Andere Richtung man kann nicht bei RT massiv hochrüsten, bei FSR massiv verbessern und den Preis senken zum Vorgänger (Release) und dann noch Rasten auch noch 30% zusätzlich bieten (ohne FSR), hätte man vielleicht für 1200 Euro machen können... ja ist das dann der Nachfolger Eine Karte die für >1000 Dollar released wird statt die 650 der 6800xt?

Wie auch immer kann man so oder so sehen aber die Shaderanzahl ist kein gutes Argument, das ist alles, wenn die einen 1/10 so großen Chip anbieten der 10x so schnell ist würde doch niemand sagen aber der ist nicht gleich groß daher ist der nicht der Nachfolger sondern low end....
Ergänzung ()

Ich muss mal eins sagen, mir persönlich ists leider Preislich und das es nicht sofort released wird (die Kombination daraus) zu wenig, also die 16gb variante, 20 Euro weniger und ich wär dabei das ist nur der absolute Pflichtcounter um mit Nvidia quasi Gleich zu ziehen.

Und ja sie haben bisher noch kein solchen Scam mit den Tests gemacht aber die 9060 auch xt zu nennen also identisch zum 16gb Modell... sorry dafür hab ich auch kein Verständnis, auch hier wieder hätte man wenigstens die 9060 unterhalb von 300 Euro (279) angeboten wäre ich da auch noch geneigter darüber hinweg zu sehen, aber sie genau gleich teuer wie die 5060 an zu bieten ist auch ein absoluten NoGo. Welcher OEM soll denn dann auf AMD zugreifen, außer man will damit eh keine verkaufen, aber dann hätte man sich die Karte auch sparen können...

Und es ist auch absurd, die wollen mir jetzt verklinkern das 8gb zusätzlicher GDDR6 Speicher 50 Dollar kosten? Wenn Nvidia für 8gb GDDR7 auch 50 Dollar nimmt? Klar hätte man die 8gb 20 Dollar billiger gemacht hätte man das auch um nicht noch geiziger aus zu sehen die 16gb die 20 Dollar mindestens reduzieren müssen, aber ja 2 Probleme auf einmal gelöst die ist auch zu teuer.

Dieses der Einäugige unter den Blinden ist besser argument zieht bei mir nicht wenn ich einen besonders gut sehenden haben will, werde ich keinen Freudentänze über den Einäugigen aufführen.

Nein das stinkt, Mann muss schon fast auf Intel hoffen das die dort mal wieder faire Preise bringen.

Niemand kriegt von mir Applaus weil er mich weniger bestiehlt wie der andere.

Hab doch noch jemanden in Media gefunden der ungefähr meine Meinung hat alle anderen finden den Release ja super toll, gut die 3 outputs stören mich und die meisten Kommentare weniger Dualhead und nen TV angeschlossen ist das absolute Maximum für 99%.

 
Zuletzt bearbeitet:
stefan92x schrieb:
@yamiimax Wenn es die denn geben würde... bietet für GDDR6 aber keiner an, nur für GDDR7. Deshalb kann Nvidia die bei aktuellen GPUs nutzen, AMD aber nicht.
Stimmt schon, allerdings hätte AMD den Memory Controller der kleineren 9060XT von Anfang an auf 6 x 2 GB auslegen können. Zwei Varianten des GPU Dies hätte natürlich auch etwas mehr gekostet. Allerdings sind 8 GB in einer Desktop Karte für Gaming, die in 2025 das Licht der Welt erblickt, halt wirklich nicht mehr zeitgemäß.
 
blackiwid schrieb:
Quatsch, die 9070xt ist der Nachfolger
Lassen wir den CU vergleich mal weg.

An was machst du den Nachfolger fest?
An der chip grösse? Oder der Namensgebung? Oder dem performance zuwachs. Häufig war es die Namensgebung. Da AMD aber in der letzten Gen einfach geschludert hat, denn die 7800xt kann man nicht als Nachfolger der 6800xt sehen, da wäre die 7900xt/7900GRE der eigentliche Nachfolger. Denn die 2te ziffer zeigte auch immer die Konkurrenz einsortierung.

Mit der 9000er gen hat man dann wieder die Namensgebung angepasst, und da ist die 9070xt in der oberen Mittelklasse angesiedelt also damal 6700xt/6800, die 6800XT war Oberklasse und hat mit der 3080 konkuriert. Daher passt es auch nicht als Nachfolger.

blackiwid schrieb:
Selbst dann hat die 7900xt 39% mehr Speed und die 9070xt als Roh Daten nur 9% schneller aber auch das trügt weil das FSR ignoriert.
Feature spielen keine rolle bei der klassen einteilung und Nachfolge, da es immer neue Features in einer neuen Gen gibt.

Würde AMD eine 9080 und 9090 bringen würde jeder die 9080 als Nachfolger der 6800xt betiteln.
 
Quidproquo77 schrieb:
Unterschiedliche Maßstäbe für unterschiedliche Hersteller, so wird ein Schuh daraus.

Wo genau siehst du mich hier unterschiedliche Maßstäbe für unterschiedliche Hersteller anlegen? Vielleicht liest du meine Beiträge erst mal, bevor du so einen Quark schreibst. :rolleyes:

shaboo schrieb:
Wenn Nvidia Vergleichsfolien zur 16-GB-5060Ti herausbringt, dann wirst du dort auch nur die - mutmaßlich - längeren Balken im Vergleich zur 16-GB-9060XT, aber ganz sicher keinerlei Hinweis darauf finden, dass man für den Preis letzterer bei Nvidia nicht mal eine 8-GB-5060Ti bekommt, was genau so normal und genau so legitim ist. AMD fokussiert auf den Preis und ignoriert den VRAM als Vergleichskriterium, während Nvidia auf den VRAM fokussieren und dabei den Preis ignorieren wird - beides total normal und keinerlei Aufregung wert.
 
blackiwid schrieb:
Und ja sie haben bisher noch kein solchen Scam mit den Tests gemacht aber die 9060 auch xt zu nennen also identisch zum 16gb Modell... sorry dafür hab ich auch kein Verständnis,
Das 8 GB Modell verwendet nun mal den identischen Chip wie das 16 GB Modell, also mit der selben Anzahl Recheneinheiten und wohl auch gleichem Takt. Warum also unterschiedliche Modellnamen/-klassen, wenn es doch bis auf den Speicher prinzipiell baugleiche Karten sind?
 
  • Gefällt mir
Reaktionen: Icke-ffm, jonderson und Northstar2710
Northstar2710 schrieb:
Mit der 9000er gen hat man dann wieder die Namensgebung angepasst, und da ist die 9070xt in der oberen Mittelklasse angesiedelt also damal 6700xt/6800, die 6800XT war Oberklasse und hat mit der 3080 konkuriert. Daher passt es auch nicht als Nachfolger.
Nein das stimmt so nicht, die 6800xt konnte nicht mit der 3080 12gb mit halten ist 11% hinten, daran hat AMD sich angepasst also schon zu den Zeiten war man zu schwach wie Nvidia.

Daran hat AMD aber sich jetzt angepasst, also die 9070 ist schneller als ne 5070 um 9% und die 9070xt ist nur 5% langsamer als ne 5070Ti oder 20% hinter ner 5080.

Anders gesagt Nvidia hat mit RTX4 nen großen Sprung gemacht und mit RTX5 ne Luftnummer, 0 Fortschritt, und daher ist das man mit der 9070xt auch nur die 7900xtx ungefähr jeh nach Spiel gleich zieht fair, Nvidia hat ja auch nichts anders gemacht. Immerhin hatte eben AMD FSR4 gebracht damit deutlich mehr als Nvidia die einfach die 4er Gen nochmal released hat als neue Gen.

Mir fällts auch schwer zu sagen das die 7900xt der Nachfolger der 6800xt sein soll wenn die 50% mehr Raytracing speed hat auf 1440p. Die GRE lass ich mir gefallen 19% aber davon hat die XT dann immer noch 46% mehr Speed, wieso soll das keine Gen sein? Selbst Raster sinds noch 35% während die GRE da nur 13% vor der 6800xt ist.

Das sind doch faire Leistungszugewinne... Alleine der Preis, die 6800xt kostete 650 USD die 7900xt 900 USD (also klar nimmer die gleiche Leistungsklasse) und die 7900 GRE 550 USD und die 9070xt 600 USD.

Ja die GRE darauf können wir uns einigen dagegen zieht die 9070xt ordentlich davon mehr als 1 Gen würdig.
Ergänzung ()

mibbio schrieb:
Das 8 GB Modell verwendet nun mal den identischen Chip wie das 16 GB Modell, also mit der selben Anzahl Recheneinheiten und wohl auch gleichem Takt. Warum also unterschiedliche Modellnamen/-klassen, wenn es doch bis auf den Speicher prinzipiell baugleiche Karten sind?
Die 7600 XT hat auch nen Navi 33 mit gleichem Core count also gleicher chip, OC rechtfertigt für mich keinen anderen Namen, weniger Speicher aber schon.

Oder umgekehrt, wenn bisschen mehr Takt (9070) nen anderen namenszusatz erlaubt erlaubt der Speicher das erst recht, ist ja viel wichtiger, die 9070 ist viel näher an der 9070xt dran wie ne 8gb 9060 vs ne 16gb. Klar man kann sichs irgendwie schön reden... aber der Goldweg wäre gewesen die Abzockkarte gar nicht zu bauen, da wäre das halt nen Kompromiss um wenigstens bisschen good will zu zeigen.

Zumal AMD auch behauptet hat sie wollen die Namensgebung an Nvidia anpassen die ist ja ungefähr vergleichbar mit der 5060 von Nvidia also wieso so zu tun als wäre es ne AMD-Ti?

Schlägt sie die 5060Ti 8gb? Wenn ja ok... glaub ich aber nicht dran.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Nein das stimmt so nicht, die 6800xt konnte nicht mit der 3080 12gb mit halten ist 11% hinten, daran hat AMD sich angepasst also schon zu den Zeiten war man zu schwach wie Nvidia.
Die 3080 12GB gab es zu Release der 6800XT doch gar nicht.
In AMDs eigener Präsentation hat man sich mit der 3080 verglichen und sie im Mittel geschlagen
IMG_4043.jpeg

Auch im Releasetest der 6800XT unter Verwendung aktueller Titel
IMG_4042.jpeg


AMD hat die 6800XT immer gegen die 3080 gestellt und die 6900XT gegen die 3090
Ergänzung ()

blackiwid schrieb:
Mir fällts auch schwer zu sagen das die 7900xt der Nachfolger der 6800xt sein soll wenn die 50% mehr Raytracing speed hat auf 1440p.
Die 4090 hat 65% mehr Raytracing Speed als die 3090, die 5090 aber nur 30% mehr als die 4090, ist nun die 5090 der Nachfolger der 4090 aber die 4090 nicht der Nachfolger der 3090, weil sie „zu viel schneller“ ist? Was hat das damit zu tun?
In manchen Generationen ist der Zuwachs halt größer und in anderen kleiner.

Bei AMD ist einfach nur das Problem dass sie alle 2 Gens das Namensschema ändern, zuerst haben sie versucht nah an NVIDIA zu bleiben mit dem Namen bei +/- 5% Performance
5700XT gegen RTX2070/S
6700XT/6800 gegen RTX3070

Bei RDNA 3 wurde das dann über den Haufen geworfen, weil man bis zur 9 gegangen ist obwohl man damit nur an Nvidias 7 und 8 rankam und ne 4070 sogar knapp ne 7800XT schlägt

Und bei RDNA4 ist man wieder dran, mal etwas langsamer, mal etwas schneller
9070XT gegen 5070Ti
9070 gegen 5070
9060XT gegen 5060Ti

Und da sieht man auch wo sich die Karten einordnen, da sich nur bei RDNA3 alles um eine Ziffer nach oben verschoben hatte, eigentlich sogar 1,5 weil es 3 9er Karten auf dem großen Chip gab wo es bei RDNA2 eine 9er und zwei 8er gab.
6900XT auf 7900XTX
6800XT auf 7900XT
6800 auf 7900GRE
6700XT auf 7800XT

Daher sieht die Nachfolgerliste der Mittelklasse GPUs dann auch so aus:
5700XT
6700XT
7800XT(die eigentlich 7700XT hätte heißen müssen)
9070XT


Ich fürchte auch, dass die nächste Gen schon wieder ein neues Namensschema bekommen wird…
 
Zuletzt bearbeitet:
Die 8GB Version hätte 12GB werden sollen. Leider ist die 8GB-Version kopflos, weil wer mit 8GB zurecht kommt, braucht keinen Grafikkarten-Upgrade.
 
Taxxor schrieb:
AMD hat die 6800XT immer gegen die 3080 gestellt und die 6900XT gegen die 3090
Wen interessiert das sie haben jetzt auch die 9060xt 16gb gegen die 5060 xt 8gb gesetzt weil sie gleich viel kostete und wenns um kosten geht dann ist es der Nachfolger...

Die 3080 10gb ist aber klar 9% heute vorne zumindest bei techpowerup ich mein das du ne AMD Folie benutzt und dann cherry pickst nen komischen Release Test mit nur 5 Spielen wo man knapp 3/2 gewinnt... ist auch bisschen schwierig.

Nur in reinem Raster ist man knapp vorne RT hinten... sicher ich könnte mir vorstellen das die 10gb Variante Langsam Probleme kriegen könnte bei einigen Spielen... aber das ist ja ein anderes Thema...

Es ist müsig zu Diskutieren welche Karte der Nachfolger ist 1:1 gibts wohl keinen Nachfolger weder bei RDNA3 noch bei RDNA4 du gibst ja selbst zu das selbst bei RDNA3 die 7800xt nicht der Nachfolger war, also auch da hat sich alles verschoben...

Aber mein Punkt das man nicht anhand der Zahl der Cores / Shader das feststellen kann bleibt allgemein richtig, wenn die Shader 25-40% schneller sind kann auch z.B. ne Karte mit gleich viel Shader oder leicht weniger die nächste Gen der Nachfolger sein.
Ergänzung ()

Taxxor schrieb:
Die 4090 hat 65% mehr Raytracing Speed als die 3090
Die 90er Serie ist nen schlechtes Beispiel, weil der Abstand von der zu den anderen Karten nonstop anwächst, ist ja auch nur für Leute die Geld für 2 Autos haben und dann halt das Geld für 1 Auto dafür aus geben... die Farge ist wieviel % der Leute kaufen die Karte als (reine) Spielekarte...

Es werden ja Haufenweise Karten nach China verkauft für K.I. z.B. aber auch in den USA. Ich würde das eher als K.I. Karten bezeichnen als Grafikkarten, das ist bei denen eher noch so ein Legacy feature das sie aus Rückwärtskompatibilität auch können.

Wie auch immer würde gerne das Top Modell nur mit dem Top Modell des anderen Herstellers also der 6950xt vergleichen und der 7900xtx nicht mit dem 3. Schnellsten Modell.

Die 3. Schnellten sind bei Nvidia die 70Ti Modelle, und selbst wenn ich die Super ignoriere die ja auch noch ein starker Zwischenschritt waren, sehen wir nur 29% Anstieg zur 5070Ti und von der 3070Ti zur 4070Ti warens 53% Die Preise gingen da aber von 599 -> 799 -> 749 hoch. Also Preislich war die 5070Ti ein Nachfolger aber die 4070Ti war eine andere Leistungsklasse. (oder Preisklasse)

Warum muss jeder Hersteller ne neue Gen 30% teurer machen und dementsprechend Leistung bringen? kann doch auch billig machen und dann weniger % machen. Ne neue Gen sollte irgend ein Leistungssprung machen und da liefert 7900GRE und 9070xt...

Welche Definition ist gültig für "das ist der Nachfolger"? brauchts 30-50% mehr speed in Raster oder RT? Ich find die Diskussion generell doof, die frage sollte sein, macht ein Aufrüsten Sinn ja oder nein, egal ob es der "direkte Nachfolger" ist oder nicht.

Das ungefähr so wie wenn du fragst ob ne Banane die nächstbeste Frucht zu nem Apfel ist oder obs doch ne Wassermelone ist (ja ist irgend ne andere Pflanze egal)...
 
Zuletzt bearbeitet:
Botcruscher schrieb:
Ich verstehe Manager die Millionen verdienen nicht. Das muss Überheblichkeit sein.
Die Wissen ganz genau was sie tun. Wieso sollte Nvidia es attraktiv machen billigere Karten zu kaufen?

Nur wenn die Verkaufszahlen nicht stimmen oder die Konkurrenz zu viele Karten absetzt, wird Nvidia das untere Ende Preislich nach unten schieben.

Navi 44 ist so klein, dass nicht so viele Dies anfallen, die nicht als 9600XT taugen. Die legt AMD nun erst Mal ins Lager.

eastcoast_pete schrieb:
Wirklich schade, daß AMD hier nicht mit 12 GB VRAM angefangen hat.
Das Problem ist, dass es keine 3GB Chips für GDDR6 gibt.

Ein breiteres Speicherinterface treibt die Kosten.
yamiimax schrieb:
Denke 15 und 12 GB VRam wären mit 3 GB Chips möglich gewesen oder?
Mit dem 128 Bit Speicherinterface und 3 GB Chips wären 12 GB möglich gewesen.

Da die Sklarierung von DRAM ihrem Ende entgegen geht ist und alles viel langsamer voranschreitet, werden 3 GB Chips erst mit GDDR7 angeboten.

AMD hat festgestellt, dass für RDNA4 GDDR6 genügend Bandbreite liefert. GDDR7 wäre teurer gewesen.
Ein 192 bit Speicherinterface wäre ebenfalls teurer geworden und hätte abgesehen von der höheren Kapazität keinen Vorteil gebracht.

SP-937-215 schrieb:
Ich hatte mal bei Igor´s Lab gelesen, dass die Hardwre Encoder bei Navi44, im Gegensatz zu Navi48, komplett fehlen würden. https://www.igorslab.de/amd-rdna-4-av1-codierung-und-einschraenkungen-bei-einsteiger-gpus/
Das ganze ging auf einen Tweet von Kepler zurück.

https://x.com/Kepler_L2/status/1925053481066389995

zumindest dieses Mal steht Kepler für den Bockmist ein, den er verzapft hat.

Ich finde @Alesis ist schon ein bisschen hart mit Igor's Lab. Was die Artikel zu Gerüchten betrifft, überkommt mich bei Igor's Lab immer wieder das kalte Grausen. Diese Artikel Schaden der Glaubwürdigkeit von Igor's Lab.

SP-937-215 schrieb:
Bin deshalb wirklich gespannt, ob die Aussage von AMD (siehe Dein Link) dann auch wirklich zutrifft.
Wieso sollte das Datenblatt nicht zutreffen?

Vor allem da AMD 16 PCIe Lanes spendiert hat, sehe ich keinen Anlass diese Angaben zu bezweifeln.

eastcoast_pete schrieb:
Allerdings sind 8 GB in einer Desktop Karte für Gaming, die in 2025 das Licht der Welt erblickt, halt wirklich nicht mehr zeitgemäß.
Es ist doch ganz einfach, wenn es Dir zu wenig Speicher ist, kaufst Du es nicht.

Wenn die Karten niemand kauft, werden sie nicht produziert.

Es ist nun mal die Aufgabe der Käufer sich über die Produkte zu informieren, die sie kaufen wollen. Wer eine Grafikkarte mit unpassenden Spezifikationen kauft ist selbst Schuld.

Zu fordern, dass Leuten die nicht viel Geld ausgeben wollen oder können, die Option für eine billigere Grafikkarte genommen wird, ist anmaßend. Nicht jeder hat dieselben Anforderungen. Es gibt genügend Games die mit 8 GB locker auskommen.

Zum Jubel über die 16 PCIe Lanes:

Die 6600XT hatte PCIe 4.0 x 8
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-6600-xt-test.77498/seite-4

Auch so ein Beispiel, wie man die Ergebnisse der eigenen Messungen wegdiskutieren will.
Es macht bei einem Spielen einen deutlichen Unterschied, bei einigen einen kleinen Unterschied, bei den meisten nur einen marginalen Unterschied.

Die 6500XT hatte PCIe 4 x 4 und 4 GB. Die 4 GB haben die 6500XT im Testparcours schon bei PCIe 4.0 ausgebremst. Deshalb hat die 6500XT gegen die RTX3500 mit 6 GB kein Land gesehen.
https://www.computerbase.de/artikel...-3#abschnitt_benchmark_mit_pcie_40_vs_pcie_30

Mit PCIe 3.0 brach die Leistung der 6500XT um weitere 25 % ein.
Es war die 6500XT, bei der der Unterschied zwischen PCIe 3.0 Boards und PCIe 4.0 Boards gravierend war.

Die RTX3050 mit 6GB verlor mit 8 Lanes PCIe 2 gegenüber 8 Lanes PCIe 4 ganze 5 %. 8 Lanes PCIe 2.0 entsprechen 4 Lanes PCIe 3.0. Dies ist ein klares Zeichen, dass der für den Testparcours zu kleine Speicher erheblich zu dem Problem der 6500XT beigetragen hat.

Bei PCIe 3.0 zu PCIe 4.0 hat die RTX3050 nur 1 % verloren
 
  • Gefällt mir
Reaktionen: Icke-ffm und SP-937-215
ETI1120 schrieb:
Diese Artikel Schaden der Glaubwürdigkeit von Igor's Lab.
So ist es. Und News werden nachbearbeitet ohne dies zu kennzeichnen. Die Lüftergeschichte, peinlich peinlich. Die ständigen Streits mit dem Bauer. Dessen Videos ich übrigens auch nicht schaue.
Igor macht eben viel Mist, neben den auch guten Zeug. Ist mir aber zu mühsam und wenn falsches in den News nicht ausgebessert wird, weil irgendein nicht intelligentes sein es nicht möglich macht, dann unterstütze ich das nicht. Jeder macht Fehler. Aber Igor stellt sich immer so dar, als wäre er über jeden Zweifel erhaben.
 
blackiwid schrieb:
Wen interessiert das sie haben jetzt auch die 9060xt 16gb gegen die 5060 xt 8gb gesetzt weil sie gleich viel kostete und wenns um kosten geht dann ist es der Nachfolger...
Sie haben eine Karte mit ner 60 gegen eine Kart emit ner 60 gesetzt
Genau wie sie die 6800XT gegen die 3080 gesetzt haben.
Die beiden waren auch von der UVP am nahesten beieinander damals.

Kosten wären aber der schlechteste Punkt überhaupt um zu sagen wer wessen Nachfolger ist, da sich Kosten sehr schnell ändern können.

Fakt ist die 6800XT war der Gegner der 3080, sowohl von AMD so platziert, als auch preislich und leistungstechnisch und auch über alle anderen Metriken, die man für den Vergleich nutzen könnte. Sie war zu Release z.B. ebenfalls die am 2. stärksten ausgebaute Karte auf dem größten Chip, wie auch die 3080.

Und die 2. stärkste Karte auf dem großen Chip ist nun die 7900XT.
Dass diese hinter der 4080 liegt, würde ja bei deinem Vergleich nur noch mehr dafür sprechen, dass sie eignetlich 7800XT hätte heißen sollen und der Nachfolger der 6800XT ist, die laut dir klar hinter der 3080 liegt

blackiwid schrieb:
Die 3080 10gb ist aber klar 9% heute vorne zumindest bei techpowerup ich mein das du ne AMD Folie benutzt und dann cherry pickst nen komischen Release Test mit nur 5 Spielen wo man knapp 3/2 gewinnt... ist auch bisschen schwierig.
Ja ganz schwierig wenn man nen Releasetest nimmt um zu schauen als wessen Gegner eine Karte gedacht war und nicht einen Test 5 Jahre später….

Davon abgesehen dass 9% Abstand immer noch sehr nah aneinander sind, es also nichts daran ändert, dass diese beiden Karten die direkten Konkurrenten sind, vom Namen, von der Performance, vom Preis, von der Platzierung des Chips innerhalb des Lineups und und und...
Im letzten CB GPU Ranking wo beide drin waren, waren es 5% Unterschied
 
Zuletzt bearbeitet:
Millennial_24K schrieb:
Ich vermute AMD hat bei der RX 9060 XT ein PCIe-Interface mit 16 Lanes vorgesehen, damit man auch problemlos von einem alten PCIe-3.0-System aufrüsten kann.
Wenn dann ein altes PCIe 4 System, ich bin aber auch gespannt was die 16lanes am ende bringen, könnte durchaus reichen, das die 9060xt-8GB im mittel dann doch gleich schnell wie die 5060ti-8GB ist, auch wenn die 16GB version unterlegen ist. aber wenn man sieht wieviel eine 5060ti bei manchen games schon an PCIe4 verliert, könnte es zb. in Dragon Age: The Veilguard am ende vielleicht sogar zu einem bedingt spielbar reichen wenn die vollen 16lanes an PCIe5 laufen.
die PCIe tests werden zumindest für mich das interessanteste der 8GB Karten sein
 
Taxxor schrieb:
Und die 2. stärkste Karte auf dem großen Chip ist nun die 7900XT.
Und wenn die 5800xt hat 0 Mehrleistung dagegen hat die 9070xt deutlich mehr Mehrleistung... zur 7900xt... besonders in RT und dann noch FSR was nicht nichts ist.

Generell gibt es keine direkten Nachfolger generell, auch bei Nvidia nicht immer, Nvidia hat auch laut der Meinung der meisten Redakteure die GPUs nach unten gereicht, so das ne 4070Ti eigentlich ne 4070 sein hätte müssen als Beispiel. Wegen den RAM aber auch den Chips teilweise wurde das alles nicht so aufgerüstet wie angemessen bis hin zu der durch Protest zurück gezogenen Grafikkarte...
 
Zuletzt bearbeitet:
shaboo schrieb:
Wo genau siehst du mich hier unterschiedliche Maßstäbe für unterschiedliche Hersteller anlegen?
Damit warst nicht du gemeint, sondern jene Maßstäbe die du ansprichst, ergibt sich eigentlich aus dem Kontext, ich zitiere den Abschnitt ja nicht umsonst. Da du der Aufforderung mir zu zeigen, wo ich AMD "ans Bein pisse", nicht nachgekommen bist und nicht erklären kannst was an dieser seichten Kritik falsch war, beende ich die Diskussion von meiner Seite. Ich habe Nvidias Folien an der Stelle übrigens genauso kritisiert, aber eben sachlich.

Wenn du es als Affront betrachtest, weil man zu einer einseitigen Bertrachtung Kontext liefert, dann kann ich dir auch nicht weiterhelfen.
shaboo schrieb:
Prinzipiell nicht falsch, aber in diesem Falle kann ich das wirklich nicht erkennen.
Das merk ich mir für die Zukunft, dass du einseitige sowie unvollständige Vergleiche mit Herstellerbias nicht erkennen kannst. An der Stelle könnte man auch auf die "Fake UVP" Preise von AMD verweisen.
ChrisMK72 schrieb:
Das fand ich einen sehr guten Punkt von dir, den ich genauso unterschreiben kann.
Das ist der schlechteste Punkt überhaupt den ich je gelesen habe. Marketing muss man immer dechiffrieren, das ist unter anderem auch die Aufgabe von Testern und auch einer Community, gerade auch vor dem Hintergrund, wenn Nvidia oder AMD die 8GB Produkte nicht an die Tester gibt um schlechte Reviews zu vermeiden und Nvidia sogar Werbung mit Previews und Vorgaben betreibt.
ChrisMK72 schrieb:
Da flunkert AMD, genauso wie Nvidia, mit geschönten Balkendiagrammen und nett ausgewählten Testumgebungen, wie passende Spiele, Auflösungen passend zur jeweiligen Speichersituation usw.
Und das darf man nun nicht mehr argumentativ kritisieren, weil es "verschwendete Lebenszeit" ist?
So ein Murks. :lol:
ChrisMK72 schrieb:
Auch passend wie du darauf hinweist, dass diese "Preview-Aktion" von Nvidia wieder n neues Level ist und da hab ich mich dann auch aufgeregt, weil Medien gegeneinander ausgespielt werden, was mir gar nicht passt.
Aber ist doch nur Marketing...man darf nicht kritisieren oder sich auch nicht aufregen.
Tests gibt es nach dem Embargo genügend, wen juckt es. Blablabla.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Damit warst nicht du gemeint, sondern jene Maßstäbe die du ansprichst, ergibt sich eigentlich aus dem Kontext, ich zitiere den Abschnitt ja nicht umsonst.
Sorry, aber wenn du ausschließlich Beiträge von mir zitierst, dann gehe ich davon aus, dass sich der Vorwurf "unterschiedliche Maßstäbe für unterschiedliche Hersteller" auf mich bezieht. Ich habe in meinem Beitrag ganz allgemein und ohne mich dabei auf einen bestimmten Hersteller zu beziehen von den unterschiedlichen Maßstäben gesprochen, die für Marketing/Werbung einerseits und für unabhängige Produkttests andererseits gelten. Wenn du dann mit einem knappen "Unterschiedliche Maßstäbe für unterschiedliche Hersteller, so wird ein Schuh daraus." daherkommst, woher zur Hölle soll ich denn dann wissen, wer damit von dir gemeint ist, wenn ich es nicht bin?

Quidproquo77 schrieb:
Da du der Aufforderung mir zu zeigen, wo ich AMD "ans Bein pisse", nicht nachgekommen bist und nicht erklären kannst was an dieser seichten Kritik falsch war, beende ich die Diskussion von meiner Seite.
Jetzt werd mal nicht gleich bockig. Mit "ans Bein pissen" habe ich gemeint, dass ich persönlich die von dir kritisierten Punkte im Kontext von reinem Marketing für nicht kritikwürdig halte, weil sie dort nun mal vollkommen normal und gang und gäbe sind. Klar kannst du jetzt sagen "Auch wenn sie dort normal sind, kann ich sie trotzdem doof finden und kritisieren." Natürlich kannst du, aber das ist halt irgendwie unproduktiv und mit keinerlei Erkenntnisgewinn verbunden. Wir finden Werbung alle doof, insbesondere den generellen Aspekt, dass dabei eben nicht informiert, sondern irgendwas verkauft werden soll. Aber das bei jeder Art von Werbung und bei jedem Hersteller immer wieder grundsätzlich zu thematisieren, bringt halt niemanden weiter - auch deshalb, weil ja grundsätzlich, auch zwischen dir und mir, Konsens darüber besteht, dass dort Produktschönung statt findet, und dass dabei ein Hersteller nicht besser ist als der andere. Mir scheint, wir schätzen die Dinge sehr ähnlich ein, und der einzige Unterschied zwischen uns ist, dass ich mich damit abgefunden habe, dass Marketing Werbung und keine Information ist, und du nicht.

Quidproquo77 schrieb:
Ich habe Nvidias Folien an der Stelle übrigens genauso kritisiert, aber eben sachlich.
Analog habe ich gesagt, dass ich die gleichen Folien von Nvidia ebenso wenig kritikwürdig finden und für normales Marketing halten würde.

Quidproquo77 schrieb:
Das merk ich mir für die Zukunft, dass du einseitige sowie unvollständige Vergleiche mit Herstellerbias nicht erkennen kannst.
Natürlich erkenne ich sie, aber ich bin nun mal in der Lage, sie in Marketing und Werbung und bis zu einem gewissen Grad als, wenn auch traurige, Normalität zu tolerieren. Tolerieren heißt nicht gut heißen. Offenbar unterscheiden wir uns darin, dass dir diese Toleranz fehlt. Was nicht schlimm ist. Mir fehlt bei anderen Dingen die Toleranz.

Quidproquo77 schrieb:
Das ist der schlechteste Punkt überhaupt den ich je gelesen habe. Marketing muss man immer dechiffrieren,
Nö, muss man gar nicht. Marketing ist als Information getarnte Werbung, und würde man die einfach komplett ignorieren und sich mit allem erst dann beschäftigen, wenn es in den Läden steht und es unabhängige Tests gibt, würde absolut niemandem auch nur das Geringste entgehen. Dass die Leute, bis es so weit ist, die Zeit damit totschlagen, fleißig zu spekulieren und zu diskutieren, entspringt einer Mischung aus Langeweile und generellem Interesse an dem Thema, aber ganz sicher keiner wie auch immer gearteten Notwendigkeit.

Quidproquo77 schrieb:
Und das darf man nun nicht mehr argumentativ kritisieren, weil es "verschwendete Lebenszeit" ist?
Du darfst kritisieren, dass Marketing nicht objektiv ist, und andere dürfen das für verschwendete Lebenszeit halten. Nicht mehr und nicht weniger.
 
Hallo Leute,

mal eine ernstgemeinte Frage.
Warum spielen wir nicht einfach unsere bevorzugten Spiele mit den Grafikkarten, die wir im PC verbaut haben, anstatt unsere Zeit in seitenlange Diskussionen über Grafikkarten zu vergeuden?
Jede/r Spieler/in wird eh das kaufen, was er/sie will und für seine/ihre Zwecke für wünschenswert hält.
Jenem reicht eine Einsteigerkarte mit 8 GB unter Full HD vollkommen aus, ein anderer benötigt für 4K Ultra-Gaming eine High-End-Karte mit 32 GB.
Der Markt bietet für jeden Anspruch und Geldbeutel die passende Grafikkarte an.
Viel Spaß beim Spielen, ich wünsche allen ein schönes Wochenende!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CadillacFan77, shaboo, Skavermin und 4 andere
blende11 schrieb:
Jede/r Spieler/in wird eh das kaufen, was er/sie will und für seine/ihre Zwecke für wünschenswert hält.
Weil nicht jeder Kunde informiert ist. Sei es aus Zeitmangel, Bequemlichkeit, Desinteresse oder was auch immer. Es gibt eine Menge zu beachten und wenn man so möchte, ist das Forum / die Kaufberatung eben ein Weitstreit um die bestmögliche Preis-Leistung.

Viele fühlen sich von den Angeboten und mitunter falschen Anpreisungen der Firmen persönlich ungerecht behandelt. Inwieweit dies zutreffend ist, ist eine weitere Frage. Und egal wie bunt es die Firmen noch treiben, wird das Verhalten von einigen relativiert und verteidigt; dort entzündet sich sicherlich die Debatte.

Das Forum ist letztlich zum Diskutieren da. Selbst wenn ich dir beipflichte, dass Eifer und Detailgrad in diesem Thread hier durchaus beachtlich sind :P


Zum Thema natürlich noch 3 Worte:
Ich freue mich auf moderne Konkurrenz im Bereich um 400€ und insbesondere über eine vollwertige Anbindung der Grafikkarten. Mangelnden Speicher kann aber auch diese Anbindung nicht lange kompensieren. Die Regler in den Spielen können helfen.
Allerdings hat das neue DOOM kürzlich gezeigt, dass selbst diese Maßnahme ihre Grenzen haben kann.
Ergo: Natürlich kommt es darauf an, was man spielt und was man erwartet.


WommU schrieb:
Beide haben 16bit PCIe, was meinem alten B350 AM4 entgegen kommt. Aber für 40% ca. 400€ ausgeben?
400€ abzüglich 180€ Restwert sind in etwa 220€. Was in Anbetracht der zu vermutenden Mehrleistung, von FSR4 abgesehen, tatsächlich nicht so üppig ist.
 
Zuletzt bearbeitet: (Nachtrag)
Zwirbelkatz schrieb:
Allerdings hat das neue DOOM kürzlich gezeigt, dass selbst diese Maßnahme ihre Grenzen haben kann.

Mit id Tech wird allerdings viel Quatsch gemacht. Da das die Größe eines Streamingcaches ist, den man hier einstellt statt eines Texturdetailreglers, ist der Unterschied in der Bildqualität... meist überschaubar. Als Indy neulich sein Update für Steam Deck (!) bekam, führten Machine Games ein eigenes Pool-Setting nur fürs Deck ein. Ihre Wahl war wie die von Harrison Ford am Ende des letzten Kreuzzugs: weise. Denn anders als in Doom führt ein zu groß gewählter Cache in Indy zu massiven Performance-Einbrüchen (und Crashes). Siehe auch den Test CBs, der eine RTX 3080 (!) in 1080p (!) ohne Pathtracing (!) auf unter 30 fps (!) abschmieren lässt. Ordentliches 1080p-Spiel versprechen Machine Games selbst auf einer 8GB 2060 Super (und liefern dieses).

Circa ab Minute 19, falls der Link nicht richtig funzt. :)

 
Zuletzt bearbeitet:
Zurück
Oben