News Gaming-Grafikkarten: Mit welchen GPUs gehen eure Rechner in den Herbst?

Quidproquo77 schrieb:
Ich glaube nicht, dass AMD irgendeine CPU unter Gaming einsortiert, auch die APUs fallen da afaik nicht drunter.
Mit dem "Glauben" frisiert man keine Zahlen, mit schlau eigeordneten Produkten sehr wohl. Wo werden die APUs einsortiert die in Gaming Handhelds landen, bei "Clients"? Wohl kaum. Man kann sich aber auch eine ungefähre Einordnung alleine anhand der Aussagen und Zahlen vom AMD bilden:

Q1/2025
Gaming revenue was $647 million, down 30% year-over-year primarily due to a decrease in semi-custom revenue.
Q2/2025
Gaming revenue was $1.1 billion, up 73% year-over-year driven by an increase in semi-custom revenue and strong AMD Radeon™ GPU demand.

Mir wären keine Konsolen bekannt die in der Zwischenzeit gelauncht worden wären, oder sonstige Bewegungen in diesem Markt. RDNA3 wurde zu Schleuderpreisen verramscht, damit man sie überhaupt aus den Lagern bekommt und dürfte sich kaum hier ausgewirkt haben, also ist der Sprung von 500 Millionen primär auf den RDNA4 Launch zurückzuführen.

Nur steht da in Zahlen 1,1 Milliarden und nicht 500 Millionen, was nicht falsch ist, denn AMD darf die Produkte für sie passend in ihre selbstgewählten Kategorien einordnen, solange sie an den Gesamtzahlen nichts frisieren. Intel hat es schon seit Jahren getan, sie hatten auch ihre CPUs mit anderen Dingen in "Clients" zusammengefasst.

Legt man die beiden Folien nebeneinander, sind die 600 Millionen ein "Grundrauschen" egal was AMD da reinpackt, die 500 Millionen eben RDNA4, und das passt gut zu dem 90% Marktanteil und 4,3 Milliarden Umsatz bei Nvidia im gleichen Zeitraum.

Wie gesagt, die Platzierung der X3D CPUs ist reine Spekulation aus dem Netz, die sich letztlich leicht erklären lässt, aber es bleibt halt Spekulation die man bestenfalls im Hinterkopf behalten sollte. Die Handhelds und für diesen Markt gebauten APUs gehören hingegen klar dazu.
Our Gaming Segment customers include PC OEMs and independent distributors as well as add-in-board manufacturers (AIBs), independent game console and portable gaming devices manufacturers and contract manufacturers for AMD branded graphics cards.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
DevPandi schrieb:
Wirtschaftlich ist Blackwell kein Fail und Blackwell ist isoliert betrachtet auch keine schlechte Generation. Blackwell ist, wenn man die Generationen als ganzes betrachtet - seit langem der schwächste Sprung, den Nvidia hingelegt hat und damit enttäuscht Blackwell auch - und das zu recht.
Blackwell ist eine schlechte Generation, weil sie abgesehen von der MFG-Verarschung leistungsmäßig Ada Lovelace / 4000er entspricht. Als Blendwerk zur Rechtfertigung hat man dann noch eine aufgebohrte 4090 aka 5090 veröffentlicht.
Bei der 5070 non Ti hat man das Kunststück vollbracht, dass die Effizienz zur gleich schnellen 4070 Super sogar gesunken(!) ist. Somit ist Blackwell ein Fail. Sie wird gekauft, weil die Vorgeneration so überlegen war und das auch noch heute gilt.

Bei der Radeon ist auch nicht alles Gold, was glänzt. Die 80 Watt Aufschlag bei der 9070 XT für 10% Performance zur 9070 non XT sind viel zu unkritisch hingenommen wurden. Und klar kann man die auch mit 220 Watt betreiben. Dann ist sie aber kaum schneller als eine non XT. Bei RDNA3 wurden die Verbräuche der 7900 XTX noch zerrissen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Quidproquo77 schrieb:
Ein Half Node Sprung von 16nm auf 12nm ist doch keine "gleiche Fertigung".
Also, von dem was ich bisher so gelesen habe, ist 12nm weitgehend der 16nm Prozess mit leichteren Anpassungen. Hast du dazu mehr Informationen. Nur würde das an der finalen Einschätzung von mir nicht viel ändern.

Oder brauchst du einfach nur einen Aufhänger, damit du hier wieder allen unterstellen kannst, wie unfair man Nvidia behandelt?
Quidproquo77 schrieb:
Blackwell und Ada nutzen im Consumerbereich die gleiche Fertigung (N4P)
Ja und? Selbst wenn 16nm und 12nm ein Half-Node-Sprung darstellen - was sich durch erste Informationen nicht so sagen lässt. Nur würde das am Ende bei der Betrachtung von Blackwell als Generationssprung nicht sehr viel ändern.
Quidproquo77 schrieb:
während die Radeon Karten von (N5) fürs GCD und N6 für die MCDs auf N4P gewechselt sind und die chipletkommunikation wegfiel, erwähnst du jedoch quasi nie. Passt halt nicht in den AMD Frame.
Erneut: Ja und? Was würde sich mit diesem Punkt an der Betrachtung von Blackwell verändern? Blackwell wäre im Kontext der Betrachtung der Vorgängergenerationen immer noch eine schwache Generation. Egal ob jetzt RDNA 4 in N5 oder N4 gefertigt werden würde.

Du wirfst allen anderen immer vor, dass sie ein Bias haben "AMD Frame", gleichzeitig ist deine Argumentation immer gleich aufgebaut. Du suchst irgendeinen vermeintlichen inhaltlichen Fehler - hier nun 12nm gegen 16nm - um dann allen zu erklären, dass ja dann die ganze Aussage nicht stimmen kann. Genauso greifst du sehr oft zu Whataboutism und Strohmännern. In dem Fall eben mit RDNA 4 und das das jetzt in N4P gefertigt wird.

Du wirfst allen anderen vor zu framen, undifferenziert zu sein und ein Bias zu haben. Gleichzeitig bedienst du dich unlauteren Mitteln in deiner Rhetorik und Whataboutism und Strohmänner sind da bei dir oft nur die Spitze. Ad Hominem ist dein ständiger Begleiter, wenn dir irgendwas nicht in dem Kram passt.

Dazu vertrittst du immer nur ziemlich eindimensionale Betrachtungsweisen. Für dich gibt es nur A oder B, beides kann nicht sein. Für dich ist Blackwell eine gute Generation, weil es sich gut verkauft. Alles andere zählt für dich nicht und wenn man deiner Denkweise nicht folgt, fängst du an zu framen und zwar ganz gewaltig.
 
  • Gefällt mir
Reaktionen: Unti, zeedy, PeacemakerAT und 2 andere
@DevPandi
Schön, dass es mal einer so klar niederschreibt. Ich bin mit dieser primitiven, feindlichen Diskussionsart auch nicht klar gekommen.

Mein erster Chef hat immer gesagt, es interessiert den Kunden nicht wieso und weshalb ein Ergebnis eingetreten ist. Es interessiert ihn nur das Ergebnis.
Deshalb dürfte 95% der Käufer eine Fertigung in 12 oder 16 nm völlig egal sein. Die schauen nach Preis, Verbrauch, Performance und Features.
Ich weiß auch nicht zu was das dienen soll. Eine psychologische Genugtuung, dass man das technisch fortschrittlicherr Produkt hat?

Bei Blackwell kann man auch einverstanden sein, wenn wer meint, dass wäre kein Fail, weil Nvidia vom "Ruhm" des Vorgängers lebt. Bei anderen wie mir war die Erwartungshaltung eine andere. Alles eine Frage der Sichtweise.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Wirtschaftlich ist Blackwell kein Fail und Blackwell ist isoliert betrachtet auch keine schlechte Generation.
Habe auch nicht das Gegenteil behauptet, und ist ja auch unumstritten !
 
zeedy schrieb:
Im PCGH CPU Index sind es 24%, was bei CPUs schon enorm ist.
Nachtrag, weil mir das gerade aufgefallen ist:
Der Intel läuft nur mit DDR5 5600, nicht mehr mit DDR5 6400 das kostet 5% insofern ist der Leistungsrückgang auch erklärt. Aber das sieht man erst wenn man genauer in die Daten schaut und nein 19% AVG und 10% Percentile sind nicht "enorm", schon gar nicht, weil der Intel besser zu optimieren geht, selbst wenn er aus dem Stand mit DDR5 6400 läuft. Optimiert sind das vielleicht 10% weniger AVG FPS siehe entsprechende Tests.

Die Mehrleistung einer 5080 ist auch nicht "enorm", sondern eher mäßig.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Gleichzeitig hat sich Blackwell im ganzen allerdings auch keine so groben Schnitzer geleistet wie damals Fermi oder die GeForce FX.
Zum Release hatten sich schon etliche Schnitzer summiert...

  • Treiberquali zum Release (Blackscreen usw)
  • Eingesparter Hotspot Sensor
  • Einsparungen bei Spannungsversorgung (führt zu hohen Temps bei VRM und schmelzenden Steckern)
  • Fehlende ROPs bei manchen Karten (Quali Sicherung)
  • Entfernung des 32-Bit-CUDA-Supports (Fehlender 32Bit PhysX Support)
  • Kein VRAM Upgrade, außer bei Halo Produkt RTX 5090

...und da waren sicher noch mehr Probleme 😅 (aber an die aufgezählten erinnert man sich gleich mal)
 
  • Gefällt mir
Reaktionen: SweetOhm
PeacemakerAT schrieb:
Zum Release hatten sich schon etliche Schnitzer summiert...
Klar, es gab da einige "kleinere" Sachen, die man erwähnen kann. Allerdings ist keiner der Schnitzer wirklich grob gewesen. Der Föhn als auch Thermi bleiben allerdings im Gedächtnis, denn da gab es eben wirklich Schnitzer, die sich einbrennen.
PeacemakerAT schrieb:
Treiberquali zum Release (Blackscreen usw)
Gibt es immer mal wieder als Phasen. Unschön, aber jetzt nichts weltbewegendes.
PeacemakerAT schrieb:
Eingesparter Hotspot Sensor
Unschön, am Ende jedoch eher etwas für uns Nerds. Außer Nvidia hat das nächste Vapor-Chamber-Gate wie AMD 2022.
PeacemakerAT schrieb:
Einsparungen bei Spannungsversorgung (führt zu hohen Temps bei VRM und schmelzenden Steckern)
Leider allgemein ein Problem, bei immer kürzer werdenden Platinen.
PeacemakerAT schrieb:
Fehlende ROPs bei manchen Karten (Quali Sicherung)
Unschön, am Ende allerdings auch nichts weltbewegendes.
PeacemakerAT schrieb:
Entfernung des 32-Bit-CUDA-Supports (Fehlender 32Bit PhysX Support)
Kann ich allerdings verstehen, das Zeug ewig mit schleppen ist halt auch nicht gut.
PeacemakerAT schrieb:
Kein VRAM Upgrade, außer bei Halo Produkt RTX 5090
Unschön, keine Frage, gleichzeitig leiden alle 3 Marktteilnehmer aktuell unter VRAM-Geiz. ;)

Sorry, konnte es an der Stelle nicht lassen.
 
  • Gefällt mir
Reaktionen: Unti und Quidproquo77
DevPandi schrieb:
Also, von dem was ich bisher so gelesen habe, ist 12nm weitgehend der 16nm Prozess mit leichteren Anpassungen. Hast du dazu mehr Informationen. Nur würde das an der finalen Einschätzung von mir nicht viel ändern.
Ich glaube die Diskussion darüber welcher Prozess energieeffizienter ist, also der für Nvidia customisierte 16nm FF+ oder der angepasste 12nm FF(N) in dem Nvidia zwar dieselben track cells benutzt, weil die Transistordichte von Volta/Turing gegenüber Pascal nicht steigt, aber die Energieeffizienz um bis zu 25% steigen kann, kann man sich eigentlich sparen.
Sollte halt schon eine Rolle dafür spielen ob man sagt "der gleiche Prozess".

Würde abload.de noch funktionieren, würde man auch die betreffende Folie sehen, aber das nun rauszusuchen ist mir zu viel Aufwand.

Mal abgesehen davon, dass FFN gegenüber dem FFC Standard-Prozess von TSMC noch weitere Anpassungen bzw. Verbesserungen liefern kann, von denen wir gar nichts wissen. Huang hat aber im Zuge Volta Präsentation bzw. Interview auch von deutlichen Verbesserungen mit dem neuen Prozess gesprochen.
Es ist völlig unstrittig, dass 12FFC gegenüber 16FF und die jeweiligen Nvidia spezifischen Anpassungen Vorteile bieten. Es ist !nicht! der gleiche Prozess, sondern eine inkrementelle Verbesserung, ähnlich dem was N4P gegenüber N5 darstellt.
DevPandi schrieb:
Nur würde das am Ende bei der Betrachtung von Blackwell als Generationssprung nicht sehr viel ändern.
Doch, dann würde Blackwell je nachdem ob man die bessere Fertigung in mehr Taktrate oder bessere Energieeffizienz steckt unter Umständen ähnliche Effizienz-Steigerungen aufweisen wie RDNA4.
Schließlich bringt N4P bzw. N5 gegenüber N6, auch wenn letzteres abgesehen von der RX 7600 nicht für das GCD eingesetzt wurde deutlich mehr Effizienz. Alleine N4P gegenüber N5 bis zu 22% und gegenüber N6 rund 40%.

Also macht es einfach einen qualitativen Unterschied in welchen Prozessen GPUs gefertigt werden, was deinen Vergleich mit Turing ad absurdum führt.
DevPandi schrieb:
Dass es dir nicht auffällt ist mir schon klar.
DevPandi schrieb:
Blackwell wäre im Kontext der Betrachtung der Vorgängergenerationen immer noch eine schwache Generation. Egal ob jetzt RDNA 4 in N5 oder N4 gefertigt werden würde.
Ja, es geht aber nicht darum ob Blackwell eine "schwache Generation" war, sondern um deinen Vergleich.
Und dort setzt du 16nm mit 12nm gleich, was unpassend ist.
DevPandi schrieb:
Du wirfst allen anderen immer vor, dass sie ein Bias haben "AMD Frame", gleichzeitig ist deine Argumentation immer gleich aufgebaut.
"Allen anderen" Was ein Unfug, ich stelle fest, dass du es meist so betreibst und biete entsprechend der Einseitigkeit und Unrichtigkeit deiner Darstellung eine neutralere Gegendarstellung an. Und das ich auch kein "Strohmann", sondern du hast es mit "na und" indirekt bestätigt und nach Foren-Suchfunktion erwähnst du den besseren Prozess in dem RDNA4 nun gefertigt wird nicht ein einziges mal, zugunsten von AMD erwähnst du es allerdings schon.
DevPandi schrieb:
Klar ist N4 etwas besser.
DevPandi schrieb:
Du suchst irgendeinen vermeintlichen inhaltlichen Fehler - hier nun 12nm gegen 16nm - um dann allen zu erklären, dass ja dann die ganze Aussage nicht stimmen kann.
Wenn ich Äpfel und Birnen vergleiche, wird halt irgendwann jemand auftauchen, dem das auffällt.
Und das ist auch kein vermeintlicher Fehler, sondern eine klare Fehlannahme.
DevPandi schrieb:
Für dich ist Blackwell eine gute Generation, weil es sich gut verkauft.
Nö, Blackwell ist im Inhouse-Vergleich wenn man den KI Bereich und die Softwareverbesserungen verlässt rein HW-mäßig eher ein auf der Stelle treten und eher schwach, aber es ist eben auch nicht das schlechteste was es seit langem gab. Taktbarkeit, bessere Architektur, wenn man mal das Whitepaper liest, da hat man schon einiges angepasst und für moderne workloads geändert. Wird man halt erst in 2-3 Jahren sehen.
Es gibt bisher keine hardwarebeschleunigte Nutzung von neural shaders. Blackwell ist wie ich schonmal geschrieben habe in etwa sowas wie Turing, wo die Software erst damit umgehen muss.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Für dich ist Blackwell eine gute Generation, weil es sich gut verkauft.
Gut ist ein dehnbarer Begriff... Ist RDNA4 für dich "gut", obwohl man im High-End Bereich nichts anzubieten hat? Für Kunden die sich auf AMD Produkte fixieren ist es ein Laufen auf der Stelle, im RT besser, in der Effizienz besser, dafür weniger VRAM und kaum mehr Rasterleistung.

Blackwell ist ein Ada Refresh und eine Evolution aber keine Revolution, weil mehr aktuell wirtschaftlich von der Nvidia Seite nicht benötigt wurde, um die ganzen 10x0, 20x0 und 30x0 Nutzer abzuholen, und die Konkurrenz gar nicht erst versucht hat aufzuholen.

Am Ende geht es einzig und alleine darum, möglichst auf den Markt zugeschnittene Produkte anzubieten und wirtschaftlich zu agieren. Die Vorstellung einiger man könnte alle zwei Jahre die Leistung verdoppeln und dabei noch die Preise gleich halten ist sowieso lächerlich. Im CPU Bereich wird 20% mehr Leistung bei gestiegenem Stromverbrauch bejubelt, bei den GPUs wird es als misslungene Generation abgestempelt, verstehen muss man es nicht wirklich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und blende11
„Im zweiten Quartal/2025 lag der Marktanteil von nVIDIA GPUs bei 94 Prozent.
AMD kommt auf 6 Prozent GPUs Marktanteil.“ (Quelle: Jon Peddie Research)
Es wurden ausschließlich dedizierte Grafikkarten berücksichtigt, die in Gaming-PCs eingesetzt werden.
10 Mio. verkaufter nVIDIA Geforce Grafikkarten, stehen 800.000 verkaufter AMD Radeon Grafikkarten gegenüber.
In den letzten 1 1/2 Jahren sank der Marktanteil von AMD Grafikkarten von 17 auf jetzt 6 Prozent.
nVIDIA baut seine Dominanz weiter aus, während AMD immer weiter zurückfällt.
Obwohl AMD mit der Radeon RX 9070 XT eine vom Preis-Leistungsverhältnis gute Grafikkarte am Start hat, kaufen die Leute weiterhin bevorzugt nVIDIA Grafikkarten.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Unschön, am Ende allerdings auch nichts weltbewegendes.
Wie bitte ?!? Also wenn mein neuer 120 Hz Monitor nur 113 Hz liefert, dann geht dieser zurück !
Und ist somit ein erheblicher Mangel.
 

Anhänge

  • fehlende ROPs.jpg
    fehlende ROPs.jpg
    302,9 KB · Aufrufe: 48
  • Gefällt mir
Reaktionen: ErnstHaft99
SweetOhm schrieb:
Wie bitte ?!? Also wenn mein neuer 120 Hz Monitor nur 113 Hz liefert, dann geht dieser zurück !
Was auch an der Stelle absolut richtig ist. Und genau das konnten die Kunden, die davon betroffen waren, auch machen.

Es ist jedoch im Ganzen eben kein grober Schnitzer, der wirklich hängen bleibt und die ganze Generation bestimmt. Niemand wird sich in 5 oder 10 Jahren an die fehlenden ROPs bei einigen RTX 5090 erinnern, ebenso wird man sich in 5 - 10 Jahren nicht an die anfänglichen Treiberprobleme erinnern. Das sind alles "Unschönheiten", keine Frage, aber nichts davon ist nachhaltig und in den Kopf gebrannt. Und selbst der Stecker ist so in der Form auch nicht mehr so präsent, wie noch vor einigen Monaten.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und xexex
DevPandi schrieb:
Was auch an der Stelle absolut richtig ist. Und genau das konnten die Kunden, die davon betroffen waren, auch machen.
Das trifft allerdings auf so ziemlich jeden Defekt/Mangel zu ! Also ALLES lediglich nur unschön ?
DevPandi schrieb:
Niemand wird sich in 5 oder 10 Jahren an die fehlenden ROPs bei einigen RTX 5090 erinnern
Es war ja nicht nur bei der 5090, sondern auch bei den 5080´er und 5070Ti Modellen ...

https://www.pcgameshardware.de/Gefo...icher-Leistungsverlust-Warnung-CPU-Z-1467258/
 
  • Gefällt mir
Reaktionen: ErnstHaft99
SweetOhm schrieb:
Also ALLES lediglich nur unschön ?
Wie lange hat es gedauert bis die anfänglichen Probleme behoben waren und wie viele Personen waren betroffen? Also ja, weitgehend nur "unschön". Mal auf die andere Seite schauen, FSR4 für RDNA3, ja, nein, vielleicht? Selbst nach sechs Monaten bleibt die Frage ungeklärt, sowas bleibt bei Kunden schon eher hängen.

Bis auf Treiberproblematik beim Launch würde ich behaupten, war hier im Forum niemand von den genannten Problemchen betroffen. Behoben war das "Black Screen" Problem Ende Februar, da haben die wenigsten hier überhaupt schon eine 50x0 Karte in den Händen gehalten.
https://www.computerbase.de/news/gr...bios-updates-neuen-treiber-in-aussicht.91569/

Man kann aus jeder Mücke einen Elefanten machen, aber Ende geht es darum wie relevant sowas in der Masse ist. Wie viele Fälle eines verschmorten 12V-2x6 Steckers kennst du, bei mehreren Millionen verkauften Karten? Wie relevant ist also die ganze damalige Diskussion wirklich? Da kräht heute kein Hahn mehr nach....
 
  • Gefällt mir
Reaktionen: Quidproquo77
brabe schrieb:
Wie hast du das gemerkt?
Zunächst an der Lautstärke, die mir ungewöhnlich laut vorkam in diversen Games. Habe eine manuelle Lüfterkurve am Laufen, aber unter Volllast war sie bis dahin noch nie so auffällig. Dann auf die Vermutung hin GPU-Z angeschmissen und teilweise 110-115°C Hotspot festgestellt. Aufgeschraubt, nachgesehen - Nur noch teilweise erhaltene WLP vorgefunden.

Wenn man mich fragt, ein schlechter Scherz, zumal ich damals bei Release der Serie im Januar 2023 für ca. 1.050€ gekauft habe, nachdem ich mit einer 7970 XT eine Woche lang unzufrieden war aufgrund des Stromverbrauchs im Idle bei 2 Monitoren.
 
  • Gefällt mir
Reaktionen: brabe
SweetOhm schrieb:
Das trifft allerdings auf so ziemlich jeden Defekt/Mangel zu ! Also ALLES lediglich nur unschön ?
In meinen Augen: Ja, es ist lediglich unschön. Für den Einzelnen kann ist es ärgerlich, jedoch in der Regel auch nicht mehr als das.

Produktionsfehler sollten nicht passieren, sie können jedoch passieren. Wenn dann bei mir zu Hause ein Gerät kaputt geht oder nicht dem Qualitätsanspruch genügt, nehme ich Kontakt mit dem Händler auf, verschaffen mir, wenn ich mich tierisch geärgert habe auch mal kurz Luft und dann wird um Ersatz, Reparatur oder Rückabwicklung gesprochen. Das kostet mich in dem Moment Zeit, das ist doof, aber ich kann es nicht ändern.

Eine gewisse Gelassenheit würde vielen - und zwar nicht nur hier, sondern allgemein gesprochen - sehr gut tun, weil wir alle Fehler machen können, auch auf der Arbeit. Wenn man an manche hier die gleiche Fehlertoleranz anlegen würde, wie sie es teilweise für solche Sachen hier, wären einige ihren Job sehr schnell los, weil keiner diese Ansprüche wirklich halten kann.

Wichtiger ist es, wie eine Firma oder der Händler in so einem Fall reagiert und mit dem Kunden umgeht und in diesem Fall hat sich Nvidia keinen groben Schnitzer erlaubt. Entsprechend ist das Thema auch so nicht mehr präsent.

Hätte Nvidia hier so reagiert, wie damals bei der GTX 970 und den 3,5 GB und 0,5 GB, was wirklich auch Auswirkungen hatte, dann wäre das wieder eine andere Sache gewesen. Aber so?

In meinen Augen hat Nvidia bei Blackwell an ganz anderen Punkten sich Dinge erlaubt, die ich deutlich fragwürdiger finde, weil sie eine gewisse Souveränität vermissen lassen. Da wäre der allgemeine Umgang mit der Kritik - das teils peinliche Interview bei GameStar - und die Reviews der RTX 5060 und wie diese kuratiert wurden. Das sind für mich grobe Schnitzer, die man wirklich kritisieren muss und an die man sich auch erinnern muss.

Die fehlenden ROPs, das es kein Speicherupgrade gab, ebenso die anfänglichen Treiberprobleme sowie der fehlende Hotspot-Sensor, das sind unschöne Punkte, jedoch nichts davon ist gravierend genug. Die ROPs waren mangelnde Qualitätssicherung. Das fehlende Speicherupgrade eine politische Entscheidung. Treiberprobleme sind etwas, was unregelmäßig immer mal wieder vorkommt. Softwareentwicklung ist eben alles andere als einfach.

Ich persönlich würde Nvidia bei den FE-Editionen an der Stelle sogar noch eher wegen dem Stecker eine "reinwürgen" wollen und zwar nicht wegen dem Stecker an sich, sondern weil man hier Bauteile im Cent-Bereich bei einer 2000 € Karte eingespart hat, mit der man die Problematik hätte im Keim ersticken können. Leider ist das aktuell allerdings ein Trend, denn ich nicht nur Nvidia ankreiden kann.
 
  • Gefällt mir
Reaktionen: SweetOhm
O.k.
Resümee : Für Dich ist es lediglich unschön, für mich ist´s ein unschöner Schnitzer

den sich NV (QA) u.a. bei einem 2100 - 3000 € Produkt da geleistet hat.
Manch eine(r) mag das so "gelassen" sehen/empfinden wie Du, für mich ein absolutes no go (= Schnitzer) ... :freaky:
 
SweetOhm schrieb:
für mich ein absolutes no go (= Schnitzer) ...
Wärst du denn von irgendwas davon betroffen gewesen, wenn du nicht versuchst hättest unbedingt als einer der ersten so eine Karte zu ergattern?

Ein "Schnitzer" ist Karten mit FSR4 zu bewerben und sechs Monate nach Release, noch immer keine Vulkan Unterstützung für FSR4 anzubieten, vom Support bestehender Hardware, die noch immer in den Sternen steht, ganz zu schweigen. Nur ist für mich sowas kein "Schnitzer" sondern Kundenverarsche, aber das sei mal dahin gestellt.

Bei AMD gibt es übrigens nur Karten mit weniger Speicher als bei der Vorgängergeneration zu kaufen, da frage ich mich wie das bei Nvidia in deinen Augen ein "Schnitzer" sein kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und TheInvisible
ErnstHaft99 schrieb:
Die einzige Quelle dazu ist Jon Peddie Research und die ganze Welt wiederholt diese Zahlen. Liest man die Verkaufszahlen in einzelnen Shop (und ich meine damit nicht nur den deutschen Raum), merkt man schnell, dass das nicht passt.
Echt du hast jeden einzelnen Shop auf der Welt gefragt? Wow warum taucht das nirgends in den News auf. Die Steam Charts sind natürlich auch gefälscht, die 9070 taucht auch im September nicht auf, rtx50 legt immer weiter zu
Ergänzung ()

xexex schrieb:
Wärst du denn von irgendwas davon betroffen gewesen, wenn du nicht versuchst hättest unbedingt als einer der ersten so eine Karte zu ergattern?

Ein "Schnitzer" ist Karten mit FSR4 zu bewerben und sechs Monate nach Release, noch immer keine Vulkan Unterstützung für FSR4 anzubieten, vom Support bestehender Hardware, die noch immer in den Sternen steht, ganz zu schweigen. Nur ist für mich sowas kein "Schnitzer" sondern Kundenverarsche, aber das sei mal dahin gestellt.

Bei AMD gibt es übrigens nur Karten mit weniger Speicher als bei der Vorgängergeneration zu kaufen, da frage ich mich wie das bei Nvidia in deinen Augen ein "Schnitzer" sein kann.
Jap vor allem ein wenig realitätssinn über die Verbreitung der Karten und Marketshare würden so manchen im roten Lager gut tun dann würde es manche unsinnige Diskussionen gar nicht geben
Ergänzung ()

SweetOhm schrieb:
Look and listen ...

https://www.pcgameshardware.de/Gefo...1029/News/Nvidia-Statements-zur-Lage-1468813/


Dann war eine 9070 auch ein paperlaunch weil in den Steam Charts taucht sie noch immer nicht auf, 5090 also vor 9070
 
Zuletzt bearbeitet:
Zurück
Oben