News Ada statt Ampere: Eine fünfte Version der GeForce RTX 3050 zeichnet sich ab

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
17.157
  • Gefällt mir
Reaktionen: BrollyLSSJ, GOOFY71, TPD-Andy und 9 andere
Schon irgendwie lustig: Ausgerechnet die kleinen Modelle werden so undurchsichtig gestaltet. Der ahnungslose Computer-Laie sucht gutgläubig einfach nach einer „3050“ – einer günstigen Gamer-Grafikkarte, ohne jeglichen technischen Hintergrund. Klar, da kann man sowas schon mal bringen. Ein Schelm, wer Böses dabei denkt!
 
  • Gefällt mir
Reaktionen: Plage, Aslo, _b1nd und 13 andere
Wer soll da noch durchblicken total unnötig. Vom Elektroschrott mal abgesehn.
 
  • Gefällt mir
Reaktionen: sentry0815, Tidus2007, SweetOhm und 3 andere
Ich kann mir da irgendwie nur vorstellen, dass Nvidia irgendwelche Verträge mit 3050er laufen hat, die sie erfüllen müssen aber keine Ampere GPUs mehr hat. Einen neueren Chip als etwas älteres zu vermarkten ergibt ja irgendwie wenig sinn - selbst für Nvidia.
 
  • Gefällt mir
Reaktionen: konkretor, aid0nex, ReVan1199 und 10 andere
Die Namensgebung ist da irgendwie gaga, macht doch ne 4030 draus... Ansonsten an sich unnötig wie ein Kropf, wenn die Preise wieder übertrieben hoch sind. Mehr als 70-120€ sollte die Karte dann nicht mehr kosten. Als Gamingkarte geht das in meinen Augen nicht mehr durch und ist eher etwas für Office PCs, die zwei und mehr Bildschirme benötigen und etwas Grafikkraft.
Negan75 schrieb:
Vom Elektroschrott mal abgesehn.
Chips zu recyceln die es nicht zu einer 4060+ geschafft haben ist Elektroschrott? Sehe ich ganz anders...
 
  • Gefällt mir
Reaktionen: TPD-Andy, DaBo87, h00bi und eine weitere Person
Warum auch nicht? Die 50 und 60er Karten sind die Lieblinge der Gamer, nicht umsonst führen diese die Statistiken an.
 
Da fehlt noch eine mit GDDR7 Speicher Ausstattung :) - hmm , damit würde man die Karte aufwerten
 
Nitschi66 schrieb:
Einen neueren Chip als etwas älteres zu vermarkten ergibt ja irgendwie wenig sinn - selbst für Nvidia.
Doch natürlich – wenn bei einem neuen Chip für die angestrebte Leistung weniger Speicheranbindung und RAM nötig ist, dann wird das eben so umgesetzt. Und Geld eingespart am Ende.
Leistung wird schließlich nie einfach verschenkt. Eine „3050“ bedeutet: Du kannst damit in Full HD spielen – allerdings nur bei moderaten Ansprüchen. Was man am Ende für Hardware wirklich bekommt, ist bei den kleineren Karten jedoch immer eine kleine Wundertüte.
 
Negan75 schrieb:
Die dann in Müll landen.
Das ist ein schwaches Argument. Irgendwann landet jede Karte im Müll. Auch so eine Grafikkarte hat ihre Daseinsberechtigung, wird aber wohl eher am Preis scheitern. Denke die 3050 wird in irgendeiner Form vielfach in Fertig PCs für Office Ausrüster wandern. Und da ist die auch mehr als ausreichend.
Fujiyama schrieb:
Die 50 und 60er Karten sind die Lieblinge der Gamer,
Das ist eher den Preisen geschuldet. Vor allem in ärmeren Regionen der Welt kann sich der Ottonormalgamer keine teure Hardware leisten. Da bleibt dann nur der Griff zur günstigsten Einstiegsklasse. Man ist da gut beraten das nicht durch die gut betuchte Europäer/Amerikaner Brille zu sehen. Da gehe ich jede Wette ein, dass wenn die 70er und 80er Karten auch nur 20% weniger im Preis hätten, dass sich die Verkaufszahlen um mindestens den gleichen Prozentsatz weltweit erhöhen würde. Macht aber wohl die Marge kaputt.
 
  • Gefällt mir
Reaktionen: konkretor, Abrexxes, MalWiederIch und eine weitere Person
Chesterfield schrieb:
Schon irgendwie lustig: Ausgerechnet die kleinen Modelle werden so undurchsichtig gestaltet.
Naja, Ada Lovelace statt Ampere würde ich eher als ungeahntes Upgrade sehen, sofern Leistung und RAM Ausstattung vergleichbar wäre.
Chesterfield schrieb:
Der ahnungslose Computer-Laie sucht gutgläubig einfach nach einer „3050“ – einer günstigen Gamer-Grafikkarte, ohne jeglichen technischen Hintergrund.
Dann wird ihn die Architektur am wenigsten interessieren.
 
  • Gefällt mir
Reaktionen: MalWiederIch, Bright0001, Gizzmow und eine weitere Person
Chesterfield schrieb:
Ausgerechnet die kleinen Modelle werden so undurchsichtig gestaltet.
Wie du selbst sagst, in dem Preisbereich sind (mittlerweile, leider) vor allem Leute mit wenig Ahnung unterwegs. Den durchschnittlichen User auf CB juckt die Existenz der 3050 doch gar nicht. Entsprechend wenig Aufschrei gibt es. Anders als die (jetzt) 5070Ti als zweite 5080 erscheinen sollte zum Beispiel.

Nitschi66 schrieb:
Einen neueren Chip als etwas älteres zu vermarkten ergibt ja irgendwie wenig sinn - selbst für Nvidia.
Wobei Hersteller manchmal auch einfach komisch sind. Samsung hat das Tab S6 Lite auch drei Mal rausgebracht und jedes Mal ein stärkeres SoC verbaut ohne den Namen zu ändern. Dabei war die normale Tab S-Reihe bereits lange beim Tab S9 angekommen als Samsung das S6 Lite letztes Jahr zuletzt refreshed hat.
 
  • Gefällt mir
Reaktionen: Chesterfield
@Quidproquo77
Im Detail betrachtet, ja – aber nur weil ein Chip neuer ist, bedeutet das nicht automatisch, dass man damit mehr Leistung geschenkt bekommt.
Man kann solche Änderungen durchaus vornehmen, doch sie sollten auch klar gekennzeichnet werden – etwa durch einen Zusatz wie „Rev. 2“ oder ähnlich.
Am Ende geht es um Transparenz gegenüber dem Kunden – er sollte genau wissen, wofür er sein Geld ausgibt.
 
  • Gefällt mir
Reaktionen: SweetOhm
Eigentlich maximal die potentielle Kundschaft verwirrender Quatsch, wie ich finde, als ob nVidia die neuen Karten mit RTX 4000er Ada Lovelace (anstatt RTX 3000er Ampere) Architektur nicht RTX 4050 (zumal es ja zumindest im Laptop eine RTX 4050 gab) oder RTX 4040 nennen könnte.

Verstehen muss man das nicht, aber gut, die Karten werden vermutlich vorwiegend in OEM Rechnern vorkommen, so dass es dann die wenigsten kratzen dürfte (bei dem veralteten Switch 2 SoC hat man Nintendo aber auch nur Ampere spendiert, also eine Kostengrundlage scheint eher nicht der Grund für den Ada Lovelace Einsatz anstatt Ampere in der neuesten "RTX 3050" zu sein.
 
Zuletzt bearbeitet:
Noch eine 3050 ? xD
 
Was mich interessieren würde ist, ob die neue 3050 dann auch FG zulässt. Also ob dann durch die 4000er Architektur auch die Features benutzbar sind.
 
@Conqi
Ganz genau – man erinnere sich an den Aufschrei vor dem Release: Die RTX 4070 Ti war ursprünglich als RTX 4080 angekündigt, bis es massive Kritik aus der Community gab.
Ein gutes Beispiel dafür, wie wichtig klare Kommunikation und transparente Produktbezeichnungen sind, denn auch da hääte der preis sich an dem namen orientiert am ende
 
Negan75 schrieb:
@Nscale Und die ganzen Karten später dann? Die dann in Müll landen.
Warum sollten Käufer die gleich entsorgen? Die wollen in dieser Preisklasse für gewöhnlich sparen und nicht auf den Putz hauen.

Ob die nun Sinnvoll ist oder nicht, sei dahin gestellt
 
  • Gefällt mir
Reaktionen: MalWiederIch
Chesterfield schrieb:
Der ahnungslose Computer-Laie sucht gutgläubig einfach nach einer „3050“ – einer günstigen Gamer-Grafikkarte, ohne jeglichen technischen Hintergrund. Klar, da kann man sowas schon mal bringen.

Nun kannst Du Dir ausmalen, wie es erst war, als "Tesla" sich von GeForce-8-Serie bis GeForce-300-Serie breit machte. (Einschließlich von der namensgleichen Professional-Reihe zu GeForce-7-Serie-Launch.)

Es war damals so unübersichtlich, in kaum nachvollziehbar, ob der G92A1-, A2-, B1- oder B2-Chip verbaut war.
Einige Hersteller tricksten sogar in ihren Firmware einen A2-Chip zum effektiveren B1-Chip.

Der-A1-Chip stammte aus der 8-Serie; der A2-Chip ist einer für die neuen implementierten Features der 9-Serie modifizierter A1-Chip. Die B-Chips waren die echten 9-Serie-Chips und in puncto Effizienz (Temperatur aus Leistungsgefälle) um ein ganzes Stück besser.

Wer mit einem dieser A-Chips bereits vertraut war oder eine solche Grafikkarte noch zur Hand hielt, konnte es in der Praxis überprüfen, was es denn ist, denn abseits davon, man schaue direkt auf den Chip drauf, konnte man es an der Leistungsausbeute feststellen. So verrückt es klingt: Die Green Edition von der GeForce 9800 GT -einer meiner Brüder besaß eine von Gainward- war selbst an ihrer auf rund 70-Watt limitierten Power in der Summe flotter unterwegs als die anderen [normalen] Modelle, welche aus dem Vollen des Netzteils schöpfen konnten, weil die Green Edition mit mit ihrem G92B1-Chip um eine ganze Ecke effektiver war. Mit den G92A2-Grafikkarten rannte ich ständig ins Temperaturlimit um 120°C, wogegen die Green Edition die 85°C in kaum überschritt.

Also wenn man in einem solchen Fall war, nicht sicher zu sein, weil CPU-Z sagte, es ist der G92B1 verbaut, sollte man sich anhand einer G92A2-Grafikkarte orientieren, man konnte auch eine GeForce 8800 GT mit dem G92A1 nehmen, weil man es sofort anhand an der Performance und den Temperaturwerten feststellen kann. Es liegt einfach ein zu deutliches Niveau zwischen den A- und B-Chips.
 
Zuletzt bearbeitet: (Textkorrekturen und Ergänzung)
  • Gefällt mir
Reaktionen: SweetOhm, Sweepi, CDLABSRadonP... und eine weitere Person
Zurück
Oben