News Alte vs. neue Einstiegs-GPUs: GeForce GTX 1050 Ti vs. RTX 3050, GTX 1650, RX 6600 & A580

Was wäre denn jetzt die beste Alternative für eine GTX 1650 die nur Strom aus dem PCI Slot zieht?
 
Smartbomb schrieb:
Normalerweise gibts try und boxed ja ungefähr gleichzeitig, hier halt nicht.
Ändert nichts daran wann die APU erschien.
Und zu welchem Preis DAMALS.

Das aendert aber voellig die Bedeutung dieses Preises. Wenn's Tray und Boxed gleichzeitig gibt, ist der Preis von eines vorraetigen Tray-Prozessors sicher nicht hoeher als der des Boxed-Prozessors (wenn man irgendwo hoehere Preise sieht, deutet das ueblicherweise darauf hin, dass der Tray-Prozessor nicht lieferbar ist und deswegen der Preis seit laengerem nicht angepasst wurde). Da es in diesem Fall den Boxed-Prozessor (noch) nicht gab, und Tray-Prozessoren normalerweise daher kommen, dass ein OEM irgendwelche Restbestaende verkaufen will, ergibt sich der Preis nur aus Angebot und Nachfrage, und hat nichts mit dem Produktionspreis dieses Prozessors zu tun. Daher kannst Du einen Tray-Preis von 2020 nicht als Beweise fuer die hohen Produktionskosten anfuehren.

Der Boxed-Preis des 4600G von knapp unter EUR 100 ueber lange Zeit, die Verfuegbarkeit bei vielen Haendlern, und die Verfuegbarkeit anderer Renoir-CPUs zeigt, dass diese 4600G normale Ware sind und keine Restposten, und dass AMD Renoirs so billig produzieren kann, dass in einer Mischkalkulation der Renoirs (4100, 4500, 4300G, 4600G, und die OEM-Modelle) AMD damit immer noch Gewinn macht.

Die BWLer habens sicher durchgerechnet. Solange es die Fertigungskapazität nicht im Überfluss gibt, gibts sicher keine günstigen Einsteigerchips (ich denke jetzt an GPUs).

Nur ist wird der Renoir im selben N7-Prozess gefertigt wie z.B. der Navi23 (RX6600), und Navi24 (RX6500XT, RX6400) wird im auch nicht teureren N6-Prozess gefertigt. Weiters kostet Navi24 107mm^2, waehrend Renoir 156mm^2 hat. Also wenn's an den Waferpreisen liegen wuerde, muesste die RX6500XT eher billiger als teurer sein als der 4600G. Ja, Platine, RAM, etc. kaemen noch dazu, aber das kamen sie zu Zeiten des X1650Pro auch, und haben damals niedrige Preise nicht verhindert.

Jedenfalls war damals die Entwicklung so, dass nach zwei Jahren eine als Mittelklasse eingefuehrte Karte wie die X1650Pro eben fuer EUR 52,10 (oder laut Preisentwicklung bei anderen Haendlern sogar billiger) zu haben war, waehrend heute die vor zwei Jahren eingefuehrte (und damals schon Low-End-Klasse) RX6500XT noch immer EUR >160 kostet.

Ich hätte auch gerne aktuelle Tech in jedem Preissegment!

Es geht nicht um aktuelle Technik, sondern darum, dass heute auch zwei Jahre alte Technik wie die RX6500XT oder die RX6600 viel teurer ist als zwei Jahre alte Technik im Jahr 2008 (und zwar um vieles mehr, als sich durch Inflation erklaeren laesst). Und die RX6700 und hoeher werden ganz vom Markt genommen.

jetzt neu RTX3050 6GB: Same, aber aktuelle decoder und auch mehr encoder und auch für das eine oder andere Spielchen geeignet.
Bei AMD weiß ichs nicht auswendig ab welcher Gen was genau unterstützt wird.
Ich nehme an ab RX6400 4GB?

Nein, Navi24 (RX6400, RX6500XT) war urspruenglich als Mobile-Chip konzipiert und da fehlen diverse Decoder und Encoder, die Navi23 hat, weil im Mobile-Segment ja die iGPU diese Decoder und Encoder hat.

Das war ein Witz, der nur zeigen sollte, dass so lange nach Marktstart die Preise keine Relevanz für neue erscheinende Produkte haben ;)

Es geht hier aber nicht um den Preis fuer neu erscheinende Produkte. Von den Produkten, die in dem Artikel erwaehnt wurden, ist nur die 3050 6GB neu. Trotzdem sind die Preise fuer die anderen Produkte relevant, wenn sie breit verfuegbar sind, denn dann ist die Frage: Kaufe ich das gerade erschienene Produkt, oder ein anderes.

Wenn, dann musst du die Releasepreise, UVPs oder mienetwegen ein Monat danach vergleichen für die selben Produkte der selben Klasse.

Nein, muss ich nicht. Ich vergleiche immer das, was gerade verfuegbar ist, nach Leistung und Preis. Und wenn ich eine CPU fuer EUR <70 suche, dann vergleiche ich eben den Renoir Ryzen 4100 mit dem Alder Lake Celeron G6900, und dabei ist es egal, wie lange der Chip schon verkauft wird und wieviel irgendein Tray-Prozessor irgendwann gekostet hat. Wichtig ist, was die beiden zum selben Zeitpunkt kosten, und was sie bieten.

Und um einzuschaetzen, wie sich die Maerkte entwickeln, vergleiche ich u.a., was solche Entscheidungen im Grafikkarten-Markt z.B. vor 15 Jahren ergeben haben, mit dem, was sie jetzt ergeben. Oder auch, wie entsprechende Entscheidungen jetzt bei CPUs ausschauen.
 
-=XoDuS=- schrieb:
Was wäre denn jetzt die beste Alternative für eine GTX 1650 die nur Strom aus dem PCI Slot zieht?
Geizhals, PCIe Grafikkarten ohne Stromanschluss, von teuetr nach günstig gereiht:
https://geizhals.at/?cat=gra16_512&...z=&dist=&mail=&sort=-p&bl1_id=100#productlist

Die Profikarten und die überteuerten Restmodelle weggenommen, bleibt eh nur das was wir eh schon wissen:
RTX3050 6GB.
Test gelesen? Es geht ja speziell um "Einsteigerkarten" ohne Stromanschluss im Vergleich zu anderen Karten einer ähnlichen Leistungsklasse.

Schon im zweiten Satz des Artikel bei dem du kommentierst steht:
Die GTX 1050 Ti kam Ende 2016, wie später die GTX 1650 und jetzt die RTX 3050 6 GB, mit einer Stromversorgung über den PCIe-Slot aus.
 
  • Gefällt mir
Reaktionen: -=XoDuS=-
UrlaubMitStalin schrieb:
Die Preise für Grafikkarten sind um ein vielfaches höher als sie es inflationsbedingt sein dürften.
Inflation ist aber nur ein Faktor und je nach dem um was es sich handelt ist der Zeitraum in dem sich die Inflation vergleichen lässt kürzer oder länger. Alles andere ist stark verallgemeinert.
UrlaubMitStalin schrieb:
Die Preise für Grafikkarten sind um ein vielfaches höher als sie es inflationsbedingt sein dürften.
2000 - 150€ (bzw. 292,65DM) -> Inflationsbereinigt 2024 = 235€.
Eine 3D Grafikkarte aus dem Jahr 2000 stammt noch aus den Anfangsjahren der 3D Karten.
Das zu vergleichen ist so, als würde man die ersten SMS fähigen Mobiltelefone mit einem Smartphone vergleichen. Da ist man mit dem Jahr 2000 ein bisschen weit weg.
Nimmt man mal einen realistischen Rahmen wie zb. 1-2 Jahre nach der Finanzkrise, da war Gaming ab ca. 110€ mit einer GTS 450 möglich, das wären etwa 145€ heute.
Die 3050 6GB würde ich eher da einordnen.
Auf dem heutigen Markt sollte sich die 3050 bei 140-150€ einfinden aber naja solange sich die 1650 für 150€ verkauft passiert da nix.

frankkl schrieb:
Wenn ich mich richtig erinnere hat meine Geforce GT 430 im Jahr 2010 um die 80 Euro gekostet.
Sicher?
http://www.3dcenter.org/artikel/grafikkarten-marktueberblick-november-2010

Die 3050 6GB sehe ich im Vergleich eher bei der GTS 450. damals um die 110€ Marktpreis
https://www.computerbase.de/2010-09/test-nvidia-geforce-gts-450-sli/16/
1708256796089.png
Die GT 430 erreichte gerademal die Hälfte der FPS eine Auflösungsstufe drunter.
https://www.computerbase.de/2010-10/test-nvidia-geforce-gt-430/10/#abschnitt_metro_2033
1708261183088.png

Im Marktgefüge ist die kleine 3050 natürlich trotzdem zu teuer. Wenn ich eine 6600 für 210€, de facto in jedem Rechner betreiben kann, solange ich einen Anschluss für Grafikkarten habe, macht sie nur für die immer wieder hier genannte kleine Nische Sinn.
150€ für die passive bzw LP und 140€ für die aktiven Full Height wäre ok. Aber momentan steht ja die 1650 fest verankert. Da hilft halt nur, nicht kaufen und warten oder in den sauren Apfelring beissen wenn es sein muss.

-=XoDuS=- schrieb:
die beste Alternative für eine GTX 1650 die nur Strom aus dem PCI Slot zieht?
Kann man pauschal nicht sagen, kommt auf dein System an schau mal hier rein
https://www.computerbase.de/forum/t...-jeweils-ohne-eigenen-stromanschluss.2184275/
und mach wenn nötig ein Thread mit ausgefülltem Formular auf.
https://www.computerbase.de/forum/forums/grafikkarten-kaufberatung.50/post-thread
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nudelaug und -=XoDuS=-
Bengart schrieb:
Sprich ich musste nach 2 Jahren für die doppelte Leistung auch genau das doppelte bezahlen. In dem Vergleich oben würde dann in 1993 ein Pentium high-end Rechner 15.000,- DM kosten. Hat aber wesentlich weniger gekostet. Sogar weniger als ein 486er zuvor.
Dieser Vergleich hinkt doch gewaltig, diese Argumentation würde nur greifen, wenn die doppelte Leistung auf derselben technischen Basis erfolgt wäre, aber die Technik wurde ja weiter entwickelt und man hatte mit demselben Aufwand ein mehr an Leistung, in dem Fall kann man eben nicht sagen doppelte Leistung = doppelter Preis
 
Dieser Vergleich hinkt doch gewaltig, diese Argumentation würde nur greifen, wenn die doppelte Leistung auf derselben technischen Basis erfolgt wäre, aber die Technik wurde ja weiter entwickelt und man hatte mit demselben Aufwand ein mehr an Leistung, in dem Fall kann man eben nicht sagen doppelte Leistung = doppelter Preis

Ähem, ich denke wir wollen beide das gleiche sagen....

Ich wollte 2 Punkte rausstellen:
1. Computer waren schonmal wesentlich teurer. Damit wird das Argument, das halt alles immer teurer wird. entkräftet. (Ich habe sogar einen Preis für eine Tastatur von 500 DM im Jahr 1981 gefunden!!!!!)
2. Durch technischen Fortschritt wurden Kosteneffizienzsteigerungen erzielt. Dadurch wird das Argument, doppelte Leistung darf auch das Doppelte kosten, entkräftet.

Hoffe, wir sind da bissl beieinand?

Die RX 580 hat mich 170€ gekostet. Eine etwas mehr als doppelt so schnelle RX6600 XT kostet heute 290€ und eine RTX 3060 280€. Bei AMD haben wir 20% bessere Preisleistung und bei NV haben wir 14%. Die RX 580 dürfte heute gerne noch 135 € kosten. Das ist mehr als enttäuschend. Warum geht man für Einstiegs- und Mittelklassekarten nicht einfach eine Node zurück, bei der die Belichtungsmaschinen schon abbezahlt und die Fehler minimiert wurden? Weil dann Upselling nicht mehr läuft?
 
Bengart schrieb:
Warum geht man für Einstiegs- und Mittelklassekarten nicht einfach eine Node zurück, bei der die Belichtungsmaschinen schon abbezahlt und die Fehler minimiert wurden? Weil dann Upselling nicht mehr läuft?
Habe ich in meinem Post #54 erklärt. In der Mitte ca.
https://www.computerbase.de/forum/t...650-rx-6600-a580.2184308/page-3#post-29139416

Weil man dann eine neue Maske für den Chip bräuchte, die tools für den node andere sind etc, und das alles für eine günstige Einsteigerkarte mit der man pro Stk fast "nichts" verdient um alleine die Kosten für allem zusammen wieder reinzubekommen.
Dann müsste man viele Millionen Chips an die Boardpartner verkaufen und diese an die Kunden.
Der Bedarf müsste da sein und man dürfte sich die Verkäufe der teureren Modelle, die mehr Profit abwerfen, nicht kannibalisieren.
Warum also, wenn man den originalen oder beschnittenen schwächsten Chip (Gx107 ?) für mehr Geld verkaufen kann?
Wenn die Fertigungskapazitäten mit den "großen" Chips (Gx104 und kleiner) auslasten und die Produkte verkaufen lassen, müssen "wir" ja froh sein, dass es überhaupt noch kleinere Karten gibt.
Angebot und Nachfrage und Kosten/Nutzen.
Die selbe Architektur (zB Ada) in einem andere Prozess herstellen zu lassen, würde ALLES verändern!
Ein komplettes Redesign wäre wohl nötig, mit den Tools des jeweligen Prozesses etc pp.
Also die ganze Arbeit und den kompletten Aufwand und dass für low cost Grafikkarten?
Das wird sich geldmäßig nicht ausgehen bzw nicht auszahlen - sonst würde es ja gemacht werden ;)
 
OT: Cooler Vergleichsartikel.

Zur Preisdiskussion: Wurden Spiele in den letzten Jahren eigentlich auch um ein Vielfaches besser?

Frage für einen Freund. :D

Habe das mal bewusst überspitzt. Denn da hier Hardwarepreise von vor dreißig Jahren genannt wurden: Damals waren CPU- und GPU-Upgrades Gamechanger und Must-Haves, selbst neue Massenspeichermedien (CD-ROM) machten Spiele möglich, die es so noch gar nicht gab. Heute gibts dafür überwiegend Sequels zu bekannten Konzepten, jetzt halt in noch was hübscher. Was sich tendenziell eher noch verschärfen wird -- denn mit steigenden Budgets für all die Grafikbomben steigen Aufwand, Entwicklungszeit, Kosten und Risiken. An einem Doom³, damals ein GPU-Seller für Nvidia, arbeitete ein Kernteam von ~20 Mann -- selbst das kürzlich abgewickelte Mimimi Games in München bezahlte ein doppelt so großes Team für ihr leider letztes ever Spiel: Shadow Gambit.

Und: Selbst wer heute das Upgrade-Rennen nicht mehr regelmäßig mitmachen will und drei Generationen aussetzt, hat eine riesige Bibliothek zur Auswahl. Die anders als früher auch längst nicht mehr so veraltet, selbst optisch. Soweit sind wir zwar noch nicht ganz. Aber eines Tages wird die PC-Hardwarebranche eventuell in eine Legitimierungsnot laufen wie Fernseher mit ihren stetig steigenden Auflösungen. 8K mag noch ganz nice sein, aber brauchts irgendwann 32K on top of that? Insofern: Spielen an sich ist heute womöglich deutlich günstiger als damals. Noch mal mehr, wenn man die regelmäßigen Discounts auf selbst aktuelle Titel mit einrechnet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Duggan
xxMuahdibxx schrieb:
Wieso denkst du pauschal das hier alle nur das neuste kaufen weil sie Nerds sind?

Ich habe selbst nur 1070 und merke das sie oft noch reicht.... Und für das passende Leistungsplus ( verdoppeln der FPS ) muss man halt eine Menge Geld in die Hand nehmen.

Ich bezog das eher auf Karten ohne extra Strom Stecker.
Ist ja meist nur in Media PCs der Fall. (Braucht man ja heute auch keine dedizierten Karten mehr)

Bin glaube ich eher einer der Minderheiten der damit spielt - wenn auch eben weil ich nichtmehr viel zum zocken komme und ich es damals schön in meinen ersten Mini ITX build gebaut habe.
 
mae schrieb:
Grafikkarten zwischen EUR 139 und EUR 225 sollen "Einstiegsgrafikkarten" sein? Fuer EUR 150 bekam ich 2008 oder so 2006 eine Radeon X850XT, damals kurz davor high-end.
2006...18 Jahre Unterschied. Kannste heute doppelt rechnen.
200 Euro für eine RX6600 sind nach heutigem Maßstab und den übertriebenen dicken Kartenlayouts dann schon ein guter Deal.
Ergänzung ()

supermanlovers schrieb:
Ich würde hier zur 3050 greifen. DLSS sieht meist besser aus. Viele Anwendungen (u.a. Adobe) laufen mit Nvidia/Cuda besser.
Als reiner Spieler würde ich trotzdem die RX6600 nehmen.
Sie ist 21% schneller.
Die Karte hält also viel länger durch und in der Leistungsklasse ist Raytracing eh unbedeutend und 8vor allem zukünftig) nicht möglich, und wer extra supergünstig kauft, wird auch keine Grafikbombast erwarten udn benötigen, solche leute kaufen halt weiter oben die Geräte.
Mal Hand aufs Herz: wer heute noch FullHD nutzt und auch noch ne Karte dafür kauft, die dort schon schlecht performt und auf Kante genäht ist, ist absolut grafikresistent und hat kein Problem mit Klötzchengrafik (darf es nicht haben).
Ergänzung ()

TrabT schrieb:
Gebrauchte 1080 bei ebay ist die beste Wahl :D

Aber wenn es neu soll sieht die Intel A580 gar nicht mal so schlecht aus :)
1080 habe ich vor einiger Zeit für 150 verkauft, ist imemr noch ne tolle Karte und alles lief bei mir in WQHD mit etwas älteren Titeln noch Top.
Wollte aber wieder dreistellig werden, also musste mal was neues her.

Die A580 würde ich nicht empfehlen, Preis und Leistung sind an sich ja mittlerweile gut.
Aber der Strombedarf mit 200 Watt gegenüber 130Watt der RX6600 sind nicht ohne.
Raytracing kann man mit der geringen leistung eh nicht nutzen.
Zudem sind die Treiber mittlerweile zwar ganz passabel, aber imemr noch anfällig für Probleme.
Läuft Halo jetzt eigentlich richtig?
Es gab auch in letzter Zeit noch ein paar Triple-A Titel, die nicht so gerne Intel mochten.
Da Intel selbstverständlich hauptsächlich erst einmal Probleme potentieller Benchmarktitel löst, sehen die Karten auf den ersten Blick immer recht ok aus.
Wer aber keine Lust hat, sich evtl. in Internetforen nach Problemlösungen umzuschauen, oder auf Patches von Spieleherstellern oder Intel warten zu wollen, vor allem, weil er auch Spiele spielt, die jetzt nicht zu 100% von Intels Qualitätsmanagement abgedeckt sind, der sollte lieber auf Nummer sicher gehen.
Ergänzung ()

Rickmer schrieb:
Die 3050 6GB ist mit Abstand die beste GPU wenn ein zusätzlicher Stromstecker keine Option ist - aus welchen Gründen auch immer.

Ansonsten würde ich aber in den Preisbereich zur RX 6600 greifen.
Leider sind 6GB der Pferdefuß bei dieser Karte.
8GB sind jetzt schon Standard für aktuelle FullHD Titel.
Man wird also die Grafik runterdrehen müssen, um nicht ins Bodenlose abzusacken.
Das Ding hat zudem schließlich nur 8 Lanes.
Und welcher der Aufrüster hat schon ein neues Mainboard mit PCI-E 4.0/5.0 Standard?
Es gibt sogar APU's von AMD, die grundlegend nur maximal 3.0 Anbindung mitbringen.
Also da ist ziemliche Vorsicht angesagt!
NVidia hat da absichtlich schlechte Designentscheidungen getroffen, um Geld zu sparen (macht AMD in der Preisklasse aber auch).
Wer also gewollt keinen extra Stromstecker nutzen will, hat wohl nur die Wahl zwischen Pest und Cholera.
 
Zuletzt bearbeitet:
Ich würde gerne mal einen Testparkour sehen wo RTX 3050 8GB und RX 6600 8GB in FSR und DLSS gegeneinander antreten.
 
Zuletzt bearbeitet:
BxBender schrieb:
Leider sind 6GB der Pferdefuß bei dieser Karte.
8GB sind jetzt schon Standard für aktuelle FullHD Titel.
Man wird also die Grafik runterdrehen müssen, um nicht ins Bodenlose abzusacken.
Man wird auch die Grafik runterdrehen müssen damit die FPS in denselben Titeln nicht ins Bodenlose absacken - das passt also zusammen.

Denk dran, das Ding ist ca. so schnell wie eine GTX 1060 6GB - die fast 8 Jahre alte Mittelklasse. Wer die Karte kauft hat andere Prioritäten als alle Games auf Ultra zu zocken.

BxBender schrieb:
Das Ding hat zudem schließlich nur 8 Lanes.
Und welcher der Aufrüster hat schon ein neues Mainboard mit PCI-E 4.0/5.0 Standard?
Na und?

Das ist nahezu irrelevant. Selbst bei PCIe 2.0 erreicht die RTX 3050 8GB noch 95% ihrer Leistung, siehe diesen Computerbase Test. Die gedrosselte RTX 3050 6GB wird das noch weniger stören.

BxBender schrieb:
Also da ist ziemliche Vorsicht angesagt!
Nö, weil das alles keine praktische Relevanz für die Karte hat.
 
Zurück
Oben