News Alte vs. neue Einstiegs-GPUs: GeForce GTX 1050 Ti vs. RTX 3050, GTX 1650, RX 6600 & A580

Bei den Features hat die GeForce GTX 1050 Ti übrigens keine Chance gegen die aktuelle Garde: Sie bietet kein Raytracing, kein DLSS (wenngleich FSR) sowie keine modernen Video-En- und Decoding-Fähigkeiten.
Unfug!
Ab der GTX960 konnte man mit Programmen wie z.B. Handbrake schon vp9, h265 und h264 De/Encoden.
h264/VP9 wird heutzutage zu 99% im Netz genutzt sollte also "modern" genug sein.

Könnte man das Bitte verbessern Danke.
 
  • Gefällt mir
Reaktionen: Mcr-King, Vulture, Zarlak und eine weitere Person
crvn075 schrieb:
Da trügt dich wohl die Erinnerung. Die Karte war Ende 2004/Anfang 2005 High-End und kostete 450€. Bereits Ende 2006 betitelte Gamestar die Karte nur noch als "einstiges High-End" mit "veralteter Technik", welche mit den damals aktuellen Karten nur noch in 1024x768 einigermaßen mithalten konnte.

Ja, ich habe mich mit dem Jahr geirrt. Tatsaechlich habe ich die Connect3D X850XT im Dezember 2006 fuer EUR 148,79 gekauft. Mag vielleicht damals schon einstiges high-end gewesen sein, hatte aber jedenfalls ein 256-Bit-Speicherinterface. Wo kriegst Du heute eine Karte mit 256-bit-Speicherinterface fuer diesen Preis? Bzw. eine High-End-Karte von vor 2 Jahren um diesen Preis?

Von der Aufloesung her war die X850XT tatsaechlich schwach, denn sie hat 2560x1600 nicht unterstuetzt und so habe ich sie am 9.9.2008 durch eine SAPPHIRE Ultimate Radeon X1650 PRO um EUR 52,10 ersetzt. Wo kriege ich heute eine Karte mit 128-bit-Speicherinterface fuer diesen Preis, oder tatsaechlich irgendeine Graphikkarte der letzten zwei Generationen?
Ergänzung ()

Smartbomb schrieb:
Klar, die kleineren Fertigungsnodes kosten überproportional viel mehr als früher und alles wird teurer.

Komischerweise laeuft das bei den CPUs anders. Da schafft es auf einmal AMD, einen 7nm-Chip mit 165mm^2 (einen Ryzen 4600G) zum Endkundenpreis von EUR 95 zu verkaufen, manche Modelle billiger, manche teurer, aber insgesamt auch nicht wirklich teurer als frueher (beim Athlon 64 habe ich 2003 den Ungeduldsaufschlag gezahlt und EUR 465 rausgerueckt; dafuer habe ich 193mm^2 eines in 130nm gefertigten Chips bekommen).

Den Mining Boom mitgemacht, dann Corona, dann noch weiter künstlich verknappt um die Coronapreise und damit die enorme Marge möglichst lange oben zu halten.
Natürlich viel in neue (proprietäre) Tech investiert + die Marge muss stimmen, sonst gibts nur noch HPC Karten und jetzt eben KI Zeugs.
Und nun kostet die Big Chip “80er“ Karte RTX4090 schon 2.000€.
Zum Teil natürlich auch weil von der Leistung konkurrenzlos.
Die 70er Karte, rtx4080/ti/super/whatever gibts auch nicht mehr für das was mal eine GTX570 gekostet hat - schon klar.

Ja, ich denke auch, dass die diversen Nachfrageueberhaenge zu diesen heftigen Preissteigerungen gefuehrt haben, und die Hersteller schauen, dass sie da moeglichst lange draufbleiben, bevor sich der Preis wieder normalisiert. Ungefaehr die umgekehrte Entwicklung wie bei den Laptops: Es gab einmal eine Zeit, da gab es eine Marketingklasse "Subnotebook", die war teurer als die groesseren Verwandten. Dann kam der sogenannte $100-Laptop des OLPC-Projekts (das in seinem eigentlichen Ziel vollkommen geflopt ist) mit einem AMD-Prozessor, und auf einmal hat Intel geschaut, dass es billige Konkurrenz gab, das Netbook war erfunden. Die waren anfangs recht billig und klein, im Laufe der Zeit wurden ihre Nachfolger etwas groesser und teurer, aber immer noch viel billiger als ehemals die Subnotebooks. Das OLPC-Projekt floppte, und Intel begann mit langwierigen Kampagnen wie "Ultrabook", und hat es damit geschafft, die Preise fuer kleine, leichte Laptops wieder in die alte Preisregion zu verschieben. Aber es dauert halt, bis die Kunden die neuen Preise akzeptieren; umgekehrt, wenn die Kunden die hohen Preise einmal gewoehnt sind, dann melkt man sie moeglichst lange, und einige reden sich die Preise auch noch schoen, wie man in diesem Thread beobachten kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
mae schrieb:
Komischerweise laeuft das bei den CPUs anders.
Äh, CPUs sind doch deutlich teurer als GPUs. Das betrifft jedenfalls die Desktop CPUs. Man bekommt in einem Ryzen 7700X 10 Milliarden Transistoren für 300€. Selbst in einer 3060 bekam man bereits 12 Milliarden Transitoren für ca. 300€. Aktuell bekommt man in der 4060 etwa 19 Milliarden Transistoren für ca. 300€. Man bedenke, dass die monolithischen Chips auf der Grafikkarte teurer sind und man bekommt noch eine Grafikkarte mit aufwendiger Platine, VRAM, VRMs und Lüfter dazu. Ein 8700G hat für 350€ immerhin bereits 25 Milliarden Transistoren, aber verglichen mit einer 4060 ist das weiterhin relativ teuer.
 
Nolag schrieb:
Man bekommt in einem Ryzen 7700X 10 Milliarden Transistoren für 300€. Selbst in einer 3060 bekam man bereits 12 Milliarden Transitoren für ca. 300€. Aktuell bekommt man in der 4060 etwa 19 Milliarden Transistoren für ca. 300€. Man bedenke, dass die monolithischen Chips auf der Grafikkarte teurer sind und man bekommt noch eine Grafikkarte mit aufwendiger Platine, VRAM, VRMs und Lüfter dazu. Ein 8700G hat für 350€ immerhin bereits 25 Milliarden Transistoren, aber verglichen mit einer 4060 ist das weiterhin relativ teuer.

Flaeche kostet, nicht Transistoren. Wobei es mich wundern wuerde, wenn der 7700X mit seinem doppelt so grossen L3 cache so viel weniger Transistoren haette als der 8700G; so gross sind GPU und NPU auch wieder nicht. Du bekommst den selben Chip wie beim 8700G auch um EUR 240 (als 8600G), und Kuehler und Luefter sind auch dabei, aber zugegebenermassen nicht Speicher und Platine.

Ja, bei den Preispunkten, die Grafikkarten besetzen, kann man auch CPUs kaufen. Aber bei CPUs kann man auch fuer unter EUR 100 eine anstaendige CPU kaufen (z.B. Ryzen 5500 mit 6 Kernen und 12 Threads), und es geht noch viel billiger, waehrend bei einer Grafikkarte sogar bei einem Preis von EUR 225 von "Einsteigerkarten" geschrieben wird.
 
mae schrieb:
Flaeche kostet, nicht Transistoren.
Ich habe extra die Transistoren genommen, weil das wegen der höheren Dichte sogar noch zugunsten der CPUs ausfällt. Schaut man sich die Fläche an, sieht es noch schlechter aus. Beim 8700G weiß ich auch nicht warum sich die Transistoranzahl gegenüber Rembrandt fast verdoppelt hat. So viel besser ist die Leistung verglichen mit einem 6900HX auch nicht. Die Transistoranzahl für einen Zen4 CCD wird z.B. mit lediglich 6,57 Milliarden Transistoren angegeben. Der Zen4 CCD Die ist ja auch nur 70mm2 groß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
mae schrieb:
Komischerweise laeuft das bei den CPUs anders. Da schafft es auf einmal AMD, einen 7nm-Chip mit 165mm^2 (einen Ryzen 4600G) zum Endkundenpreis von EUR 95 zu verkaufen,
Beim Rest stimme ich dir absolut zu, aber hier habe ich Bedenken.
1.) Man siehe sich die steigenden Waferpreise an pro besserer Fertigungsnode. Extrem!
Kleine DIE-Flächen und hohe YIELD Raten helfen massiv, die Anzahl an verkaufbaren Produkten pro Wafer zu erhöhen auf die sich die Kosten verteilen, was AMD ja voll gut drauf hat mit den kleinen 8-Core DIEs und den Rest als IO DIE in einem günstigeren Prozess ausgelagert.
Damit hat das AMD im Gegensatz zu Intel voll drauf, die jetzt erst mit Meteor Lake mehrere "Tiles" auf ein Package packen.
2.) Von CPUs werden um Größenordnungen mehr Stk verkauft als von dedizierten Grafikkarten, worauf sich die Forschungs- und Entwickungskosten etc umlegen.
3.) AMD/Intel verkaufen die CPUs selbst, da ist kein Dritter dabei, der auch noch selbst Dinge wie VRAM, Kühler, Lüfter, etc pp zukaufen muss, testen muss, verpacken muss, marketing betreiben muss, etc wie bei Grafikkarten
4.) Ein 6-Kern Ryzen 4600/4650 kostete sicher keine 100€ sondern eher 300€ wenn ich mich recht erinnere, denn ich habe einen in einen Deskmini X300 samt Noctua Kühler verbaut, der bei meinen Eltern am Schreibtisch steht. Die jetzigen 100€ sind wohl eher irgendwo ein günstiger Restposten der weg muss oder soll. Da wurden wohl noch irgendwo in einer Schachtel ein paar Stk gefunden, oder sind von einem pleite gegangenen handheld Startup übrig geblieben oder was weiß ich.
Fakt ist, wenn AMD neue CPUs um 100€ verkaufen würde, könnten sie wohl kaum mit dem Gewinn daraus die Selbstkosten decken. UNd wenn, dann schön, aber Budget für Weiterentwicklung würde es nicht geben.
Ich weiß, ich habe letztens sogar Zen 3 CPUs/APUs (5600G) auf geizhals für gute 100€ gesehen.
Die Frage ist nur: wieviel Stk sind zu diesem Preis verfügbar? Wie gesagt, wird wohl abverkauf sein und keine UVP und schon gar nicht Neupreis im ersten Jahr seit Erscheinen.

Wie gesagt, dem überwiegenden Großteil deines Posts stimme ich zu :)
 
  • Gefällt mir
Reaktionen: Zarlak
Cabranium schrieb:
Und in der DDR war Wasser und Strom Kostenlos.
Und 1914 hat ein Brot 14 Pfennig gekostet.
Wir haben 2024, hört doch mal auf alles 1 zu 1 mit der Vergangenheit zu vergleichen.
Damals gab es bestimmt auch haufen Leute die gesagt haben „ 150 Euro für eine Grafikkarte? Also zu D-Mark Zeiten wären das ja 300DM gewesen. Das hätte damals keine 150 DM gekostet. Dieser Euro, alles doppelte abzocke!“

Die Menschheit so, einfach immer!
Der Vergleich hinkt schon hart.
Die Preise für Grafikkarten sind um ein vielfaches höher als sie es inflationsbedingt sein dürften.
2000 - 150€ (bzw. 292,65DM) -> Inflationsbereinigt 2024 = 235€.

https://www.finanzen-rechner.net/inflationsrechner.php
Ergänzung ()

AGB-Leser schrieb:
Doch, ich habe bewusst zur 1050Ti gegriffen, weil ich den Sockel 775 vom Bruder mit neuen Codecs ausstatten wollte. Dazu einen Wasserkühler dafür, weil die noch 120W braucht
Die 1050 Ti hat eine TDP von 75W.
 
  • Gefällt mir
Reaktionen: SweetOhm und Vulture
mae schrieb:
Fuer EUR 150 bekam ich 2008 oder so eine Radeon X850XT, damals high-end.
Eine X850XT war 2008 nicht mal mehr low-end. Da waren wir schon 3 Generationen weiter.

Die X850XT kam im März 2005 auf den Markt mit einer UVP von 499$. Die X850XT PE kam schon im Dezember 2004 für 549$.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Vulture und Loopman
@AGB-Leser
NVENC hat einen deutlichen Sprung mit Turing gemacht, was sich in Vergleichen an CPU Encoding annäherte. Der Pascal NVDEC war aber schon gut.
Ich hatte eine GTX1050Ti und eher CPU Encoding betrieben. VEGA 56 in erneuter Anmerkung im Encoding, meh. Der AMD Videodecoder war dagegen bis auf die Produktivtreiber überzeugend in Hardware umgesetzt, bei geringerer GPU Last auf den Shadern, was selbst Nvidia Ampere nicht kann. Auf der RTX3060Ti nutze ich ab und zu NVENC in Hardware. Alderlake Quicksync ist da nochmal eine leicht bessere Nummer. Der Videodecoder ist auch ok.

-
Wenn die RTX3050 6GB auf die 150€ fallen würde, wäre das für eine rein PCIe Strom gespeiste GPU bei 65W im Sinne der 750Ti oder der GTX1050Ti. Letztere waren aber bedeutend günstiger als eine 050Ti. Zum Glück hat nvidia nicht gewagt daraus eine GTX3030Ti für 150€ zu machen und noch auf PCIe x4 zu kastrieren.
 
Cabranium schrieb:
Und in der DDR war Wasser und Strom Kostenlos.

Keine Ahnung woher du das hast ... Aber Stromzähler waren da und wurden auch abgelesen... Und der Wasserverbrauch wurde geschätzt... Bezahlen müsste man schon.. als Hausbesitzer war man da mehr überwacht als Mieter weniger.. da kam sogar oft die Fernwärme als fix Preis an.
Ergänzung ()

daniel-sid schrieb:
Danke für den Beitrag, bei doch "unrelevanteren" Karten in Bezug auf Gaming und Community.

Wieso denkst du pauschal das hier alle nur das neuste kaufen weil sie Nerds sind?

Ich habe selbst nur 1070 und merke das sie oft noch reicht.... Und für das passende Leistungsplus ( verdoppeln der FPS ) muss man halt eine Menge Geld in die Hand nehmen.
 
  • Gefällt mir
Reaktionen: Smartbomb, marakuhja und Vulture
@UrlaubMitStalin
Okay, keine Ahnung, wie ich auf 120W komme. Meine hier hat einen PCIe-12V-Anschluss, was ich bei 75W nicht wirklich verstehe

@Der Nachbar
Zu der Zeit, als ich die 1050Ti gekauft habe, gab's von AMD nichts vergleichbares mit vp9. Nur für weit über 500€ und das war es nicht wert. Die 1050Ti hat gebraucht 120 gekostet, was schon echt viel war
 
Was ist denn hier los? Bisher gibt es insgesamt nur 32 Kommentare zu diesen Artikel. Ich sage nur: "Wer die Einsteiger-GPU nicht ehrt, ist den High-End nicht wert."
 
  • Gefällt mir
Reaktionen: Jan
ich finde es schon ziemlich beeindruckend was die karten leisten und wie sehr sich intel gemausert hat (sei es jetzt als "codec-schleuder" oder im p/l-bereich). eine 1070 (oder vergleichbares) bekomme ich hier trotzdem vorort um die 100 (+/- 20) € und eine 1060 (oder vergleichbares) wird einem quasi hinterher geworfen. wie dem auch sei: grafikkarten sind aktuell zu teuer...auch wenn manche versuchen es schönzureden (warum eigentlich?)
 
  • Gefällt mir
Reaktionen: SweetOhm und Vulture
TigerherzLXXXVI schrieb:
Bisher gibt es insgesamt nur 32 Kommentare zu diesen Artikel.
Der eigentliche Artikel hat über 200 Kommentare. :) Vieles wurde bereits im Test der Ryzen 8000G diskutiert, der bringt es sogar auf über 800 Kommentare.

nudelaug schrieb:
wie dem auch sei: grafikkarten sind aktuell zu teuer...auch wenn manche versuchen es schönzureden (warum eigentlich?)
Vielleicht weil eine Plattform günstig zu bekommen ist und länger hält, denn je.
Und all das Klagen seinen Kern hat, aber unterm Strich unproduktiv ist.


Zum Thema:
Hier liegt noch immer eine GTX 1050 Ti herum. Leider mit Stromanschluss :freak: Eine andere Karte war als Zweitkarte, im Mining-Boom, nicht sinnvoll. (Die HD6670 wurde von Diablo II:R nicht mehr akzeptiert, welch ein Ärgernis.)

Nun gibt es diese Leistung also als APU. Wobei sich beide Lösungen immer mal wieder im Rennen abwechseln und es keinen klaren Sieger gibt.
 
Die RX 6600 ist und bleibt die einzige Einsteigerkarte mit, nicht großartigem, aber akzeptablem Preis-Leistungsverhältniss wenn man neu kaufen will.
Sonst bleibt nur der Gebrauchtmarkt. Alles andere ist im Vergleich einfach nur entweder unverschämt im Preis oder erbärmlich in der Leistung, oder halt beides wie die gesamte 3050er Serie. Was über die letzten Jahre im Einsteigersegment angeboten wurde spottet jeder Beschreibung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, drake23, Smartbomb und 2 andere
TrabT schrieb:
Gebrauchte 1080 bei ebay ist die beste Wahl :D

Aber wenn es neu soll sieht die Intel A580 gar nicht mal so schlecht aus :)
Naja! Du zahlst für eine gebrauchte GTX 1080 schon 140€.
Vom Einkaufspreis her mag es stimmen, aber langfristig glaube ich nicht die bessere Wahl. Schwierig!

Für 60€ mehr bekommst Du schon eine neue Karte mit neuer Technik, mit weniger Verbrauch bei gleicher Leistung alter Titel und mehr Leistung bei aktuelleren Titeln. Also insgesamt zukunftssicherer.
 
  • Gefällt mir
Reaktionen: Vulture
TrabT schrieb:
Gebrauchte 1080 bei ebay ist die beste Wahl :D

Aber wenn es neu soll sieht die Intel A580 gar nicht mal so schlecht aus :)
Einige 1080 verabschieden sich mittlerweile, insbesondere wenn die Wärmeleitpaste und Pads nicht erneuert werden. Daher nur für Nutzer geeignet die keine Angst davor haben die Karte zu öffnen.

mae schrieb:
Grafikkarten zwischen EUR 139 und EUR 225 sollen "Einstiegsgrafikkarten" sein? Fuer EUR 150 bekam ich 2008 oder so 2006 eine Radeon X850XT, damals kurz davor high-end.
Selbst meine Voodoo 3 hatte im Januar 2000 ca. 350 DM gekostet und war aus der unteren Mittelklasse. Das entspricht im Jahr 2024 circa 300 Euro.
 
Smartbomb schrieb:
@mae
Ja, die ehemalige Mittelklasse von ca 200€ a la GTX460 1GB hat sich mittlerweile leider stark verschoben.
Wenn ich mich richtig erinnere hat meine Geforce GT 430 im Jahr 2010 um die 80 Euro gekostet.

asusgt430a.jpg




Heute würde eine Geforce RTX 3050 6GB etwa um die 200 Euro kosten.

1523390_1__76800-1.jpg



frankkl
 
  • Gefällt mir
Reaktionen: Mcr-King, SweetOhm und Smartbomb
Zurück
Oben