Test Grafikkarten-Generationen im Test: GeForce GTX 1060, RTX 2060, 3060 & 4060 im Vergleich

kachiri schrieb:
Ich finde die Diskussion über Preis-Leistung immer interessant. Für die Personen, die AMD ein gutes Preis-Leistung-Verhältnis bescheinigen, geht es dabei immer nur um Anschaffungspreis zu Frames.
Stimmt so nicht wirklich durch die Bank, davon ab gab und gibt es das auch immer mal anders rum.

Und nicht vergessen, den horrenden Strompreis in Deutschland, den zahlt selbst in Deutschland nicht mal jeder. Da sehen die Dimensionen und Betriebskosten gleich ganz anders aus, besonders über die kurzen laufzeiten mit denen man normalerweise bei einer 60er Karte gerechnet hätte.

Insofern wird die Energieeffizienz umgekehrt natürlich immer von Grün als besonders wichtig dargestellt, wenn sie auch mal effizient arbeiten. Sonst war es natürlich auch immer Wumpe. Leute die diesen Team Grün und Team Rot Gedanken pflegen, die finden schon einen Weg was gerade gut und wichtig ist und was gerade total unwichtig ist.

Davon ab, zieht das RT Argument auch umkehrt. Warum Nvidia soviel Geld einen Chip bezahlen, wenn man in der Regel nur die Hälfte des Chips dann auch wirklich benutzt? Zumindest zu Turing Zeiten war das noch ein gutes Argument, ob es das in 2024 immer noch ist, darf gerne jeder selbst Bewerten. Imho ist es das ab 650€ jetzt nicht mehr. Aber ich würde mir JETZT auch nur ungern eine neue GPU kaufen. Und wie gesagt, jeder kann und hat da seine eigenen Perspektive und seine eigenen Auswahl an Spielen die im wichtig sind.
Ergänzung ()

Boimler schrieb:
Auch mit einer 7900XTX kann man in RT gut spielen. Ob man das möchte, ist letztlich eine ganz andere Frage.
Natürlich, aber wenn man dann eben Spielen möchte, dann wahrscheinlich mit schlechterer P/P Rate als mit einer Nvidia Karte und dieser Tage gibt es auch immer öfter gar keine Wahl ob man RT jetzt an oder ausmachen möchte. Pandora und Alan Wake lassen grüßen. Was imho auch ok ist, aber natürlich verschiebt sich dann die Wichtigkeit der RT Performance.
 
  • Gefällt mir
Reaktionen: SweetOhm
Apocalypse schrieb:
Ich hab es dir doch sogar vorgerechnet. Wenn du die Rechnung nicht nachvollziehen kannst. Ok.
Ja, ich warte immer noch auf die Rechnung wo die RX580 ein besseres P/L geboten hat.
Das ist doch eine reine Meinungsäußerung von dir, die nicht zu den Fakten Leistung/Euro und zur Effizienz passt. Es ist und bleibt unbelegt.
Apocalypse schrieb:
Der Schlüssel liegt darin das du einen ziemlich absurd hohen Strompreis von 30 Cent pro kWh angenommen hast und zweimal soviel Spielzeit, ich hingegen einen recht niedrigen Strompreis von 15 Cent pro kWh und nur eine Stunde Gaming, weil das dann doch deutlich näher dran an meiner Realen Nutzung und meine Realen kosten ist.
Wenn du meinst. Ist am ende doch völlig egal ob es 100 Euro Aufpreis innerhalb des Nutzungszeitraumes sind, oder meinetwegen nur 50 Euro. Wo ist das P/L der Radeon besser gewesen?

Abgesehen davon sind 15 Cent schon ziemlich billig, kann es sein, dass du dich um Kopf und Kragen redest?
Screenshot 2024-03-22 210617.png

Apocalypse schrieb:
Mit sogar absurden 7 Jahren Laufzeit für ne Karte bei der man angenommen hätte die nach 1-2 Generation auszutauschen und nicht sie für 500€ dann Mitten im Boom verkaufen zu können.
Hätte, hätte Fahrradkette. Wer nur 2h täglich spielt und die Karte 7 Jahre benutzt, bezahlt mit ~30 Cent pro Kilowattstunde bei 80 Watt durchschnittlich 123 Euro mehr mit der Radeon, bei 1 Stunde die Hälfte.
Apocalypse schrieb:
Davon ab, ja ich hänge mich an dem Wort auf, weil Wörter eine Bedeutung haben, und wenn mein Post Satz für Satz für Satz einzeln zitiert wird, dann nehm ich mir auch raus mit drüber aufzuregen, wenn jemand so dermaßen überdramatisiert und einen 30 bis 80W Vorteil als horrend bezeichnet und darauf besteht.
Wie kommst du dazu etwas von 30 Watt zu sprechen? Selbst die RX480 um die es nicht ging, nahm im Launch Test 44W mehr auf. Und mir ist immer noch nicht klar wo die AMD Karten, insbesondere die RX580 das bessere P/L hatte.
Apocalypse schrieb:
Das ist eine horrende Verschandelung der Sprache, wahrscheinlich trotzdem nicht so Alptraumhaft wie meine Posts. ;-)
Wenn eine Karte eine 70% bessere Effizienz aufweist, dann ist das für mich ein deutlicher Unterschied, da geht es nicht nur um die absoluten Werte.
kachiri schrieb:
Ich finde die Diskussion über Preis-Leistung immer interessant. Für die Personen, die AMD ein gutes Preis-Leistung-Verhältnis bescheinigen, geht es dabei immer nur um Anschaffungspreis zu Frames.
Es ist immer dasselbe. Da wird sich an 10 oder 20 Euro Preisvorteil aufgehangen, ein geringerer Verbrauch dann aber ignoriert, weil das nicht in das Mantra "besseres P/L" passt. Es ist sowieso unsinnig.
Die Karten werden so angeboten was sie in etwa wert sind.
kachiri schrieb:
Alles andere wird ausgeblendet. Maximal wird je nach Leistungsklasse noch betont, dass es ja auch noch mehr VRAM gibt.
Und dann RT, DLSS und Co weggelassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: W4RO_DE
Quidproquo77 schrieb:
Abgesehen davon sind 15 Cent schon ziemlich billig, kann es sein, dass du dich um Kopf und Kragen redest?
Die Tatsache das du fragst zeigt doch schon auf das du deiner eigenen Infografik so gar nicht vertraust. Warum du sie überhaupt angeführt hat, wunder mich jetzt aber irgendwie nachdem doch schon ein andere mit viel niedrigeren Werten gesehen hast, du natürlich immer noch viel zu hoch sind im Vergleich zu dem was man bekommt, wenn man nur auf einen günstigeren Anbieter wechseln würde. Das ist halt die Crux an durchschnittswerten, da sind auch die Leute dabei, die stoisch jede Preiserhöhung akzeptieren und noch nie den Anbieter gewechselt haben, genauso wie jene die alle 2 Jahre den Anbieter wechseln.

Aber du machst das natürlich, also Regelmäßig überprüfen wo es das beste Angebot gibt, oder? Du zahlst keine 30 Cent pro kWh? Erst recht nicht 2016, oder etwa doch? Neukunden bekommen dieser Tage ja selbst in Deutschland Angebote mit um die 20-25 Cent pro kWh. Natürlich auch welche mit fast 30 Cent und bestimmt sogar noch mehr, sonst wäre der Durchschnitt nicht sogar noch leicht über 25 Cent.

horrende-Stromkosten.jpg




Und nein, 15 cent waren damals nicht ziemlich billig, wenn ich mich richtig erinnere hab ich schon 3 Cent drauf gelegt auf meinen Ökoanbieter. Aber mit den 6,35 Cent pro kWh EEG-Umlage war das in Deutschland wahrscheinlich schon nicht ganz so günstig. ;-)

Aber hey, nachdem du immer noch wartest, hier zum Dritten mal eine Rechnung: 250€ vs 300€ Kaufpreis, 15 Cent pro kWh, bei 7 Jahren je 1 Stunde pro Tag. Und 100W Unterschied im Verbrauch, sind also 1.5 Cent pro Stunde an Mehrverbrauch für 2555 Stunden. Klingt viel? Ist es es auch, weil um ehrlich zu sein hat die Karte wahrscheinlich gar nicht soviel Gametime gesehen und mir sollte eigentlich der idle Verbrauch mit Multi-Monitorbetrieb viel mehr sorgen machen.

38€ mehr an Stromverbrauch.
Und jetzt um besonders nett zu sein.

Mitteln wir mal zwische 30 und 15 Cent, um ein wenig die Ukraine Invasion mit reinzubekommen, auch wenn unser Anbieter sich nicht getraut hat die Preise für Strom sofort zu stark anzuziehen, und trotzdem verklagt wurde, weil er ausschließlich Wasserkraft und dem entsprechend 0% Gas in seinem Energiemix hat. ;-)

Dann sind es halt 55€. Irgendwo in dem Bereich wird es in Realität liegen und ich hätte nicht mal behauptet das MEINE 580 Nitro+ special Edition jetzt ein gutes Preis/Leistungsverhältnis gehabt hätte. Die Verbrauchte tatsächlich unter Last 100W mehr iirc, und war auch nie eine von den attraktiven 180€ Karten. Zugeben, 7 Jahre ist sie iirc auch nicht alt geworden, leider, und 2555 Stunden Gaming sind auch wahrscheinlich sogar etwas hoch gegriffen (leider).

Wird trotzdem wahrscheinlich mal wieder Zeit hier den Anbieter zu wechseln. Wer weiß, vielleicht bei dir auch?




Ergänzung ()

Quidproquo77 schrieb:
Hätte, hätte Fahrradkette. Wer nur 2h täglich spielt und die Karte 7 Jahre benutzt, bezahlt mit ~30 Cent pro Kilowattstunde bei 80 Watt durchschnittlich 123 Euro mehr mit der Radeon, bei 1 Stunde die Hälfte.
Und wer sie 3 1/2 Jahr nutzte und und nur 1 Stunde dann halt 1/4, also 41€. Das hatten die Polaris Karten ganz bequem als Preisvorteil. Wer hätte das gedacht.

Und wer sich gleich ne 1080ti gekauft hat, hat sich wahrscheinlich über den ganzen GPU Markt der letzten 7 Jahre kaputtgelacht und sich ne 4090 bei Release spottbillig gekauft. ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Asustuftuf und SweetOhm
Die Leistung seid der 1000er Serie ist komplett daneben genau wie bei AMD ich besitze eine Asus GTX 1080 Ti und die läuft heute noch ohne Probleme auch in Horizont Forbidden West.Was nützt einem eine sogenannte bessere Grafikkarte die im Prinzip gar nicht besser ist sondern langsamer da sie Schatten ect. wie RTX und DLSS oder FSR einem vortäuscht da es dafür keine Formel gibt ist es Sandkasten Virtuell was einem über das Auge flattert und genau das bevorzugt einen PC der mindestens 10000 Euro kostet mit 64 - 128 GB DDR 5 Ram am besten eine 8 Tera Byte große sehr schnelle PCIe 5.0 SSD als Betriebssystem da die neuen Spiele alle auf die SSD müssen also Betriebssystem SSD auch mit einer RTX 4090 mit 24 GB Videospeicher und genau da steckt das Problem bei Nvidia und AMD und Intel die bekommen nach der RTX 2090 mit 24 GB Videospeicher keine Grafikkarte auf die Reihe mit 32 GB,64 GB,128 GB oder 256 GB Videospeicher denn dann wäre es überhaupt kein Problem virteulle nicht reale Grafiken wie RTX DLSS FSR oder Intel zu zeigen und nicht ein Spiel müsste auf die Systemfestplatte eine sehr schnelle SSD.Das Problem ist ziemlich einfach zu lösen mit mehr Videospeicher aber NVIDIA,AMD und Intel verweigern das oder sind zu blöd dafür!Man bräuchte nur das Patent der Mainboard Hersteller brechen oder mehere neue bauen Nvidia,AMD,Intel also nicht nur CPU Intel oder AMD sondern auch Grafikkarten und dann neben der Grafikkarte mit 0 GB Videospeicher 4 Sockel für Video Ram setzen auf das Mainboard 256 GB sollten schon möglich sein mit PCIe Verbindung und alleiniger Kontrolle der GPU.Falls das einer liest der mich dafür einstellen möchte obwohl ich nicht mehr arbeiten wollte sollte ein richtiges Angebot machen.Es muss sowieso ein nagelneues Mainboard entworfen werden da es wie es aussieht 1982 mit der Entwicklung stehen geblieben ist vor allem was die AIR Lüfter auf der CPU angeht wo die Lüfter den Platz für DDR Sockel 1 weg nehmen wenn man Glück hat.Was neue Tower angeht sollte man da auch dringend Abhilfe schaffen und neue entwerfen die mindestens 3 Sockel oben frei haben für BluRay Brenner,USB Leiste und Kartenleser und vor allem bei AIR stimmt die Lüfterbestückung bei keinem TOWER die seid Jahren angeboten werden alles vollkommender Schrott und nicht zu gebrauchen.PCIe 6.0 sollte endlich 6400 ansteuern ohne Fehler wie bei DDR 4 3200 dann wäre auch Nvidia oder AMD oder Intel dazu bereit so einen Videospeicher zu benutzen denn auf der RTX 4090 ist PCIe 4.0
 
Zuletzt bearbeitet:
Werde mir wohl demnächst ein FullHD - System zulegen mit einer 3060. Die Karten sind mittlerweile recht günstig zu bekommen und die 12 GB VRam werden wohl noch eine Weile reichen. Schlecht programmierte Spiele wie City Skylines werden damit natürlich nicht gespielt.

Zum Vergleich kann ich nicht viel sagen. Aber da es tatsächlich eine 4050 für Laptops zumindest gibt hat die 4060 doch das Recht auf einen eigenen Platz.
 
30% mehr Performance für 30% mehr Geld. Die Preise stagnieren seit einem Jahr. Wenn das so weiter geht, kostet die 3060 noch in 5 Jahren 300€. Wenn ich dann linear hochrechne.. besser nicht.
Damit falle ich wohl als Käufer raus.
Ergänzung ()

Boimler schrieb:
Ich hab damals günstig eine RX580 bekommen, allerdings mit lediglich 4GB. War irgendeine Aktion bei Amazon damals. In 90% der Spiele war die genauso schnell wie ihr 8GB-Pendant und in den anderen Fällen musste man die Details reduzieren, um die gleichen FPS zu erreichen.
Die hatte ich auch dort gekauft. Der Preis war 135€ und damit konkurrenzlos günstig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Boimler
Whitehorse1979 schrieb:
Die Karten sind mittlerweile recht günstig zu bekommen und die 12 GB VRam werden wohl noch eine Weile reichen.
Ich empfinde das Preisgefüge der RTX 3060 12GB eher als anhaltend schlecht. Die an sich runde Karte ist einfach viel zu teuer.

Vllt. ist eine 7600 XT 16GB inklusive ASUS-Cashback eher etwas für dich. In Raster immerhin rund ein Viertel schneller, in Raytracing etwa gleich, preislich jedoch (nach Cashback) ähnlich.

Leider hat die 7600 XT einen eher hohen Verbrauch, den man jedoch selbst regeln könnte. Zudem ist sie deutlich jünger; Thema Treibersupport. (Es wäre allerdings gut, hätte dein System PCIe-4.0)

Drei Jahre hat die RTX 3060 12GB bereits auf dem Buckel. Dass sie noch in die engere Wahl kommt, zeigt, wie mies sich der Markt entwickelt hat ...
 
Ich hatte bis Mitte/Ende 2022 eine GTX770 (FE) verbaut, auf einem Phenom II-Unterbau. Es hat sie mir, obwohl Mining-Hype längst vorbei, doch tatsächlich jemand abgekauft und ich musste nur 12 (!)(zwölf) Euro drauf zahlen für eine 2060 von EVGA. Der "Boost", nach mehr als 10 Jahren mit der CPU, kam erst im Frühjahr mit dem 5800x3D. Unter Full-HD mit Ultra Settings allerdings die 60fps nicht geschafft. Und immer diese Nachladeruckler - Gerade wenn ein Panzer um die Ecke kam - ruckel - dead. Hatte mir vom neuen Unterbau mehr erhofft und kurzerhand die 2060 im Sommer 23 mit einem kleinen Aufpreis gegen eine 3060 eingetauscht. Endlich über 60fps und keine Drops mehr. Lief flüssig, fühlte sich gut an. Aber nicht so gut wie ich mir das dachte. Die 3060 habe ich gegen eine RX6700XT (3 Monate alt, mit Restgarantie) tauschen können.

Nach langer Nvidia Zeit - TNT2 Pro, Geforce 2 MX400, GTX460, GTX770, RTX2060 und RTX3060 bin ich nun zum ersten mal auf AMD gewechselt. Und ich bin begeistert. Alleine die Treibersoftware ist etwas völlig Gegensätzliches zum Detonator-Ableger.

Aufgrund eines Monitorwechsels auf 165hz, WQHD überlege ich diese FPS auch auszureizen und mir eine Stufe höher "zu gönnen".
Allerdings ist der erwartbare Leistungszuwachs nur mit deutlich viel Geld realisierbar. Und ich bin nicht bereit wieder eine 12GB Karte, die dann 3 Jahre halten soll, für das aktuelle Preisniveau zu kaufen.

Zum Thema Doppelmoral beim Strom:
Ich finde eine 300 Watt GPU wesentlich einfacher zu kühlen und die Wärme aus dem Gehäuse zu kriegen als einen "14900KS".
 
marakuhja schrieb:
30% mehr Performance für 30% mehr Geld. Die Preise stagnieren seit einem Jahr. Wenn das so weiter geht, kostet die 3060 noch in 5 Jahren 300€. Wenn ich dann linear hochrechne.. besser nicht.
Damit falle ich wohl als Käufer raus.
Ganz so schlimm ist es auch nicht, die 4070 Super bekommt man momentan schon für etwa 500 Euro.
Das ist richtig günstig. Es gibt aktuell gar keinen Grund mehr für Kritik an den Preisen.
Eine 2070 bzw. 3070 war inkl. Inflation zum Start etwas teurer.
 
Zuletzt bearbeitet:
Du wirst mit deinen alten Karten keinen Blumentopf mehr gewinnen.
Das einzige was da "liefert" ist, dass sie einfach nichts mehr wert sind und dementsprechend auch nichts mehr leisten.
 
Das Problem sind auch nicht die 500€ für eine 4070S (meine 1070 war teurer...) an sich - das Problem ist eher der gestiegen Leistungsbedarf und der Preisabstand zwischen einer 4070 und 4080/4090.

Mal davon abgesehen, dass die 4070 für mich eher eine 4060 ist womit der Preis leider zu hoch ausfällt.
Ab der 4070Ti S ist das Preisgefüge für mich noch weitgehend OK, nur eben insgesamt zu hoch.
 
@Quidproquo77 Verstehe ich nicht... Wenn ich meine RX580 wieder einbauen würde, könnte ich jedes meiner Spiele spielen, viele mit reduzierten Details, aber keines unspielbar. Sind gut investierte 150€ gewesen so gesehen. Inwiefern sind da 500€ für eine 4070 günstig, wenn ich die alte Karte bis zum Umfallen laufen lassen kann?
 
  • Gefällt mir
Reaktionen: marakuhja
ich hab den Kauf meiner 4060 bisher noch nicht bereut. sicher wären grade bei Raytraycing und Textur-lastigen Games 12 oder 16gb besser gewesen aber bisher läuft alles auf hohen Einstellungen sehr flüssig und Frame Generation hilft natürlich auch wenn es verfügbar ist.

der Schritt von der 1060 6gb auf die 4060 war auf jeden Fall nötig und hat sich fürs erste bezahlt gemacht.
 
Robo32 schrieb:
Mal davon abgesehen, dass die 4070 für mich eher eine 4060 ist womit der Preis leider zu hoch ausfällt.
Die 4070S hat einen 294mm2 Chip und die 1070 einen 314mm2 Chip.

So ein großer Unterschied ist das jetzt nicht.
 
Boimler schrieb:
Sind gut investierte 150€ gewesen so gesehen. Inwiefern sind da 500€ für eine 4070 günstig,
Es fehlen halt einfach die Karten der Mittelklasse für 200 bis 300€. Bis vor paar Jahren musste ich nie mehr als 200€ ausgeben. Dafür gibt es jetzt nichts, was mich bei der aktuellen 3060 ti (die schon deutlich teurer war) weiter bringt, denn die 4060 ti ist nur geringfügig schneller und die 4070 deutlich teurer. Da liegt doch das Problem. Unter 500€ bekommt man nichts, was schneller ist als eine GPU vor 4 Jahren.
 
Die relation gegenüber der UVP zwischen 1060 und 2060 wird dann auch wieder deutlich. Damals dachte ich WOW wieso kostet die Generation denn so viel mehr, heute wird deutlich dass der Leitungszuwachs den Preisanstieg zumidnest etwas gerechtfertigt hat. Danke für den tollen Test !
 
marakuhja schrieb:
Es fehlen halt einfach die Karten der Mittelklasse für 200 bis 300€. Bis vor paar Jahren musste ich nie mehr als 200€ ausgeben. Dafür gibt es jetzt nichts, was mich bei der aktuellen 3060 ti
auch damals hat es dich nicht wirklich weiter gebracht in der selben klasse ein upgrade in der nächsten Gen durchzuführen. Es gibt zwar immer mal eine Ausnahme im highend bereich.
 
Die RTX 3060 bleibt aufgrund ihrer 12GB VRAM die aktuell zukunftssicherste 60er Karte von Nvidia. Auch wenn diese Speicherbestückung zu seiner Zeit alles andere als gewollt war.
Die RTX 4060 hat mit "nur" 8GB durchaus ihre Daseinsberechtigung, sofern man eher Indy-Titel und ältere AAA-Spiele bevorzugt.
 
  • Gefällt mir
Reaktionen: vti
Zurück
Oben