Was ist los bei der Grafikkarten-Entwicklung?

der_and

Newbie
Registriert
März 2015
Beiträge
4
Hey Leute,

ich bin kein Fachmann und ich weiß auch nicht, ob das hier das richtige Forum ist.
Ich weiß auch nicht, ob das Thema überhaupt Sinn macht bzw. wurde es wahrscheinlich schon x-mal diskutiert.

Ich bin nur gerade etwas verwundert, den ich habe gerade die Rechnung meiner aktuellen Grafikkarte in die Finger bekommen.

Dabei handelt es sich um eine Sapphire Radeon HD 6850 mit 1 GB Ram.
Gekauft habe ich die Karte für 128 € Anfang Juni 2011.
Das ist also tatsächlich schon ca. 4 Jahre her.

Wenn man heute in diesem Preisbereich schaut, ist das beste was man kriegen kann vermutlich eine GeForce GTX 750 mit 2 GB.

Zieht man nun eine dieser theoretischen Vergleichsseiten zu Rate ist die GeForce gerade mal 23% leistungsstärker. Da lohnt sich ja ein Kauf hinten und vorne nicht.
(z. B: hier).

Gut, die Leistungsaufnahme hat sich verbessert, aber dennoch find ich das ziemlich mau für 4 Jahre. Ich kann mich noch an die Zeiten von "früher" erinnern, als nach vier Jahren tatsächlich immense Unterschiede in der Leistung vorzufinden waren.
Auch bin ich bislang davon ausgeangen, dass das Mooresche Law auf den Grafikkarten Bereich zumindest ein paar geringe Auswirkungen hat...aber 23 % in vier Jahren....neeee.... ;)

Liegt das daran, dass immer weniger Gaming-PCs benötigt werden, weil alle nur noch Smartphones und Konsolen benutzen?

Oder sind die 23 % eine Milchmädchenrechnung?
 
Das Problem ist eher dass das allgemeine Preisniveau bei den Grafikkarten angezogen hat und die 750 nicht wirklich die selbe Klasse wie deine 6850 ist. Du müsstest deine Karte eher mit einer GTX 960 oder R9 280 vergleichen.
 
Du solltest immer AMD mit AMD vergleichen und NV mit NV, wenns ums Preis/Leistungsverhältnis geht....
Nvidia-Karten sind bei gleicher Leistung nahezu immer teurer als AMD-Karten
 
die 6850 ist auch nur mittelklasse damals gewesen. die 69xx waren die high end karten,

zusätzlich waren die 58xx modelle des Vorgängers schneller als die 6850. Heute ist doch hier ein interessanter ARtikel zu GPU mittelklasse erschienen. die 6850 passt da zu dem fermi modellen von NV aus dem jahr 2010.

Leistungstechnisch hat sich da etwas getan, preislich auch... :D
Ergänzung ()

eine R9-270 oder r7-260x ist doch ein guter Vergleich zu deiner alten 6850.... kostet ähnlich viel
 
Dazu ist ja heute genau ein passender Artikel erschienen, der sehr schön aufzeigt wohin bei den letzten Generationen von zB Nvidia die Entwicklungsarbeit geflossen ist.
 
Genau wie Buttermilch es gesagt hat, um 130€ hat die R7 260x glatt mal 10% mehr Leistung als die NV GTX 750....
 
Zu einem ähnlichen Thema hat CB heute auch ein Test veröffentlicht. 5 Jahre Mittelklasse-Grafikkarten stehen im Vergleich, allerdings nur von Nvidia.
 
Buttermilch schrieb:
die 6850 ist auch nur mittelklasse damals gewesen. die 69xx waren die high end karten,

zusätzlich waren die 58xx modelle des Vorgängers schneller als die 6850.

Das liegt an einer Änderung im Namensschema. Die 5870 war die größte Karte der Serie (die Dualkarten mal ausgenommen) und damit war die 6970 der direkte Nachfolger. Die 6850 war eher der Nachfolger der 5770. Ab da ist das Schema aber konsistent: 6850 -> 7850 -> R9 280.
 
black90 schrieb:
alle neuen technischen Features und top Support
Sie haben z.B. allen 970er Käufern als Gratisbeigabe 512 MB nutzbaren Speicher ausgebaut und wollten das im nachhinein noch als Funktion verkaufen.
 
black90 schrieb:
Nvidia sind nicht teurer. Wenn du die 50-100 Watt mehr der AMD Karten auf 1 Jahr zocken aufrechnest, hast du deine Preisdifferenz ruckzuck wieder raus. Außerdem hast damit alle neuen technischen Features und top Support, sowie ein leises System.

AMD Karten sind nur etwas für die, die sich von reinen FPS Zahlen leiten lassen.
sind deine restlichen 839 posts auch so schwachsinnig?
 
nachgerechnet bei 3 Stunden am Tag, JEDEN Tag ergibt es 15 Euro/Jahr,

Das ist schlicht das beste Kaufargument, das ich JE gehört hab.

Danke Suxxess, das lag mir auch schon auf der Zunge :D

Edit: Mich wunderts, dass noch keiner gegen die AMD-Treiber geflamt hat Oo
 
Zuletzt bearbeitet:
black90 schrieb:
Das Problem ist der Euro zum Dollar Kurs.
Wir sind fast bei 1:1 !!

Aber nicht nur. Die Preise haben zu damals deutlich angezogen.

black90 schrieb:
Nvidia sind nicht teurer. Wenn du die 50-100 Watt mehr der AMD Karten auf 1 Jahr zocken aufrechnest, hast du deine Preisdifferenz ruckzuck wieder raus.

Sorry, aber das Märchen kannste stecken lassen. Bis du die Kohle mit der Stromersparnis wieder drin hast, hast die Grafikkarte im Regelfall schon nicht mehr.
 
black90 schrieb:
Das Problem ist der Euro zum Dollar Kurs.
Wir sind fast bei 1:1 !!

Nvidia sind nicht teurer. Wenn du die 50-100 Watt mehr der AMD Karten auf 1 Jahr zocken aufrechnest, hast du deine Preisdifferenz ruckzuck wieder raus. Außerdem hast damit alle neuen technischen Features und top Support, sowie ein leises System.

AMD Karten sind nur etwas für die, die sich von reinen FPS Zahlen leiten lassen.

Was ist denn das nun wieder für ein Blödsinn?
Pauschal mal behaupten AMD Karten brauchen 50 bis 100 Watt mehr, das ist ja mal völliger Quatsch.
Vergleiche mal eine r9 270x mit einer GTX 960.

Bei nahezu gleicher Performance sind die GTX 960 Karten nur unwesentlich sparsamer...
AMD Karten sind nicht nur da um reine FPS zu liefern, sonder die haben auch ganz interessante Features wie zum Beispiel VSR oder Freesync...
Und natürlich ist Nvidia teurer. Eine r9 290 liegt bei 265 Euro, eine GTX 970 geht ab 320 Euro an. Leistungsmäßig nehmen sich die Karten nichts und den Stromverbrauch kannste da auch nicht hereinsparen.
 
black90 schrieb:
Nvidia sind nicht teurer. Wenn du die 50-100 Watt mehr der AMD Karten auf 1 Jahr zocken aufrechnest, hast du deine Preisdifferenz ruckzuck wieder raus. Außerdem hast damit alle neuen technischen Features und top Support, sowie ein leises System.
Mathematik ist nicht deine Stärke oder?
nehmen wir an 100W und du spielst pro tag 5h -> 0,5 kwh Mehrverbrauch pro tag (die Graka ist dann IMMER unter Vollast)
dann rechnen wir 300 Tage, sind das 150kwh bei 0,3 € sind das 45€ pro Jahr
Aber 100 W Mehrverbrauch ist ein Blödsinn (wenn du die gleiche Generation nimmst) eher so im Bereich von 20W bis 50 W

Das heißt der Strommehrverbrauch ist eher im Bereich von 10 € im Jahr!

Leise Systeme gibts auch von AMD und neue technische Features auch nur weil NVIDIA erst vor kurzem ihre Modelle aktualisiert hat. Das wird in ~2Monaten wieder anders sein und dann wird NV updaten und dann wieder AMD....
 
der_and schrieb:
Liegt das daran, dass immer weniger Gaming-PCs benötigt werden, weil alle nur noch Smartphones und Konsolen benutzen?

Das Problem sind vor allem die Konsolen. So gut wie niemand entwickelt mehr alleine für PCs und selbst die neuste Konsolengeneration ist leistungstechnisch einem 2-3 Jahre alten PC unterlegen.

Anders sieht es allerdings wenn du mit einer 4K Auflösung spielen möchtest. Da kommst du mit einer älteren Grafikkarte nicht weit.

Allerdings sind die Konsolen nicht alleine an der Misere Schuld. Man kann auch nicht beliebig weiter die Strukturgrössen senken und immer komplexere und schnellere Chips bauen. Bei den Prozessoren ist die Entwicklung ähnlich. Hier hat sich seit Jahren auch kaum noch was getan und mit jeder neuen Generation gibt's vielleicht 10-15% mehr Leistung.
 
Zuletzt bearbeitet:
Wie bekommen wit denn dieses Strom bla bla bla aus euren Köpfen raus. Wer bitte spielt in der Woche 15-20 Stunden am PC unter Vollast? Schüler? Studenten? Arbeitslose? sozial Schmarotzer. 10€ Jahr ist sowas von egal.

Selbst die tester bringen dieses scheinargument. Wo hat z.b
Die aktuellen 970 OC von Gigabyte ein tdp von 145w ... Wenn man sie mit einer stock 290x Vergleicht... Reale Verbräuche entscheiden. Also bei 2 Schirm betrieb, ausgeschaltetem monitor ala zero Tore oder wiedergab von Videos. Aber dieses uiuiuiu die braucht x Watt mehr ist einfach nicht zu Ende gedacht. Wieviele Jahre soll man denn eine Grafikkarte in Zukunft nutzen um den Aufpreis wieder über die Stromrechnung zu amortisieren.
 
Könnt glauben was ihr wollt, hatte / habe beide Systeme hier gehabt.
Mal abgesehen von den Treiber Problemen seitens AMD abseits der 0815 games.
Ständig ist irgendwas am flackern, Texturen falsch oder sonst was. Dann Beta Treiber durchtesten, Fixes suchen usw.

Mit Nvidia habe ich das in ~10 Jahren nie gesehen. Früher bei den ersten Karten ja, aber danach nicht mehr.
Darum ist das AMD System nun auch weg, in der Zeit wo ich pfuschen muss verdiene ich 3 PCs.

Bin aber auch kein Casual User, d.h. auch Linux. Da taugt AMD absolut nichts, man könnte meinen die fangen grade erst an Treiber dafür zu entwickeln.
 
Zuletzt bearbeitet:
Zurück
Oben