News Angeblich nur Hawaii-Karten mit neuer Architektur

Kenneth Coldy schrieb:
Ich vermisse diese Zeiten nicht. Ich war nämlich nie besonders sportlich und habe im 100m Lauf versagt. Bis ich meine Karte nach Hause getragen hatte war sie schon nahezu wertlos - und ich musste nahezu sofort wieder zum Händler spurten weil Spiel x erst mit der Nachfolgekarte überhaupt einigermaßen spielbar war. Von vollen Quality Settings mal ganz zu schweigen.

Wenn die Alternative dazu ist, dass erst gar keine Spiele mit wesentlich besserer Grafik mehr erscheinen, dann nehme ich mit Kusshand die alten Zustände wieder zurück.

Ich kann einfach nicht nachvollziehen, was an Stagnation gut sein soll. Wer vor 5, 10 oder 20 Jahren Stillstand haben wollte, konnte den auch haben. Einfach keine neuen Grafikkarten und Spiele mehr kaufen bzw. die neuen Spiele mit entsprechend runtergeschraubten Details spielen.
Aber gleichzeitig hatten die, die lieber Fortschritt sehen wollten, die Möglichkeit, sich immer wieder mit wesentlich besserer Leistung (für den selben oder niedrigeren Preis) einzudecken, die von neuen Spielen auch ausgenutzt wurde.
 
Zuletzt bearbeitet:
ich tippe auf 2560 Shader @ 420mm² DIE @ 5.1 M Transistoren bei ~ 1050-1200 Chiptakt basierend auf vollgenden Leaks:

http://wccftech.com/amd-radeon-hd-8...-xtpro-sea-islands-gpu-specifications-leaked/

http://www.overclockers.at/printabl...-und-hd-8950-erste-geruechte_231738?perpage=6

Ich denke man dürfte bei Hawaii den Chip sehen, der schon Q4 2012 hätte kommen sollen / können bzw spätestens mit der GTX780.

Eventuell das Topmodell nun mit 6Gb GDDR5 + mehr Takt um die TITAN /GTX 780 non OC zu packen.
 
Krautmaster schrieb:
naja ;)
(...) Heute bremsen AMD und Nvidia in so fern aus, dass schlicht der große Chip so lange zurückgehalten wird, is etwa "Halbzeit" bei jeweiligen Fertigung ist. So kann man noch nachlegen, Kaufanreize schaffen.

Heute bremst sie noch was ganz anderes aus, nämlich der Verbrauch. Zwischen AMD und NVidia besteht ja so eine Art Gentlemen's Agreement, dass die schnellsten Single-GPU-Karten maximal ca. 250 W verbrauchen. Wahrscheinlich auch, um nicht als absolute Umweltsau dazustehen ;)

Und ich denke auch nicht, dass die Entwicklung bei den Spielen absichtlich langsam macht weil die entsprechende Hardware nicht gegeben ist, sondern einfach weil weitere Verbesserungen der Optik immer mehr Geld und Zeit kosten, und natürlich weil auch einfach viele Spiele Cross-Plattform erscheinen und sich dann halt eher den Konsolen orientieren. Da werden wir im Winter wahrscheinlich einen großen Sprung sehen und dann gibt's wieder Stagnation. Den Grafikkartenherstellern wäre es sicher auch lieber, wenn jedes Jahr Hardware-Fresser wie damals Crysis1 rauskommen würden, die man dann entweder auf aktuellen Karten nur noch auf ultra-kümmel-Low spielen kann oder für die man halt dick aufrüsten muss.
 
Na ja nVidia und AMD bremsen aus einem Grund:

Keine Spiele die mehr Leistung benötigen.

Klar es gibt ausnahmen für Leute die mit 2560x1440/1600 oder mit 400 Millionen Mods spielen aber wie gesagt, dass ist die Ausnahme. Ich mein ich seh es ja an meiner 660 Ti die ist für 1920x1200 vollkommen ok für High bis Ultra settings, je nach Spiel habe ich zwischen 30 und 60 (Vsync) FPS. Also langt für 95% der Gamer die Leistung einer 680/780 bzw. Titan.

Genau aus diesem Grund sagt sich auch AMD und nVidia warum was neues raus bringen wenn die Leistung eh noch langt.
 
CD schrieb:
Wahrscheinlich auch, um nicht als absolute Umweltsau dazustehen ;)

Das wäre dann aber schon ziemlich irrational. Sachlich gesehen sind selbst High-End-PC-Komponenten völlig irrelevant gegenüber den wirklich großen Energieverbrauchern im Haushalt (90% geht allein an Heizung und Warmwasser). Oder nehmen wir des Deutschen liebstens Kind: Ein einziges PS mehr oder weniger im Auto sind mal eben mehr, als ein kompletter Enthusiasten-PC mit Multi-GPU verbraucht.
Außerdem kostet die Herstellung der PC-Komponenten in der Regel wesentlich mehr Energie, als sie in ihrem Leben jemals als Verbrauch zusammenbekommen.

Aber die Wahrnehmung ist bei vielen Kunden offenbar ganz anders. Wohl hauptsächlich, weil bei CPUs und GPUs die Watt-Zahl (aus ganz anderen, rationalen Gründen) im Datenblatt steht und von Reviews auch prominent gestet wird (ebenfalls, weil das z.B. auf die Kühlung einen relevanten Einfluss hat).
Aber wie viel Energie z.B. ein schickes Lian-Li-Gehäuse aus 10 Kilo Alu gegenüber einem billigen Plastikbomber schon in der Herstellung verbraten hat, bekommt man nur heraus, wenn man eine halbe wissenschaftliche Studienarbeit hinlegt. Dementsprechend hält sich auch die Empörung in den Foren in Grenzen. ;)

Mir wäre es jedenfalls völlig egal, ob eine High-End-Hawaii-Karte unter Volllast 200W oder 300W verbraucht, solange es gute Kühler gibt, die das in den Griff bekommen und der Idle-Verbrauch schön niedrig ist. Tatsächlich wäre eine Karte, die sich beim Volllastverbrauch nicht unnötig selbst beschränkt viel lieber.
 
Krautmaster schrieb:
Wäre dieses mal Nvidia in dieser Situation gewesen, hätte man wohl ebenso mit Brechstange den GK110 früher gebracht, vermutlich sogar bevor er als Tesla gekommen wäre. Keiner kann sagen wann der GK110 hätte frühest möglich als GTX 680 kommen können, ich denke dass die heutige TITAN Karte schon fast 1 Jahr früher hätte in manchem Rechner werkeln können.
Dem Namensshema nach hätte der Chip zwar GK110 heißen müssen, aber namen sind Schall und Rauch. Ob es einen verworfenen GK100 gibt, oder ob dieser einfach zu Gk110 relabeled wurde...
Anfang 2012 wurde ich massivest beschipft, weil ich GK110 für Ende 2012 statt 2Q auch nur für Möglich hielt, heute wird man von Märchenerzählern beschäfftig, dass Nvidia Titan ja eh locker flockig Ende 2012 oder 3Q 2012 hätte rausbringen können.

Aber gut, wenn man auf dieser Falschen Grundlage spekuliert, dann ist die Spekulations-Treffsicherheit umsogeringer.
Ergänzung ()

CD schrieb:
Heute bremst sie noch was ganz anderes aus, nämlich der Verbrauch. Zwischen AMD und NVidia besteht ja so eine Art Gentlemen's Agreement, dass die schnellsten Single-GPU-Karten maximal ca. 250 W verbrauchen. Wahrscheinlich auch, um nicht als absolute Umweltsau dazustehen ;)

Da gibts kein Art Gentlemen's Agreement.
Denn bis 300W-TDP ist es nunmal genormt und mit 250W-Spiele-last sind sie ja schon sehr nahe bei 300W-TDP, wenn man quasi alle Lastsituationen berücksichtigen muss. Das hat was mit Physik zu tun, welches dann über die Ausfallwahrscheinlichkeit & Image einer Firma & Wirtschaftlichkeit & Nutzbarkeit einer Karte (Lärm) usw usw bestimmt, desto näher man an diese Grenze geht.
 
Es stimmt aber trotzdem, dass heutige High-End-Karten längst nicht mehr so nah an die Grenzen der PCIe-Spec (und das, was gute Luft-Kühler noch halbwegs leise bewältigen können) gehen, als noch vor ein paar Jahren.
 
Herdware schrieb:
Das wäre dann aber schon ziemlich irrational. Sachlich gesehen sind selbst High-End-PC-Komponenten völlig irrelevant gegenüber den wirklich großen Energieverbrauchern im Haushalt (90% geht allein an Heizung und Warmwasser). (...)

Von mir hörst du auch garkeinen Widerspruch. Und wer sparsame Komponenten verbauen und trotzdem viel Leistung haben will bekommt dies ja auch. Aber im Allgemeinen probieren die Konzerne ja mit den Eigenschaften ihrer Ultra-High-End-Produkte Werbung zu machen für alles was dann tatsächlich auch in großen Mengen gekauft wird - egal ob ne 760 jetzt überhaupt in irgendeiner Weise was mit ner Titan/780 zu tun hat oder nicht. Genauso werden dann aber auch die ganzen negativen Eigenschaften übertragen, sprich wenn das Aushängeschild einem stromhungrigen Staubsauger gleichkommt, dann ist in den Köpfen der meisten auf einmal verankert, dass alle Karten aus dem Sortiment so sind, nicht nur diese eine spezielle Karte.

Fürs Geld verdienen könnten sich sowohl AMD als auch NVidia die ganzen Karten um und oberhalb 500 € sicher sparen. Inklusve Entwicklung, Support und Vertrieb kommen sie da wahrscheinlich grademal so in der Nähe einer schwarzen Null raus, aber auf jeden Fall wenig gegenüber dem was man im Midrange-Segment so abgreift mit der ganzen x-fachen Resteverwertung. Bei den High-End-Modellen gehts nur noch um Prestige, und dazu zählt heutzutage halt auch, dass die Karten vom Verbrauch her nicht dem Äquivalent eines 1 mOhm Widerstands zwischen 12 V und Masse entsprechen sollten weil es die Konkurrenz ggf. besser kann.

Generell finde ich es schon gut, dass selbst bei High-End-Komponenten inzw. viel stärker auf den Verbrauch geachtet wird, bzw. man überlässt es dem Kunden die Balance aus Leistung und Verbrauch(+Lautstärke) einzustellen. Zumindest bei GK110 merkt man auch wie viel Potential da einfach brach liegt. Ich denke mal auf 1000 bis 1100 Mhz werden die meisten Chips problemlos gehen, manche sogar komplett ohne Spannungserhöhung. Ob und wann man diese zusätzliche Leistung dann braucht kann jeder selbst entscheiden. Bei AMD ist es ähnlich - mit ein bisschen tweaken konnte man auch aus einer stinknormalen Release-7970 ne GHz-Edition machen, und bei der 9970 wird es wahrscheinlich wieder ähnlich sein, die Chips werden auch noch Luft nach oben haben wenn man bereit ist selbst ein bisschen Hand anzulegen.
 
Herdware schrieb:
Es stimmt aber trotzdem, dass heutige High-End-Karten längst nicht mehr so nah an die Grenzen der PCIe-Spec (und das, was gute Luft-Kühler noch halbwegs leise bewältigen können) gehen, als noch vor ein paar Jahren.
Habe ich auch nicht verneint.
Aber weil sie nicht mehr so an den Grenzen gehen, könnten sie eben daraus gelernt haben und wieder einen Schritt zurück machten.
Und bevor sie wieder die nächsten Schritte näher zu 300W-TDP machen, müssen sie halt die Physik (Watt-Abfuhr in Bezug zur Sicherheit & Langzeitstabiltät & Lärm & Kosten) besser in Griff bekommen.

Mit Turbo-Boost & Co ist ja auch in diesen Bezug in den letzten Jahren viel passiert.
 
Wenn man wie ich im Verlauf von 2 Jahren den Stromverbrauch im Haushalt halbiert ohne irgend etwas zu vermissen, dann mache ich beim Rechner doch keine Ausnahme. Zumal wenn 2 Stück davon jeden Tag viele Stunden laufen.

Bei den Grafikkarten ist das nur noch reine Abzocke. Mal jedes Jahr 5% mehr Leistung als die Konkurrenz bei natürlich etwas teurem Preis und das war es auch schon. Selbst wenn 30% mehr Leistung möglich wären, baut man das nicht, weil wer würde dann im nächsten Jahr noch updaten?
Als Kunde kann man diesem treiben nur entgehen, indem man einfach mal wieder seine Hardware länger nutzt und nicht bei jedem neu angekündigten Spiel in den Laden rennt damit man Hardwaremäßig vorbereitet ist.
Habe ja letzte Woche erst die GTX770 gekauft und die bleibt genauso wie mein 3770K mindestens 3-4 Jahre im Rechner. Egal was da an Games raus kommt und egal ob ich irgendwann mit den Details runter muss.
Ihr könnt euch sicher sein, dass alle Spiele auch immer mit einer Midrange Karte wunderbar spielbar sind, weil die wollen ja auch Ihre Spiele verkaufen.
 
Herdware schrieb:
Wenn die Alternative dazu ist, dass erst gar keine Spiele mit wesentlich besserer Grafik mehr erscheinen

Es ging bisher nicht um Spiele die keine höheren Anforderungen stellen sondern um Grafikkarten die nur unwesentliche Leistungssteigerungen zeigen. Warum versuchst Du hier das Thema zu wechseln?
 
CD schrieb:
Heute bremst sie noch was ganz anderes aus, nämlich der Verbrauch. Zwischen AMD und NVidia besteht ja so eine Art Gentlemen's Agreement, dass die schnellsten Single-GPU-Karten maximal ca. 250 W verbrauchen. Wahrscheinlich auch, um nicht als absolute Umweltsau dazustehen ;)

Naja, es gab schon extremere SingleGPU Karten und wieso sollte man Single GPU bei 250W dichtmachen während man OC Karten und Duale bis 400W raushaut ^^

Und ich denke auch nicht, dass die Entwicklung bei den Spielen absichtlich langsam macht weil die entsprechende Hardware nicht gegeben ist, sondern einfach weil weitere Verbesserungen der Optik immer mehr Geld und Zeit kosten,...

genau das mein ich, nicht weil die Hardware fehlt... schon so rum wie du es gerade niedergeschrieben hast. Hinter grafisch aufwendigen Games steht wahnsinnig viel Arbeit, weit mehr wie hinter sich ähnlich gut verkaufenden Minigames die zb richtig viel Geld abwerfen.
Jedes Quäntchen mehr Grafik wird meist teuer in Arbeit erkauft. Dazu Konsolen die langsamer sind als so ziemlich jede Desktop GPU.

Da sich die GPUs meist langweilen ist entsprechend nicht der Bedarf da wie seinerzeit zu Crysis 1...
Ergänzung ()

Kenneth Coldy schrieb:
Es ging bisher nicht um Spiele die keine höheren Anforderungen stellen sondern um Grafikkarten die nur unwesentliche Leistungssteigerungen zeigen. Warum versuchst Du hier das Thema zu wechseln?

vermutlich weil ich in den Raum stellte, dass es genau andersrum läuft. Heutige Spiele -> lasten kaum heutige GPUs auf, meist Konsolen Ports oÄ -> kleinere Chips mit High End Preisen werfen mehr Geld ab -> Beide, sowohl AMD und Nvidia haben mehr Flexibilität, beide haben nichts von einem erbitterten Preiskampf, beide profitieren von hohen Preisen und beide, dominieren zusammen den ganzen High End GPU Markt.

Es wäre ein leichtes eine gemeinsame Strategie auszuhecken... und beide würden davon profitieren. Nicht umsonst wären das illegale Preisabsprachen die so erstmal verboten sind - aber schwer sowas nachzuweisen.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Heutige Spiele -> lasten kaum heutige GPUs auf, meist Konsolen Ports oÄ -> kleinere Chips mit High End Preisen werfen mehr Geld ab -> Beide, sowohl AMD und Nvidia haben mehr Flexibilität, beide haben nichts von einem erbitterten Preiskampf, beide profitieren von hohen Preisen und beide, dominieren zusammen den ganzen High End GPU Markt.

Kann man so sehen. Oder....
Heutige Spiele -> lasten kaum heutige GPUs auf, meist Konsolen Ports oÄ -> Verbraucher haben keinen Grund sich neue Karten zu holen -> beide, sowohl AMD und Nvidia haben keine wesentliche Differentierungsmöglichkeit mehr außer dem Preis -> die Margen im Volumenmarkt schrumpfen -> es bleibt weniger Geld für Neuentwicklungen -> Produktzyklen müssen verlängert werden
 
Also ich kann leider nicht wirklich beobachten, dass die Grafikkarten-Preise gesunken wären. Das wäre ja noch ein gewisser positiver Aspekt der technischen Stagnation, aber die Preise sind heute eher höher, als in Zeiten, in denen die Leistungssteigerungen noch viel größer waren. Eben weil man das ehemalige High-End bzw. eine entsprechende Leistung schon ein paar Monate später als günstige Mittelklasse kaufen konnte.

Dass nicht nur die verfügbare GPU-Leistung, sondern auch der Aufwand bei der Entwicklung von grafisch aufwändigen Spielen immer höher wird stimmt natürlich.

Ich schreibe ja gerne davon, dass das optimale grafische Spielerlebnis erst erreicht ist, wenn wir das Niveau des Holodecks aus Star Trek oder der virtuellen Welt von Matrix erreicht hätten. So eine nahezu perfekte virtuelle Umgebung "von Hand" zu erstellen, wäre ein praktisch unmöglicher Aufwand.
Aber ich bin sicher, dass sich dafür Lösungen finden werden. Entwicklungssysteme, die anhand von vorgegebenen Parametern fast vollautomatisch ganze Welten inklusive pseudointelligenten "Statisten"/NPCs kreieren und sich die menschlichen Spielentwickler auf die eigentlichen Spielelemente und das "Feintuning" der Welt konzentrieren können. An sowas wird garantiert schon gearbeitet. Für Spezialeffekte in Filmen wird sowas schon lange genutzt (z.B. bei den Massenschlachten in Herr der Ringe mit einem Tool namens Massiv) und in ganz primitiver Form findet es sich auch schon in Spielen wie Minecraft oder Cube World. (Da aber eben noch mit ausgesprochen simpler Grafik.)

Ich sehe also eigentlich keine unüberwindbare Wand, vor die die grafische Qualität von Computerspielen laufen muss (und die wir gar heute schon erreicht haben). Es ist nur irgendwie der Schwung verloren gegangen und wenn die Stagnation erstmal da ist, ist es wohl sehr schwierig das Ganze wieder in Gang zu bringen, weil der genannte Teufelskreis entsteht:
Weniger neue grafisch aufwändige Spiele => weniger Bedarf an leistungsstärkeren Grafikkarten => weniger leistungsstarke Grafikkarten in den Computern der potentiellen Kunden => weniger neue grafisch aufwändige Spiele ...
 
Herdware schrieb:
Also ich kann leider nicht wirklich beobachten, dass die Grafikkarten-Preise gesunken wären.

Na dann schau dir mal alte Karten an und du wirst feststellen das sie in der tat günstiger werden. Klar den Einführpreis darf man nie beachten da kaum jemand direkt zu dem Preis kauft und wenn ist er selber schuld ;)

Aber wie gesagt schaut man sich alte Karten an die dazu noch mehr Strom gebraucht haben sind neue Karten (auch High-End) nicht nur günstiger sondern auch schneller und verbrauchen weniger. Vorallem der letzte Punkt ist in meinen Augen sehr wichtig da die Strompreise nur einen Weg kennen nach oben.
 
Ich hab weiter oben z.B. auch die 9800GTX verwiesen. Diese High-End-Karte startete damals mit offiziell 250€ und der Preis wurde schon als zu hoch empfunden, weil sie nicht viel schneller (wohl aber sparsamer) war, als die inzwischen noch billiger zu habenen direkten Vorgänger.

Heute bekommt man nicht mal fast 2 Jahre alte High-End-Modelle für das Geld und als sie gestartet sind, kosteten sie gar das Doppelte oder noch mehr.

Früher war es defintiv billger, sich mit High-End-Leistung einzudecken. Und sei es nur die von vor 6 Monaten, wenn das Geld nicht für die allerneuste Generation reichte. Wer heute z.B. nur 250€ investieren kann/will, bekommt dafür nur Karten, die schon vor fast 2 Jahren nur Mittelklasse waren.

Man sollte annehmen, dass Nvidia und AMD, wenn sie schon nichts technisch Neues bringen können, wenigstens mit den Preisen deutlich runter gehen, um neue Kunden zu gewinnen. Aber das passiert so gut wie gar nicht.
(Durch Nvidias Umbenennungs-Generation 700 bekommt man zwar jetzt in einigen Fällen etwas mehr Leistung fürs Geld, aber nach gut einem Jahr ist sowas auch einfach mal fällig gewesen.)

Und die entsprechend schrumpfenden Verkaufszahlen schiebt man auf die Tablets. :rolleyes:
 
Na ja da muss man ein wenig unterscheiden.

Aktuell ist es so das man einfach kein High-End für Spiele benötigt. Ja, es gibt Ausnahmen wenn Leute mit 8x AA und 16xAF auf einem 27" mit 2560x1440 spielen, aber das ist eben die Ausnahme der Regel. Ich kann z.B. mit meiner 660 Ti alles in 1920x1200 spielen Je nach spiel mit 8xAA oder 2xAA und 16xAF. Das liegt einfach daran weil es heute kaum noch richtige PC-Spiele gibt es sind zu 90% Konsolen Ports die eben keine High-Res Texturen haben womit man auch kein High-End benötigt.

Vor 2-4 Jahren sah das noch anderst aus. Da ist fast jedes halbe Jahr ein neues Spiel gekommen das noch mehr Leistung wollte. Zu der 9800 GTX na ja das war effektiv einfach nur eine 8800 GTS 512 MB die umgelabelt wurde und ein paar neue Sachen bekommen hat (Hybrid-Power z.B.) und die Taktraten wurden erhöht. Die 9800 GTX wurde später zur 9800 GTX+ und danach zur GTS 250. Also wie man sieht alles andere als High End ;) Deswegen auch nur ~250 €

Ich habe z.B. für meine EVGA 660 Ti 172 € gezahlt (mit Abzug meiner alten verkauften also real 272 €) und die Karte ist für alle Spiele vollkommen ok. Ich hatte bis jetzt fast nur High-End Karten und ich muss sagen man brauch sie nicht (wie gesagt siehe 1. Absatz, 2. Satz). Aktuell langt für fast jedne Zocker die Mittelklasse. Sobald die neuen Konsolen da sind sieht das wieder anders aus aber bis dahin vergeht ja noch ein wenig Zeit.

Schau dir doch mal die 8800 Ultra an. Die hatte damals auch um die $800-$1000 bzw. Euro gekostet genau wie eine Titan heute.

Dazu kommt wenn man wirklich High-End benötigt kauft man dies, egal welches Preisschild dran ist. Ich mein wenn man sich ein Rechner und Monitor für mehrere tausend Euro kauft und der Monitor 27" mit 2560x1440 hat kommt es auf die 300-400 € mehr für die Grafikkarte auch nicht mehr an. Zumal man ja noch andere Sachen damit machen kann Folding@Home, Bitcoin mining usw usw...

Ich bleibe nach wie vor dabei Computer Hardware ist seit Jahren billiger geworden. Ja High End war und ist teuer und das wird es auch immer bleiben weil die Chips 1. immer Schwerer werden zu Entwicklen (ohne 500 Watt verbrauch zu haben) und 2. die Fertigung auch immer schwerer wird. Aber für Mittelklasse bis Low-High-End muss man heute weniger zahlen als noch vor 10 oder 15 Jahren.
 
Verstehe immer noch noch nicht warum sich hier einige über lächerliche 250W aufregen...

Vielleicht macht mal jemand den Backofen an, ich hab Hunger! oder lieber doch nicht? Der verbraucht immerhin fast 4kw...

Das Spielchen kann man beliebig weitertreiben...
 
@john carmack

Mit dem Unterschied ein Backoffen brauchst du um was zu Kochen ergo zu leben/überleben. Eine Grafikkarte mit 250 Watt Verbrauch auf der anderen Seite brauchst du nicht und es ist ein Hobby. Ich bin z.B. von einer GTX 570 HD (225 Watt) auf eine 660 Ti umgestiegen und ich kann dir sagen ich habe 1. mehr FPS bzw. es ist alles flüssiger und 2. dank einem Verbrauch von max. 150 Watt eine ersparnis von 75 Watt die sich sehr sehr schnell auf der Stromrechnung auszahlt :)

Gehen wir mal von ~ 4 Stunden Spielen am Tag aus. So sind das pro Tag 300 Watt die ich spare. In der Woche schon 2,1 KW, im Monat 8,4 KW und im Jahr ganze 100,8 KW. Das sind im Jahr also ersparnise von rund 25 € was in meinem Fall schon ein halber Tank voll Diesel ist oder 15% meiner KFZ-Steuer.

Und glaub mir wenn du mal dein eigenen Strom bezahlen musst ist dir jede KW weniger sehr sehr lieb :) Und sind wir mal ehrlich Strom wird in Zukunft noch teurer und somit spart man sogar noch mehr dank einer kleinen Graka die aber genau so viel leisten kann wie eine alte aus der vorherigen Generation.
 
Cool Master schrieb:
@john carmack

Mit dem Unterschied ein Backoffen brauchst du um was zu Kochen ergo zu leben/überleben. Eine Grafikkarte mit 250 Watt Verbrauch auf der anderen Seite brauchst du nicht und es ist ein Hobby. Ich bin z.B. von einer GTX 570 HD (225 Watt) auf eine 660 Ti umgestiegen und ich kann dir sagen ich habe 1. mehr FPS bzw. es ist alles flüssiger und 2. dank einem Verbrauch von max. 150 Watt eine ersparnis von 75 Watt die sich sehr sehr schnell auf der Stromrechnung auszahlt :)

Gehen wir mal von ~ 4 Stunden Spielen am Tag aus. So sind das pro Tag 300 Watt die ich spare. In der Woche schon 2,1 KW, im Monat 8,4 KW und im Jahr ganze 100,8 KW. Das sind im Jahr also ersparnise von rund 25 € was in meinem Fall schon ein halber Tank voll Diesel ist oder 15% meiner KFZ-Steuer.

Und glaub mir wenn du mal dein eigenen Strom bezahlen musst ist dir jede KW weniger sehr sehr lieb :) Und sind wir mal ehrlich Strom wird in Zukunft noch teurer und somit spart man sogar noch mehr dank einer kleinen Graka die aber genau so viel leisten kann wie eine alte aus der vorherigen Generation.

4std. am Tag? verstehe, du gehst nicht arbeiten und hast auch keine Frau und so weiter... das ist natürlich was anderes

Du musst unglaublich viel Zeit haben... Ich beneide dich.


PS:
SummaSumarum brauchst du min. 6 Jahre um das Geld für deine Karte (die nicht mehr leistet!) wieder rein zu bekommen... OK :D

oh... ich sehe gerade das eine 660TI neu immer noch über 180€ kostet.

180:25= 7 und ein paar zerquetschte... also über 7 Jahre :D
 
Zuletzt bearbeitet:
Zurück
Oben