• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Ist man mit Mid-Range Hardware besser dran, auf lange Sicht?

Höhere Preise entstehen auch durch Wechselkursschwankungen. Dies erschwert den Vergleich über mehrere Generation hinweg zusätzlich, da Intel die Preise in Dollar kalkuliert.

http://www.pcgameshardware.de/CPU-Hardware-154106/News/Intel-CPU-Preisanstieg-Wechselkurs-1143496/

Um zu sagen, ob Computer teurer werden, müsstest du für jede CPU erst einmal die Rechenleistung pro Arbeitsaufwand berechnen. Und das ganze zu mehreren Zeiten und in mehreren Leistungsklassen.

Also zum Beispiel: Wie viele Stunden musstest du arbeiten, um dir 1 FLOPS an Rechenleistung in Klasse XY kaufen zu können.


Die wichtigste Frage beim PC kauf ist doch das Budget. Dieses ergibt sich doch aus einer Priorisierung - wie wichtig ist mir ein PC - und nach dem verfügbaren Einkommen. Schließlich muss man sich "High-End" leisten können und wollen.
 
Zuletzt bearbeitet von einem Moderator:
Alles klar. Dann rechnet ihr mal weiter so. Etwas lächerlich. Aber man kann sich Dinge eben auch schön rechnen. Nicht nur in der Welt der Computer. Gibt es für GPUs eigene Wechselkurse? Wie ich schon vorher schrieb. Gilt auch das bei den Wechselkursen. Warum ist dieser erhebliche Preisanstieg bei den GPUs / CPUs nicht bei anderen Hardwarekomponenten zu sehen?


@AbstaubBaer

glaubst Du Dein geschriebenes auch selber? Auch die Auflösungen sind höher geworden. Natürlich nicht bei jedem. Jeder kauft auch keine X80er GPU. Wenn man den Anstieg der Preise betrachten will, dann kann man einfach einer 580, 680, 780 und 980 preislich vergleichen. Ohne unseriös zu werden.
 
Zuletzt bearbeitet:
Aber nur, wenn Nvidia die Klassifizierung entsprechend passend wählt. Diese Klassifizierung ist so schwammig wie der Begriff "High-End". Und die Klassifizierung erfolgt nach Marketingpolitik, die alles andere als seriös sein kann und Vergleichbarkeit grundsätzlich nicht ermöglicht.

Beide Begriffen existieren nur relativ zum Marktumfeld. Das Problem ist eine passende Klassenbildung.
 
Zuletzt bearbeitet von einem Moderator:
BlubbsDE schrieb:
Warum ist dieser erhebliche Preisanstieg bei den GPUs / CPUs nicht bei anderen Hardwarekomponenten zu sehen?

weil nur bei den cpus und gpus entsprechend forschungsgelder verschlungen wurden. weil diese komponenten sich, im gegensatz zu etwa mainboards, soundkarten und netzteile, ungleich stärker entwickelt haben, technisch. weil die hardware-evolution eben nur bei gpus und cpus zu sehen ist, während die anderen hardwarebereiche stagnieren, quasi.

all das haben wir letztendlich den spielen zu verdanken. gäbe es hier kein wachstum, dann auch nicht bei gpus. und wahrscheinlich würden die cpus sich auch langsamer entwickeln.

mag ja sein, daß ich völlig falsch liege, dann lasse ich mich gerne korrigieren.
 
BlubbsDE schrieb:
[...]

@AbstaubBaer

glaubst Du Dein geschriebenes auch selber? Auch die Auflösungen sind höher geworden. Natürlich nicht bei jedem. Jeder kauft auch keine X80er GPU. Wenn man den Anstieg der Preise betrachten will, dann kann man einfach einer 580, 680, 780 und 980 preislich vergleichen. Ohne unseriös zu werden.

Korrekt. Und das kann ich auch mit Argumenten und ohne unnötig aggressiven Tonfall vertreten. Ich hatte doch geschrieben, dass die Summe, die man für eine Grafikkarte, die die jeweils gängige Auflösung in vollen etc.etc darstellen kann (zur gängige Auflösung siehe Steam Surveys), gleich geblieben ist. Natürlich erhöht sich die Auflösung über Zeit. Deshalb hat eine 200 Euro teure Karte vor zehn Jahren auch nur für eine geringere Auflösung ausgereicht. Ob Midrange-Karten teurer werden ist weniger relevant, wenn ich keine Midrange-Karte für ein solches Anforderunsgszenario mehr brauche. Bezogen auf das Thema ist das eine sinnvolle, weil differenziertere Perspektive als die Feststellung, dass alles teurer geworden ist.
 
Mit einer 960 schafft man FullHD in Max Out? Das müsste sie können. Mit Deiner Argumentationsart.

Man kann es differenzieren, wie man lustig ist. Die GPUs haben in den letzten 3 Generationen einen gewaltigen Preissprung erfahren. Und dafür gibt es keine rationellen Argumente. Auch nicht die des Entwicklungsaufwandes. Die 500er Generation wird in dem Bezug der 900er Serie nicht nachgestanden haben. Auch wenn ich da keine tieferen Kenntnisse habe.

Mir ist es schleierhaft, warum man hier als Kunde sich diesen Umstand noch schön redet.
 
Ich habe eben die letzten Benchmarks zu aktuelleren Spielen gewälzt, Fallout 4, Just Cause 3, Dirt: Rally. In keinem hat eine GeForce GTX 960 in FullHD unspielbare Bildwiederholraten produziert. Im Allgemeinen scheint die Karte also das zu leisten.

Die GPUs haben in den letzten 3 Generationen einen gewaltigen Preissprung erfahren. Und dafür gibt es keine rationellen Argumente.

Das kann man durchaus so stehen lassen. Dem widersprochen habe ich allerdings, auch nach erneuter Lektüre meiner Beiträge, nicht, sondern nur anmerken wollen, dass man nicht mehr unbedingt in der gleichen Leistungsklasse kaufen muss wie früher. Ob es dafür keine rationalen Argumente gibt, will ich nicht beurteilen.
 
Jetzt muss ich mich doch noch einmal einklinken.

@AbstaubBaer

Ich halte die Argumentation für ein bisschen Schönrechnerei.
Ein i5 3570k kostete zu seiner Einführung 175€ als offizielle Preisempfehlung. Der 2500k war für 180€ zu haben. Der 6600k kostet 250€. Das ist einfach eine Steigerung von ~80%.
In beiden Fällen handelt es sich um das Vierkernmodell mit freiem Multiplikator.
Nun zu argumentieren: "Ja, ist zwar teurer, aber du kannst statt dem i5 6600k auch einen i5 6500 nehmen. Der bietet dir auch in allen Spielen ausreichend Leistung." Verfehlt etwas das Thema. Denn man hätte auch zu ivy oder sandy bridge Zeiten einfach die nicht k-Variante/i5 2400er-Variante nehmen können. Diese war ebenfalls für die meisten Spiele ausreichend. Zudem wird man wohl kaum bestreiten können, dass immernoch ein höherer Takt merkliche Auswirkung in den meisten Spielen hat. Diese Zukunftssicherheit, nämlich Übertakten zu können, bietet eben nur das K-Modell.
Will beispielsweise jemand übertakten - und auch nur das Übertakten ist legitimer Teil unseres Hobbys - muss er heute deutlich mehr zahlen als früher. Und er erhält nicht diesselbe Leistung, weil ein 2500k früher eben näher dran war an der Spitze, als es heute ein 6400er ist.

Das gleiche gilt für die Mainboards. Das beste Asus Mainboard für den ersten Core Sockel, das Asus Maximus III Formula kostete 190€. Das Asus p7p55d Deluxe 175€. Beide hatten jeweils den besten State of the Art an Anschlüssen für den Mainstreamsockel verbaut.
Will man heute dieselbe Leistung haben, muss man für das Maximus VIII Formula 350€ ausgeben. Das Deluxe kostet 290€. Bedenken muss man, dass das Maximus VIII Formula nicht mehr die Speerspitze darstellt. Stattdessen kann man für das Extreme (Assembly) 450-600€ ausgeben. Also gab es definitiv eine Steigerung im High-End @ abulafia.
 
Zudem wird man wohl kaum bestreiten können, dass immernoch ein höherer Takt merkliche Auswirkung in den meisten Spielen hat. Diese Zukunftssicherheit, nämlich Übertakten zu können, bietet eben nur das K-Modell.

...würde ich HEUTE nicht mehr so sehen.
Aktuelle CPU-Generationen wie hier genannt bieten ausreichend Leistung mit der bereits vom Werk freigegebenen Frequenz. 3,5 Ghz bei einer CPU ab Sandy reicht eigentlich in den meisten Lebenslagen.
Das OC wird hier genommen, um den Leistungsverlust der Generationen auszugleichen - also OC von 20% auf einen Sandy um die Leistung von einem Skylake zu haben - meist funktioniert das.

Es funktioniert aber dann nicht, wenn Threads benötigt werden und nicht die Leistung! Schön zu sehen bei Watch Dogs!
Takt egal, aber ohne 8 Threads sieht man halt schlecht aus und hat ~20% weniger Leistung!
https://www.computerbase.de/2014-05/benchmarks-watch-dogs-amd-nvidia-vergleich/
nach unten scrollen.....

Ähnlich sieht es aus bei Fallout 4, Crysis 3 und noch ein paar anderen Games.

Mein Fazit wäre heute, nötig ist eine halbwegs aktuelle CPU mit mind. 8 Threads und einen Takt von ca. 3,5 GHz. OC ist zu nachrangig, aber schön wenn vorhanden!
 
meine frage: BRAUCHT man denn unbedingt die neueste graka, wenn kaum spiele diese wirklich ausreizen?
Braucht man ein Auto mit über 200PS im normalen Strassenverkehr? Braucht man einen Fernseher mit mehr als 60 Zoll Bildschirmdiagonale? Braucht man in einer Mietwohnung eine Musikanlage, die einen vierstelligen €-Betrag oder gar mehr kostet?

Nö.

Natürlich nicht. Aber wir reden hier doch über verschiedene Interessen und Hobbys. Man kann da natürlich rational herangehen. Aber zwingend? Wenn jemand Spaß an seinem Hobby hat und der Ansicht ist 400€ und aufwärts allein in eine Grafikkarte zu investieren zu wollen, so spielt doch die rationale Überlegung nach der Sinnhaftigkeit von Mid-Range Hardware keine Rolle?
stichwort ultra einstellungen: MUSS man auf ultra spielen?
Auch hier wieder: Nein. Natürlich nicht. Aber die Frage greift auch einfach zu kurz. Häufig genug ist der Unterschied bei vielen grafischen Einstellungen nur auf Screenshots deutlich. Beim Spielen selber muss man teilweise dann schon sehr, sehr genau hinsehen. Oftmals empfinde ich viele grafische Einstellungen sogar als Verschlimmbesserung, gerade bei etlichen Post-Processing-Filtern. Von dem nervigen Geblurre mal ganz zu schweigen.

Also deaktiviere ich etliche grafische "Gimmicks". Da bräuchte ich doch augenscheinlich keine fette Grafikkarte.

Nun ist es aber so: Auch wenn immer wieder hartnäckig behauptet wird, es gäbe keinen grafischen Fortschritt in Spielen, der möge mal den Detailgrad aktueller Spiele mit denen von vor 5-6 Jahren vergleichen. Damit meine ich nicht die Auflösung von Texturen, auf denen oft herumgeritten wird. Ich meine damit die gleichzeitige Darstellung von Objekten.
Heute kann in Spielen z.B. ein Wald aussehen wie ein Wald und nicht wie eine Ansammlung von Bäumen ohne Blätter, die hunderte von Metern auseinanderstehen.
Die unschöne Nebenerscheinung: Die Spiele flimmern und flackern. Das hat mich früher nie gestört. Klar, denn früher gab es auch nicht so viel darzustellen, was hätte flimmern und flackern können.

Nun kann man ja mit verschiedenen Mitteln das Geflimmer und Geflacker bekämpfen. Stichwort Downsampling und Antialiasing in den verschiedensten Formen. Das Problem dabei: Soll es effektiv sein, dann wird es für die Mid-Range Karten eng.

Die Frage lautet also aus meiner Sicht also nicht, ob Mid-Range Hardware nicht doch ausreichend wäre, sondern vielmehr, welche Abstriche man bereits ist in Kauf zu nehmen.
 
Tohdgenahgt schrieb:
Jetzt muss ich mich doch noch einmal einklinken.

@AbstaubBaer

Ich halte die Argumentation für ein bisschen Schönrechnerei.
Ein i5 3570k kostete zu seiner Einführung 175€ als offizielle Preisempfehlung. Der 2500k war für 180€ zu haben. Der 6600k kostet 250€. Das ist einfach eine Steigerung von ~80%.

Relevant, weil isso:

6SHNWtg.png


Insgesamt muss ich jedoch schon zugestehen, dass die aktuellen High-End Grafikkarten Modelle und Prozessoren der letzten knapp 3 Jahren, insbesondere in Spielen nicht mehr den Mehrwert mit sich gebracht hat, den man von den Jahren zuvor gewohnt war. Sei es jetzt weil weniger neuer Must-Have Feature-Schnickschnack in den neuen Modellen integriert war, oder einfach weil die Entwicklung Software-Seitig, API-Seitig und/oder Hardware-Seitig an Tempo verloren hat.

Denke jedoch mit den neuen Stackingverfahren wie HBM-Speicher in den Startlöchern wird sich viel mehr bewegen, als in den Jahren zuvor.
 
Ich finde es schwer, bei diesem Thema nur mit Vernunft zu argumentieren und mit spitzem Bleistift zu rechnen. Schließlich geht es letztlich um Spiele und damit Spaß und für viele von uns darüber hinaus auch schlicht um das Hobby PC. Also Freude an der Technik.

Mit Mid-Range hat man natürlich immer das bessere Preis/Leistungs-Verhältnis. Aber dafür ist es doch auch etwas langweilig. ;)

Ich neige deshalb eher zum High-End.

Mein aktueller Gaming-PC basiert auf einem 3930K(@4,2GHz). Nach über 4 Jahren kann ich immer noch nicht absehen, dass CPU-Leistung irgendwann zu einem Flaschenhals werden könnte. Im Gegenteil fängt sich erst langsam an abzuzeichnen, dass die 6 Cores / 12 Threads endlich mal ausgenutzt werden könnten.
Die ursprüngliche GTX580 ist vor ca. 2 Jahren einer 780Ti gewichen. Weitere Upgrades auf neue High-End-Grafikarten werden sicher noch folgen. Aber das eine oder andere Jahr wird die 780Ti noch reichen, um meinen 2560x1440er-Monitor zu befeuern.

Mit Mid-Range-Hardware und häufigeren Upgrades hätte ich sicher etwas Geld gespart und unterm Strich meist eine ähnliche Leistung gehabt, aber es wären eben auch die zeitweisen High-End-"Spitzen" zwischendurch weggefallen, bei denen ich mich am stärksten und besten erfreuen konnte, was der Markt zu bieten hat. Das sind die Augenblicke, wo das Hobbyistenherz höher schlägt. :D

Das einzige, was mich etwas ärgert, ist dass ich auf einige interessante neue Features, wie z.B. NVMe, verzichten muss, mangels Unterstützung durch meine schon etwas ältere Hardware, speziell dem X79-Mainboard. Das wurmt meine Hobbyistenseele ein bisschen. Einen wirklichen praktischen Nachteil sehe ich aber eher nicht, weil eine SATA-SSD es letztlich auch tut. (Demnächst wohl eine neue mit 2TB, so dass ich nicht mehr Spiele auf die HDD auslagern muss. :) )
 
Zuletzt bearbeitet:
@ shizzle

Das stimmt, freilich spielt der Dollarkurs auch eine Rolle. Trotzdem sehe ich da 20%-Unterschied. Selbst wenn man noch die Inflation und die generelle Lohnsteigerung mit einrechnet, verbleibt eine Steigerung.
 
Endriel schrieb:
Ich persönlich siedle meine Preisklasse zwischen 250-350 an und warte dann gut und gerne mal 3, 4 oder auch 5 Jahre bis ich wieder eine neue Karte kaufe. Bis dahin läuft eigentlich alles immer ausreichend gut.

Als Beispiel: Ich hatte eine 570 GTX und habe dann auf die 970 GTX gewechselt.
Bei mir siehts genauso aus. Hab seit 3 Jahre ne 7970 DC2,damals hier im Luxx für 280€ geholt. Bin bisher immer noch zufrieden.
 
Zurück
Oben