Eure meinung zur Hardware entwicklung in den letzten 30 jahren

zerix

Cadet 4th Year
Registriert
März 2018
Beiträge
88
Hallo

Da ich mich seit ca. 25 jahren mit Computern beschäftige, wie privat so auch professionell, scheint mit die entwicklung in den letzten 10 jahren ins stocken geraten zu sein.

Wenn ich mich an meinen ersten highend PC erinnere, ende 1997. P2mmx 266mhz, 128mb ram, 3drage pro mit 8mb, konnte ich damit alles was damals auf CDs zu kriegen war ohne probleme spielen/arbeiten.
Schon im jahr 1999. musste ich aktuelle titel auf low setzten um überhaupt was zum laufen zu bekommen. Im jahr 2000 war schon schluss mit lustig.

Sogar mit normalen programmen hat das keinen spass mehr gemacht.

Ein freund hatte ende 1999. einen p3 mit 500mhz, und auch nach ca. 2 jahren diesen entsorgt.

Heute kann man bedenkenlos 5 jahre alte hardware zum zocken aktueller titel nehmen.

Zum arbeiten sogar noch älter.

Man stelle sich mal vor man lebt im jahr 2000. und nimmt einen highend consumer PC aus dem Jahr 1990. was kann man damit anstellen??? 😎

Für mich war die zeit 1995-2005 mit den größten schritten in der PC-Hardware entwicklung was die performance angeht.

Anfangs hatte ich mit amigas zu tun 1993-1997. Leider ist dieses concept bekantermaßen gescheitert, und da kam die PC ära. Was mit der Amiga entwicklung heute wäre wenn commodore nicht in konkurs gegangen wäre, gar nicht abzudenken.

Ich denke das seit der (wie ich sie gerne nenne) Core2duo-ära oder ekvivalent athlonX2 keine großen -spürbaren- sprünge für den ottonormalverbraucher auf den markt kamen. Mal abgesehen von den Hardcore-4K-VR gamern



Was meint ihr?
 
Es kommt drauf an .....:D

Ich habe noch einen alten Pentium 4 mit 3 Ghz und einer AGP Karte ( AMD 3850 ) dazu 2 GB RAM und damit kann man sogar Crysis spielen , oder Stalker .
also Spiele die wesentlich später erschienen sind .
 
  • Gefällt mir
Reaktionen: osf81
Naja sagen wir mal so ...

Intel hat gehofft das sie viel länger nur kleine Brötchen backen müssen...
Seit dem ix-2xxxer Serie haben sie ja fast nur Verbesserungen im kleinen Maßstab gebracht.

Es ist ja erst jetzt aktuell der Stein wieder richtig ins Rollen gekommen duch AMD.
 
tomtom 333 schrieb:
Es kommt drauf an .....:D

Ich habe noch einen alten Pentium 4 mit 3 Ghz und einer AGP Karte ( AMD 3850 ) dazu 2 GB RAM und damit kann man sogar Crysis spielen , oder Stalker .
also Spiele die wesentlich später erschienen sind .

Genau das meine ich. Damals wars 2-3 jahre, und ein neuer muss her.
 
Ich frage mich, ob du über die Entwicklung der Hardware oder über die Entwicklung der Spiele-Entwicklung sprichst. Aus meiner Sicht beschreibst du eher letzteres. Die Wichtigkeit, dass die Titel auf möglichst viel Hardware laufen wird immer größer, dazu zählen auch Konsolen, die in Bezug auf den Spiele-Markt überwiegend den Ton angeben. PC-Spiele sind halt oftmals nur "Abfallprodukte".

Die Mehrleistung heutzutage wird häufig ja nur noch durch noch mehr Parallelisierung erreicht. Aber gerade bei Spielen lässt sich halt nicht einfach alles beliebig parallelisieren. Die PCs werden zwar leistungsfähiger, aber die Software kann es oft nicht nutzen. Und warum sollte ein Entwickler sich die Mühe machen ein Spiel für 12 CPU-Kerne zu optimieren, wo die Zielgruppe so gering ist?

Gerade wenn man sich professionell mit dem Thema beschäftigt, wundert es mich, dass man die Hardware-Entwicklung daran festmachen will, wie viele Jahre lang Spiele lauffähig sind.
 
zerix schrieb:
Ich denke das seit der (wie ich sie gerne nenne) Core2duo-ära oder ekvivalent athlonX2 keine großen -spürbaren- sprünge für den ottonormalverbraucher auf den markt kamen.
Doch klar, SSDs
 
@Rickmer gibt genügend Hypes die geschoben wurden aber immer noch nicht effektiv angekommen sind
wie z.b.
PCIe 4.0
NVME SSD

aber real als "normaler" User hat man davon noch nicht viel.
 
xxMuahdibxx schrieb:
aber real als "normaler" User hat man davon noch nicht viel.

Ich spreche nicht von NVMe, ich spreche von SSDs insgesamt
Es war von der 'Core 2 Duo Ära' die Rede - kannst du mir jemand sagen der nicht absoluter Enthusiast ist der 2005~2008 schon eine SSD im PC/Laptop verbaut hatte?
Ich war 2010 mit 'ner OCZ Vertex 2 definitiv noch early adopter.


Ansonsten fällt mir auch noch 'hohe Bildschirmauflösung' ein - weg von 1024x768, 1280x1024 & 1366x768 zu 1920x1080 und höher

Hat zwar mit CPU-Power usw. nichts zu tun, ist aber definitiv technologischer Fortschritt den jeder Consumer gemerkt hat
 
zerix schrieb:
Genau das meine ich. Damals wars 2-3 jahre, und ein neuer muss her.
Damals(tm) waren Video Spiele ein Nischenmarkt und das Budget von der Entwicklung eines Spiels, war ein Furz im Wind im Vergleich zu heute.
Heute sprengen die Entwicklungsbudgets locker mal einen Bond Kino Film und man möchte ein Vielfaches an Kundschaft erreichen.
Das geht halt nicht, wenn wie ID Software primär eine Spieleengine entwickelt die aus High End das letzte rauskitzelt.
Da muß ein Spiel auf dem Toaster vom Nachbarn noch laufen, damit der auch im Steam Angebot nochmal einen Zehner locker macht.

Auf der anderen Seite ist die Entwicklung von Leistungsfähiger Hardware auch technisch mittlerweile ein gigantisches Hindernis.
Siehe Intels 10nm Fertigung, die eigentlich gar keine 10nm hat. Auf dem Papier hat man schnell noch eine Milliarde Transistoren drangeklatscht,
aber dabei darf der Energiehunger nicht dramatisch mit steigen und fertigen muß man das Ding auch.

Es gibt immer noch eine Entwicklung und die ist jetzt auch nicht gerade verschwindend gering.
Meine neue 3090 ist fast dreimal so schnell wie die 1080 die sie ersetzt. Etwa 270-280%
Das ist kein kleiner Sprung, das ist schon ein sehr deutlicher.

Wer allerdings nur seinen PC mit günstigen FullHD 60Hz Monitor hat, hat halt keinen Benefit, denn die Spiele werden schon so optimiert,
dass die mit alter Hardware auch darauf vernünftig laufen.

Wenn du dich weiter in der Nische wähnst, in der du vor 25 Jahren als PC Zocker gelebt hast, dann wird das heute "Enthusiast" genannt.
Da reden wir dann von 240Hz, 4K und/oder VR, wenn nicht ist das auch OK. Der alte Golf tuts ja auch um damit jeden Tag zur Arbeit zu fahren.
Man braucht keinen neuen 8ter kaufen.

Es ist und bleibt halt Hobby.
 
Es hat sich in den letzten 25 Jahren schon recht viel getan. Rein CPU mässig tat sich in den letzten Jahren wirklich recht wenig. Intel hat regelmässig einen neuen Aufguss gebracht, AMD hatte jahrelang nichts wirklich gutes. Bis Zur Einführung der Ryzen, seitdem ist wieder Wettbewerb da.

Grafik hat sich auch recht viel getan.

Nur bekommt man Heute für relativ wenig Geld relativ viel Leistung. Früher hat man eher wenig Mehrleistung für grosse Beträge bekommen.

Meine erste Festplatte am Amiga war 30 mb gross, für fast 400 Mark, eine Turbokarte für nochmal hunderte Mark. Da kam das Zubehör weit mehr, als der Amiga ansich kostete. Spiele waren auch teuer. Ich habe früher welche für 100 Mark gekauft, heute kaufe ich keins für mehr als 25 Euro. Nie das neueste, immer nur im Angebot. Früher habe ich auf ein neues Spiel gewartet und sofort teuer gekauft. Seit Jahren mache ich das nicht mehr. Früher habe ich eine Geforce 6600 Gt gekauft, nur wegen AoE 3? Heute änder ich an der Hardware nichts, wegen einem Spiel.

Heute meckert man über den Preis einer 400 Euro CPU, früher hatte man das geblecht nur um vom Pentium auf den Pentium 2 oder 3 zu kommen, was insgesamt kaum mehr an Leistung war.

Das liegt aber auch sehr viel daran, das neue Architekturen für Jahre entwickelt werden. Samt der Fertigung. Das dauert lange und die Produzenten wollen ja auch verdienen.

Ich denke es liegt vieles an den Ansprüchen, die man hat. Sind die gering, reicht auch ältere Hardware. Sind die Ansprüche hoch, muss man eben mehr zahlen.
 
Auf nem VC-20 läuft auch Doom.

Deine Frage ist sehr philosophisch: Du nutzt heute doch auch ein Flugzeug, Auto oder Fahrrad und gehst vermutlich nicht überall zu Fuß hin? Es ist nun mal das was die Wirtschaft gerne sieht: Konsum.

Keiner macht sich mehr die Mühe zu verstehen heute, wie die 3D Berechnungen funktionieren, dafür habe ich meine Engine. Dies ermöglicht aber eben auch vielen anderen Menschen den Zugang zu moderner Technologie. Also ein Tradeoff

Die CPUs sind in den letzten Jahrzehnten extrem viel schneller geworden, leider wurden aber auch die Programme immer mächtiger. Mehr Funktionen, mehr Programmcode. Nicht mehr zu verwalten . Also wurden eine weitere Schicht dazwischen gepresst, damit Mensch noch versteht, was er da macht. Früher waren Programme noch das Hirmgespinnst von wenigen, einzelnen. Heute sind ganze Teams mit einem Projekt beschäftigt. Die müssen sich aber alle untereinander verstehen, also wird weiter abstrahiert.

Vorteil alles bunter, lauter, schriller, lebendiger ... eben besser

Das Resultat: Es fühlt sich alles nicht so elastisch an, wir sehen keinen Vorteil mehr. Er ist da, aber eben an anderen Stellen, die uns nicht auffallen.

Wer erkennt auf einen Blick ob sein Monitor mit 120 oder 144 Hz läuft? Ob 8 oder 10 Bit Farbtiefe genutzt wird? Ob die CPU mit 3,4 oder 3,5 GHz rennt.

Es werden Gefühle verkauft und da hat jeder eine eigene Meinung, was dieses Gefühl ihm wert ist, dafür zu bezahlen.
 
Das ist aber normal und wurde sogar damals schon gesagt!
Klar kenne ich die Zeiten, wo sich die Geschwindigkeit jedes Jahr verdoppelt hat. 233 MHz, 500 Mhz, 1000 Mhz. Da es alles Single Core waren, war die Geschwindigkeit tatsächlich verdoppelt. Aber es war schon immer klar, dass das nicht ewig so weiter geht. Weil einfach physikalische Grenzen dagegen sprechen! Thermik, Stromverbrauch usw.
Ein Pentium 2 war bei 250nm Fertigung. Da war halt noch deutlich Potenzial!
Heute sind wir bei 14nm oder 10nm ... und mal eben auf 7 oder 5 nm springen, klappt einfach nicht. Zu eng, der Prozessor funktioniert nicht, weil Kurzschluss.

Meine 3000 MHz CPU ist 7 Jahre alt. Heißt also, 7 Jahre verdoppeln, wir müssten also
3000 MHz
6000 MHz
12.000 MHz
24.000 MHz
48.000 MHz
96.000 MHz
192.000 MHz

Naja, hat nicht ganz geklappt, Rekord für einen Ryzen liegt so bei 6 GHz, was angesichts der Werte oben ja peinlich aussieht.
 
Die Beobachtung stimmt in meinen Augen. Etwa seitdem die ersten Dualkern-CPUs es in den Desktop geschafft haben ist eine Leistungsstufe erreicht, die für die allermeisten Alltagsaufgaben ausreichend ist. Ausnahmen gibt es selbstverständlich in den Bereichen Video, Kompilieren, und andere.

Der Bereich Gaming ist aber so weit gefasst, dass eine allgemeine Aussage nur lauten kann: die jeweils aktuellen AAA Games laufen oft (nicht immer) auf älteren PCs (10 Jahre), wobei gilt: je älter desto mehr Abstriche muss man machen. Immerhin galt das in den 1990-2010 nicht so.

Die Entwicklungder HW Leistung an sich ist nicht signifikant langsamer geworden ( Frequenzen, Multicore, IPC). Es liegt eher daran, dass mit Quadkern CPU und 64 Bit eine Leistungsstufe erreicht wurde, die erst einmal ausgenutzt werden muss. Es liegt also eher an der Softwareentwicklung die nicht mit der exponentiell zunehmenden Rechenleistung Schritt halten kann, bzw ist sie in noch höheren Maße von Manpower abhängig. Es kostet also immer mehr Geld, die immer schnellere HW Leistung auszunutzen.

Siehe auch Kosten von AAA Games, die gehen inzwischen in Richtung 100 Millionen und mehr.
 
feidl74 schrieb:
massenmarkttauglich
Ist doch egal seit wann es erste Prototypen in irgendwelchen Labors gibt, es zählt was auf dem Markt ist

Theoretisch gibt es auch hunderte geile Über-Akkus, aber kaufen kannst du davon keinen, weil die Technologie (noch) nicht gewinnbringend vom Labor zur Produktionsstraße umgesetzt werden kann.

LencoX2 schrieb:
Siehe auch Kosten von AAA Games, die gehen inzwischen in Richtung 100 Millionen und mehr.
... und 2/3 davon für Marketing
 
Ich schreibe gerade auf einem Notebook von 2014, welches noch immer gut für die meisten Nutzer ist und sogar Spiele wie Cyberpunk auf geringen Details aber 1080p flüssig darstellen kann.

Es kommt darauf an, wie die Ansprüche sind.
Wenn man heute noch auf 1080p und 60 Hz hängt, dann reicht alte Hardware aus.
Wenn man 4k und 120 Hz möchte, braucht man aktuellere Hardware.
Und winzige Hardware für mobiles VR ist noch unausgereift und meiner Meinung nach die Zukunft. Da wird man wahrscheinlich 8k pro Auge und mindestens 120 Hz benötigen, auf Hardware die es noch nicht gibt, um die nächste Stufe der digitalen Welt starten.
Ich stelle mir hierbei VR Brillen vor, die man auch in der Bahn, im Taxi oder einfach unterwegs auf der Straße mobil nutzen kann. Entweder simpel zur Navigation und zum Kommunizieren oder zum Arbeiten in einer virtuellen Umgebung.

VR ist die Zukunft und die passende Hardware und Software dafür ist noch nicht erfunden worden.
 
Smily schrieb:
Das ist aber normal und wurde sogar damals schon gesagt!
Klar kenne ich die Zeiten, wo sich die Geschwindigkeit jedes Jahr verdoppelt hat. 233 MHz, 500 Mhz, 1000 Mhz. Da es alles Single Core waren, war die Geschwindigkeit tatsächlich verdoppelt. Aber es war schon immer klar, dass das nicht ewig so weiter geht. Weil einfach physikalische Grenzen dagegen sprechen! Thermik, Stromverbrauch usw.
Ein Pentium 2 war bei 250nm Fertigung. Da war halt noch deutlich Potenzial!
Heute sind wir bei 14nm oder 10nm ... und mal eben auf 7 oder 5 nm springen, klappt einfach nicht. Zu eng, der Prozessor funktioniert nicht, weil Kurzschluss.

Meine 3000 MHz CPU ist 7 Jahre alt. Heißt also, 7 Jahre verdoppeln, wir müssten also
3000 MHz
6000 MHz
12.000 MHz
24.000 MHz
48.000 MHz
96.000 MHz
192.000 MHz

Naja, hat nicht ganz geklappt, Rekord für einen Ryzen liegt so bei 6 GHz, was angesichts der Werte oben ja peinlich aussieht.
wieso rechnung passt doch :-) rechne mal 64 kerne a 4,5ghz sind kein problem und mehr als deine 192000mhz umgerechnet, bsp 192/3 sind 64 kerne bei 3ghz da sind wir schon weiter. Das ding nennt sich dnan halt threadripper können wir ja nichts für das du den nicht kaufst dann.
 
Zurück
Oben