Eure meinung zur Hardware entwicklung in den letzten 30 jahren

LencoX2 schrieb:
Es liegt eher daran, dass mit Quadkern CPU und 64 Bit eine Leistungsstufe erreicht wurde, die erst einmal ausgenutzt werden muss.
Die Technologie nähert sich auch ganz langsam der Reife...

Machen wir einen Vergleich zum Brennermotor: Da wird es auch immer schwieriger, inkrementelle Verbesserungen umzusetzen.
Wir können extrem starke Motoren bauen. Tun wir aber nur selten - weil für den Stadtverkehr und die gelegentliche Autobahnfahrt ein Motor mit zweistelliger kW-Leistung ausreicht. Ein hochgezüchteter Sportwagen bringt dich auch nicht schneller ans Ziel wenn du vor der Ampel wartest in einer 30er Zone.

Das ist mittlerweile bei CPUs auch nicht so anders: Wenn man nur Office und den Webbrowser benötigt, sind die Leistungsanforderungen in den letzten 10 Jahren kaum gestiegen. Wozu denn auch? Was sollte man implementieren damit die benötigte Leistung signifikant steigt? Excel-Tabellen in 3D mit raytracing darstellen? Nein danke, das lenkt nur von der Arbeit ab.
Ähnlich zu Autos sind wir zumindest bei Office-Arbeit am PC bei 'good enough' angekommen.
 
  • Gefällt mir
Reaktionen: LencoX2 und zerix
Ich will sagen das damals ein (bezahlbarer) highend rechner höchstens 3-5 jahre hielt, bis auch keine aufrüstung mehr geholfen hat. Und er totlangsam ist

Das die aktuelle ryzen 7 CPU von 2020 schneller als der schnellste Athlon X2 von 2010.ist, ist klar. Aber im büro als office gerät wird das die sekräterin gar nicht bemerken, mit win10 und office.

Jedoch nochmal zum jahr 2000. zurück: gib einer sekräterin einen P3 mit office usw., und dann wiederrum einen 386er, mit der selben software von 2000.

Was meint ihr wird sie den unterschied merken?
 
Smily schrieb:
Aber es war schon immer klar, dass das nicht ewig so weiter geht. Weil einfach physikalische Grenzen dagegen sprechen!
Na so klar war das nicht immer :D
Prozessoren werden immer schneller. Und der Gradmesser für die Geschwindigkeit eines Mikrochips ist dieser Tage vor allem die Taktfrequenz, mit der er arbeitet. 200 MHz erreichen die schnellsten Modelle zu dieser Zeit - da klingt es unglaublich, was Intels CEO Andrew Grove am 18. November 1996 bei seiner Rede auf der Comdex in Las Vegas verspricht: In 15 Jahren, also im Jahre 2011, sollen Intels schnellste Prozessoren mit 10 Gigahertz arbeiten und aus einer Milliarde Transistoren bestehen.

Doch bei dieser Prognose bleibt es nicht - Intel wird sogar noch optimistischer: Sechs Jahre später, auf dem IDF in Tokyo, verspricht Intels Cheftechniker Pat Gelsinger, Prozessoren würden schon im Jahre 2010 auf 15 GHz kommen. Die Pentium-4-Architektur sollte für immerhin 10 GHz gut sein, der kommende Prescott bereits auf 5 GHz kommen, sein Nachfolger auf 6 GHz; der 15-GHz-Chip hingegen sollte auf einer neuen Architektur basieren.

Von diesen ehrgeizigen Plänen rückt Intel jedoch bald wieder ab. 2004 stellt sich langsam die Erkenntnis ein, dass der Pentium 4 ohne explodierende Leistungsaufnahme nicht einmal auf 4 GHz zu treiben ist - das schnellste offiziell erhältliche Modell der gesamten P4-Reihe arbeitet denn auch nur mit 3,8 GHz. Höhere Performance soll nun anders erreicht werden: durch architektonische Verbesserungen, größere Caches und vor allem mehr Prozessorkerne. Auch wenn die Transistorzahl die Milliardengrenze längst überschritten hat, von den einst anvisierten 10 oder gar 15 GHz ist Intel im Jahre 2010 noch weit entfernt - die Taktfrequenz als Gradmesser der Performance hat ausgedient.
https://www.pcgameshardware.de/Retr...Nvidias-CineFX-PCGH-Retro-18-November-667403/

Mit der linearen Skalierung wollte man das noch länger so weitertreiben bis man erkannt hat, dass bei sehr kleinen Strukturbreiten unerwartete Quanteneffekte in Form von Tunnelströmen auftreten. Das heißt mit der Verkleinerung wirds wohl bald vorbei sein.
 
LadykillerTHG schrieb:
rechne mal 64 kerne a 4,5ghz
Du weißt schon, dass man es eben nicht so rechnen kann? Dein Threadripper mit 64 Kernen á 3 GHz ist bei Weitem nicht 64x so schnell.
 
  • Gefällt mir
Reaktionen: zerix
LadykillerTHG schrieb:
wieso rechnung passt doch :-) rechne mal 64 kerne a 4,5ghz sind kein problem und mehr als deine 192000mhz umgerechnet, bsp 192/3 sind 64 kerne bei 3ghz da sind wir schon weiter. Das ding nennt sich dnan halt threadripper können wir ja nichts für das du den nicht kaufst dann.

Du machst es dir aber einfach 🤪
 
  • Gefällt mir
Reaktionen: Rickmer und Smily
Smily schrieb:
Du weißt schon, dass man es eben nicht so rechnen kann? Dein Threadripper mit 64 Kernen á 3 GHz ist bei Weitem nicht 64x so schnell.
Theoretisch ist die Aussage vollkommen korrekt.
Daraus folgt nicht, dass jedes praktische Problem um denselben Faktor schneller gelöst werden kann.
Jedoch gibt es stark parallelisierbare Problem (videoencoding, 3D Rasterizing, etc) bei denen es nahezu um diesen Faktor skaliert.
 
liegt es nicht ehr daran, dass die Office Anforderungen kaum gestiegen sind?

und bei Spielen ist einfach ein "low" Modus hinzu gekommen.
Willst du alle Spiele auf "Ultra" Spielen, musst du weiterhin alle 2-3 Jahre aufrüsten.

Dass ich meine Youtube/Office Möhre nicht alle 2 Jahre austauschen muss, finde ich angenehm....
 
Wie gesagt: nicht jedes Problem lässt sich einfach (und vor allem auch lohnenswert) parallelisieren. Die Leistungsfähigkeit hat schon entsprechend zugenommen, die Software kann es nur selten ausreizen.
 
Vor 20 Jahren waren Rechner noch praktisch für alle grafischen Anwendungen zu langsam. Bereits 5 Jahre später war, wie von anderen schon erwähnt, ein Schwellwert an Leistung überschritten, der für Browser und Office Anwendungen ausreichend war.
Seit einigen Jahren sehen wir nun, dass wir mit dem Takt und Leistungsaufnahme an einer Grenze angekommen sind. Hier ist ein viel zitierter Artikel dazu, dessen erste Version bereits 2005 veröffentlicht wurde:
The Free Lunch Is Over: A Fundamental Turn Toward Concurrency in Software
 
florian. schrieb:
liegt es nicht ehr daran, dass die Office Anforderungen kaum gestiegen sind?

Was soll denn an Office Anforderung steigen ... Buchstaben und Zahlen hinklatschen ... hier nen Bild da ne Tabelle ...

Maximal Excel mit langen Formeln braucht etwas Rechenleistung ... aber wer braucht das eigentlich?
 
xxMuahdibxx schrieb:
Maximal Excel mit langen Formeln braucht etwas Rechenleistung ... aber wer braucht das eigentlich?
Das ist einen (Achtung Wortspiel) eigenen Thread wert :D
Beim Verwursten großer Datenmengen mit vielen SVERWEISEN, Array Formulas und anderen volatilen Formeln kann ein Vielkerner schnell zu 100% ausgelastet werden. Das ist grundsätzlich und vor allem auf Dauer nicht effizient, aber beim oft erforderlichen Herumspielen kommt das oft vor und solche Anforderungen kann man gut mit Rechenleistung erschlagen. Das war einige Jahre lang das einzige Szenario meinen i7 3770K voll auszulasten.
 
@floq0r Naja kommt auf das Ergebniss drauf an was man rausbekommen will ... dann nutzt man auch für Berechnungen andere Tools ...

😪 an seine Matlab Code schreiberei zurückdenk.
 
Ein konkretes Beispiel sind große Mengen von Adressdaten, deren Syntax zuerst homogenisiert wird und die dann anhand von erstellten Hashes auf Duplikate überprüft werden. Dafür sind DBs mit Indizes natürlich gut geeignet, wenn die Daten aber ständig nicht nur inhaltlich aondern auch strukturell verändert werden wirds umständlich.
 
Rickmer schrieb:
Ist doch egal seit wann es erste Prototypen in irgendwelchen Labors gibt, es zählt was auf dem Markt ist

Theoretisch gibt es auch hunderte geile Über-Akkus, aber kaufen kannst du davon keinen, weil die Technologie (noch) nicht gewinnbringend vom Labor zur Produktionsstraße umgesetzt werden kann.


... und 2/3 davon für Marketing
es geht bei technologie nicht um massenmarkt.
auf den massenmarkt kommen technologien, wenn sie bezahlbar sind von 08/15 usern wie dir und mir. davor rentieren sich diese nur für bestimmte einsatzgebiete/zwecke. entwicklung und marktreife erlangen produkte nicht im massenmarkt;)
btw weis ich nicht weche über akkus du da meinst, fakt ist, ökologisch sinnvoll ist weder ein E-auto noch wasserstoff....
 
zerix schrieb:
Du machst es dir aber einfach 🤪
Das mag sein aber deine rechnung mit aufaddieren ist genauso banane, es mag nicht in jeden bereich einem so vor kommen aber es gibt Fortschritt, Weil wenn man nur die GHZ zählt ist das auch käse weil du dann eine 20mb festplatte noch dazu hättest mit einer cga grafikkarte die leistung kommt ja nicht nur von der cpu alleine :-)
 
zerix schrieb:
Genau das meine ich. Damals wars 2-3 jahre, und ein neuer muss her.
Genau genommen lief der P 4 mit damals sehr schnellen 1,7 Ghz und einer GForce 3 200 TI
( war teuer ~ 3000 DM ) von 2000-2008 .
(bis sich mein Sohn in den Kopf gesetzt hatte das er Gohtic 3 spielen will )
Es ist eigentlich Damals wie Heute immer noch das selbe .
Ein Billg PC ist schon bein Kauf zu lahm ,
ein Mittel Klasse PC reicht so 2-3 Jahre
und wer viel Geld ausgiebt kann auch mal 5-6 Jahre durchhalten.
Aktuell habe ich immer noch den I 7 2600 k mit einer GTX 980 TI
und es reicht immer noch mit kleinen Einschränkungen.
 
Zurück
Oben