16 Jahre PC, gestern, heute, morgen

Tiu

Rear Admiral
Registriert
Sep. 2001
Beiträge
5.568
Im Oktober 1991 hatte ich mir meinen ersten PC gekauft, einen 386DX25 mit 14" Farb- Monitor und einem 24 Nadeldrucker. Bezahlt habe ich stolze DM 4.795,- (€2.451,64)

Halte ich diesen PC einmal leistungstechnisch meinem jetzigen PC gegenüber, ergibt sich folgendes Bild.

25 MHz --------> 2x 2400 MHz = fast das 200 fache nur an MHz
2MB RAM ------> 2 GB RAM = 1000 fache
52 MB HDD ----> 500 GB HDD = fast das 10.000 fache
1 MB Grafik ----> 256 MB Grafik = 256 fache

Nun kann man diese Liste noch beliebig erweitern. Zudem bezieht sich das ganze nur auf die MHz bzw. die MB/GB nicht aber auch noch auf die tatsächliche Leistungssteigerung.

Was möchte ich damit sagen? Betrachtet man den PC einmal ausschließlich als Arbeitsgerät, ist er nun wirklich in den letzten 16 Jahren zwischen dem 200 fachen und dem 10.000 fachen produktiver geworden? :freak:
Wo ist die künstliche Intelligenz? Wo ist die Spracherkennungssoftware die nahezu fehlerfrei funktioniert? Ja, ich muß auch heute noch in Word meine Texte selbst eintippen. Ist das ganze nicht doch letztlich nur aufgeblähter Bockmist der uns da serviert wird um ständig neue Hardware und noch aufgeblähtere Software zu kaufen?
 
Klar...Internet surfen und/oder Texte schreiben....dafür dürfte die Schüssel aus dem Jahre '91 noch gut genug für sein.

Aber versuch doch mal HL2 oder Oblivion auf dem Ding zu zocken.
Dürfte wahrscheinlich ein Ding der Unmöglichkeit sein! ;)
 
Ich schrieb ARBEITSGERÄT, nicht Spielmaschine!
Dafür kann man auch Konsolen nehmen!
 
Zocken kann auch Arbeit sein... :D

Dann öffne meinetwegen ein 80seitiges Dokument in Word mit 100 Bilder drin...dürfte ziemlich an die Nerven gehen...

/edit/
Was hat es eigentlich mit der Spachserkennungssoftware auf sich?
Das ist ja kein Versäumnis aufgrund mangelnder Hardwareressourcen sondern vielmehr der Entwickler.
 
Das große Problem bei Spracherkennung ist die Tatsache das jeder Mensch seine Muttersprache anders spricht. Darum benötigt eine gute SPracherkennung erst einmal Daten von dir wie du was sprichst, hierbei gilt meiner Meinung nach die Faustformel je mehr Bsp. das PRogramm hat desto effektiver kann es deine Sprache erkennen. Das wiederum benötigt aber eine dementsprechend hohe Archivierung und einen passenden Algorythmus um immer wieder dein gesprochenes mit dem Archiviertem abzugleichen um herauszubekommen was du da gerade erzählst. Programme gibt es eher wenige, das bekannteste an das ich mich errinern kann war/ist Loggox oder so ähnlich und war dazu da deine Stimme in geschriebenes Wort in Word einzufügen. Das einrichten forderte aber viel Geduld vom User da recht viel Text gesprochen werden musste für das Programm...
 
Der Gedanke ist 1A! :daumen:

Ich weiß nimmer wer es inna Sig hatte, aber der Spruch war super:

Man brauchte die Technik eines C64 um zu Mond zu fliegen,
um Win XP zu betreiben benötigt man 2GHz und 512MB RAM... (so, oder so ähnlich...)

Und ich finde das da was dran ist.
Ein Kollege von mir hat DAMALS schon seine halbe Wohnung mit dem C64 gesteuert...
Müsste ihn mal fragen was mit mit der heutigen Technik so alles anstellt... :freak:

Meiner Meinung nach liegt es zum Teil an der Tatsache das es zu schnell voran geht mit der Technik.
Das ist quasi der Vorteil an Konsolen. Da müssen(!) sich die Programmierer damit abfinden das
sie nur diese eine Hardware haben. Und siehe da: Sie bekommen die Hardware immer besser in der Griff!
Sie haben gelernt das beste aus der Hardware raus zu holen.
Das passiert auf den PC Sektor doch schon lange nimmer!
Es wird immer versucht die Software zwar an die Gegebenheiten an zu passen.
Es wird aber nicht versucht das Maximale raus zu holen.

Beste Beispiel (leider aus dem Spielesektor): DX9

Das ist meiner Meinung nach garantiert nicht ausgereitzt!
Wenn ich noch dran denke, was damit alles möglich sein sollte.... sollte...
Man erkennt das daran, das manch Spiele laufen und saugut aussehen und manche
grotten schlecht aussehen und viel mehr Leistung fressen!
Man gibt sich nicht die Mühe die aktuelle Technik auszureitzen...

Verdammt schade eigentlich, weil Resourcenverschwendung :freak:
 
Ja, Ressourcenverschwendung ist auch dabei ein wichtiger Aspekt. Demnächst hat die Sekretärin einen Quadcore PC mit 4 GB Arbeitsspeicher unter dem Schreibtisch um damit dem Chef seine Briefe zu tippen. Den gleichen PC natürlich auch im Einkauf / Verkauf um damit das Warenwirtschaftsprogram auszuführen das in Wirklichkeit lediglich einen P2 450 brauchen würde. Millionen von PC´s die weit über jede Verhältnismäßigkeit hinausgehen. :freak:
 
Stimmt schon irgendwo. Allerdings hört der Spass bei mp3 Umrechnung und Videokonvertierung spätestens auf. Hier merkt man deutlich den Unterschied zu einem P2 450 oder darunter, genauso bei Photoshop und einigen Plugins oder spielt mal nen DivX-Film auf nem Uraltrechner ab. ;)
Klar die meisten nutzen das alles nicht, spielen dafür aber wiederum oft.

Zur Spracherkennung:
Das neue Dragon Naturally Speaking ist schon ziemlich zuverlässig (ohne mühseeliges vorangehendes Textevorlesen). Dennoch, jeder Mensch spricht eine andere Frequenz und Dialekt, nuschelt mal, verschluckt Endungen u.v.m.
Der Computer "denkt" aber nunmal nicht abstrakt wie ein Mensch, sondern analysiert und vergleicht die Frequenz und weniger den Gesamtzusammenhang des gesprochenen Inhaltes ansich.
DAS zu realisieren und alle Kombinationen abzudecken, erforderte weit mehr Echtzeit-Rechenleistung und Speicherplatz, als wir heute haben. Deshalb greift auch heutige Sprachsoftware auf gewisse Selbstlernfunktionen zurück. Fix und fertig und 100% zuverlässig (wie in Enterprise) gibts sowas noch nicht. ^^

Das erforderte eine künstliche Intelligenz. Und ob diese jemals wirklich realisierbar ist, streitet sich sogar noch die Wissenschaft.
 
Zuletzt bearbeitet:
Relict schrieb:
...Das erforderte eine künstliche Intelligenz. Und ob diese jemals wirklich realisierbar ist, streitet sich sogar noch die Wissenschaft.

Hmm klingt interessant das von dir angesprochene Programm, muss cih mich mal schlau machen ^^
Und was KI angeht, glaub ich das eine komplette KI besser ein anderes System benötigt als das binäre was heutzutage verwandt wird...
 
@Lunaris
Jepp. Computer haben nunmal weder Emotionen noch ausreichende Erfahrungen, geschweige denn die, von jedem einzelnen Individuum. So können zb. schon je nach Stimmlage oder Betonung und je nach pers. aktueller Verfassung die Texte anders aufgefasst werden. Dafür fehlen dem Computer aber die Grundlagen. Mehrdeutigkeiten kann man dadurch beim Computer sowieso schon knicken. Und natürlich weil der Mensch auch neben Sprache zur Auswertung auch noch andere Sinne einsetzt.
 
@Lunarius

Das glaub ich mit...


KI ist bis jetzt immer nur auf das begrenzt was der Progger vorher hinterlegt hat.
Aus der Kombination des Hinterlegten entsteht dann eine Reihenfolge aus der ein
inteligenter (zB) Schachzug entstehen kann.

Einer CPU das "Denken" bei zu bringen ist für mich unvorstellbar :freak:
Klar... die Dinger können zig Tausend Befehle in paar Sekunden runterrasseln...
Aber wie will man einer CPU das Denken beibringen?
Ohne sie vorher mit beeinflussenden Daten zu füttern?

Gibt eigentlich ein "echte" selbstständig denkende Hardware?
Die ohne Vorangaben eines Programmiers weiß was zu tun ist? (und sich nicht nur auf Lampe ein oder aus bezieht....)

Denke net...
Man kann diesen "doofen" Maschinen ja noch nichtmals beibringen sich flüssig zu bewegen.
Die Bewegungsabläufe werden zwar immer schneller, aber die Berechnung der natürlichen
Umgebung und deren physikalischen Einflüsse bringen die Dinger immer an die Grenzen des
machbaren.
 
Selbst wenn wir irgendwann mal den Quantencomputer haben sollten, ein Computer wird niemals ein Mensch sein. Es wäre dann immer eine andere, eigene Art von Leben und Intelligenz. Er könnte einem sowas wunderbar vorgaukeln, aber er bleibt ein Computer.

Die andere Frage ist, ob wir das wollen, sozusagen neue Lebensformen schaffen. Hat auch seine Risiken. Aber ich denke es wird jetzt zu philosophisch. ^^

@topic
Niemand wird gezwungen (höchstens verführt) einen schnelleren Rechner zu kaufen. Kauft doch immer den billigsten und Schwächsten der verfügbar ist und gut is. ;)
Ich hoffe ihr versteht auf was ich hinaus will.
 
Stimmt schon is alles eine Frage von Angebot und Nachfrage :)
Und was die KI angeht, ich steh auf philosophische Diskussionen :D Denke aber es wird so wie es bisher immer war geschehen. Der Mensch wird eine Technologische Stufe erreichen und erst dann bemerken das er eigendlich noch nicht die Geistige Reife besitzt für eben diese... oder sie merkens nich und wir alle sind am Arsch :D:D
 
@Lunarius
Ich steh ja auch drauf, nur glaube ich nicht unsere Moderatoren. ^^

Was mir auch schon länger aufgefallen ist, seit 92 habe ich immer umgerechnet so 2000 Euro für nen PC mit allem drum und dran bezahlt. Man kommt einfach irgendwie nie wirklich tiefer. ;)
 
Um nochmal wieder auf den Topic zurückzukommen... Die Regelmässigkeit mit der neue Hardware erscheint, kann noch immer auf ein schnelles Wachstum geschlossen werden. Nur die schritte die geschafft werden werden kleiner, was ein Physikalisches Problem ist und ich denke das in den nächsten Jahren die sprünge weiterhin kleiner werden und dementsprechend wage ich mal zu behaupten das die Halbwertszeit eines 2000€ PC`s mittlerweile um einiges höher ist als zu zeiten des ersten Pentiums...
 
Früher gab es mal Zeiten, da war die Software deutlich der Hardware voraus. Heute ist es eher umgekehrt. (schlampige Programmierung mal ausgelassen)
Nunja die Halbwertszeit hat sich meiner Erfahrung nach auch nicht wirklich geändert. Guck mal Quad-Core steht schon in den Startlöchern, obwohls die wenigsten wirklich brauchen.

Klar theoretisch könnte ich heute auch schon wieder aufrüsten. Früher kam ich mal mit 3 Jahren hin, heute kaum noch mit 1 Jahr bei vielen Komponenten.
Aber stimmt schon. Die Leistungsfähigkeit heutiger Systeme würde noch länger locker ausreichen, wäre da nicht die Werbung, der Markt/ Geld oder nachlässige Programmierung.
Im Prinzip schmeisst man ungenutzte Leistung weg, um noch mehr Leistung zu erwerben, die man dann auch nur nicht nutzt usw. usf. ^^
 
@Relict aber andererseits darf man auch nicht wirklich ausser acht lassen das sie der Quellcod für die Programme ebenso potenziert hat, zb. das erste Civilisation, da lagen die redits ja noch als reine Textdatei vor, es waren keine Texturen nötig und es war weniger aufwändig sich den Code vorzunehmen, auf Fehler zu überprüfen und den Code zu optimieren. Heute ist das doch bestimmt eine Sysiphus Arbeit. Auch nicht vergessen sollte man das der Hardware Markt um einiges "übersichtlicher" war. Klar viele verschiedene Hersteller von Hardware bedeuten Konkourrenz und das resultiert sich wiederum in Leistung und Preis für den Kunden aber bedeutet zeitgleich auch eine höhere Vielfalt. Diese Vielfalt wiederum verhindert eine ideale Optimierung. Klar es gibt Schnittstellen die Standartisiert wurden wie zb. DirectX aber dann kommt auch wieder die freie Marktwirtschaft wo zb. ein Deal mit einem GraKa Hersteller gemacht wird das bestimmte Effekte mit direkten Befehlen die Hersteller GraKa ansteuern und DirectX z.T. dann dort einfach "Aussperren". Was wiederum resultiert das zu Werbezwecken auf den Standard nicht zurückgegriffen wird was wiederum zu lasten aller gehen kann... Hab jetzt mal das Bsp. versucht so einfach wie möglich zu halten und auf dem Segment zu bleiben wo ich die meiste Ahnung habe :D aber denke die Beispiele lassen sich beliebig erweitern, differenzieren und komplexer strukturieren.
Hab mir jetzt mal eine alte Aufnahme rausgesucht von einer alten sendung von Sat1 (Games World) Dort wurde auf Konsolen Spiele gespielt um Games etc. zu gewinnen... vielleicht kennt der eine oder andere noch die Sendung, finde es Faszinierend heute zu sehen was damals die Spiele leisten konnten und wie sie dabei aussahen ;) ich mach sowas gerne, ist dasselbe wie eine GS von 96 zu lesen osder gar ein 90er ST Magazin *grins*
 
@Lunarus
Da sage ich nur, wo bleiben die guten, alten, wirklich ambitionierten Assemblerprogrammierer. ;)
Ja durch die ganzen vereinfachenden Hochsprachen und Schnittstellen wird nicht mehr wirklich effizient programmiert, dazu kommt noch Zeit- und Geldmangel. Klar ist PC-Programmierung aufgrund der unterschiedlichsten Hardware nicht so einfach, aber es gibt Standards. Besteht also durchaus auf diesem Gebiet noch grosses Potenzial, wenn man denn bereit dazu wäre...
 
Relict schrieb:
@Lunarus
Da sage ich nur, wo bleiben die guten, alten, wirklich ambitionierten Assemblerprogrammierer. ;)

Schätze die wurden alle von großen Firmen eingekauft und Nachwuchs kommt ja eher schleppend würde ich tippen :)
Relict schrieb:
...wenn man denn bereit dazu wäre...
Was wiederum dem mittlerweile Üblichen Standard der Gewinnmaximierung widerspricht seit dies Wort höheren Stellenwert als Moral besitzt bzw. das Wort Moral wohl als Ineffizient befunden udn abgeschafft wurde... zumindest kommt es mir immer wieder so vor... siehe Siemens, Post usw... Traurig aber Realität
 
Relict schrieb:
Niemand wird gezwungen (höchstens verführt) einen schnelleren Rechner zu kaufen.
Ehrlich?
Kann eine Firma die noch mit ihrem alten Server zufrieden ist diesen auch heute noch neu kaufen? Wo denn? Sich die Teile bei Ebay zusammen suchen? Gebraucht? evtl. Fehlerhaft?
Letztes Jahr habe ich noch 1000st. S3 Virge 4MB PCI Grafikkarten verkauft. Der Bedarf an alter Technik aber ab Werk nagelneu ist vorhanden, aber leider nicht realisierbar. Wir haben noch ca. 12.000 S3 Virge Chips, Platinen sind auch da, bloß werden die Speichermodule nicht mehr hergestellt! Da ist der Knackpunkt auch bei der übrigen Hardware. In vielen Unternehmen würde auch heute noch Windows NT 4.0 auf irgendwelchen P2 300 - 450 vom Server bis zum Sekretariats PC ausreichen. Doch woher nehmen wenn nicht stehlen?
Ergo, irgendwann ist ein Quadcore die kleinste CPU die man noch Nagelneu für Geld bekommen kann, darauf wird dann mit Word 2011 Briefe und Emails geschrieben. :freak:
 
Zurück
Oben