Braucht man immer mehr rechenpower, oder ist irgendwan man schluss?

ipponfighter

Lt. Commander
Registriert
Mai 2007
Beiträge
1.605
Hi @ all

jetzt darf ich alles nochmal schreiben, weil der des nicht gespeichert hat :rolleyes:

Also. Mein Kumpel braucht ne neue CPU und hat da an einen Intel Core 2 Quad Q6600 gedacht. Ich hab ihn gefragt wozu er das braucht und er meinte: POWER.
Ich hab mir dan noch mir Gedanken darüber gemacht, und würde von euch mal gern wissen, was ihr von dem Thema haltet.

Braucht man immer mehr Power, oder ist irgendwann man schluss? Eindeutig Ja, denn ich bin der Meinung, dass man als normaler Heimanwender, der mal zockt, surft, oder office Dinge erledigt das gar nicht ausnutzen kann. Was will dieser mit 4 Kernen? Damit protzen vllt. Dazu kommt dann noch dass diese CPUs noch bessere Kühlungen benötigen und mehr Strom ziehen usw. Also ich mir reichen meine 2 keren vorerst. Da brauch ich keine 4.
Genauso ist es auch mit den Grakas. Wozu benötigt ein Durchschnitsanwender eine 800€ Graka, oder gleich 2 davon? Er kann sie doch gar nicht voll auslasten. Für Gewerbliche Zwekce ok. Architekten z.B. für ihr CAD, aber als normaler Anwender?
Und so geht es mit allem weiter.
Ich find ja auch einen Leistungsstarken PC geil, aber igrendwan muss doch mal schluss sein

Bitte postet wirklich sinnvolle Beiträge und nicht: "Ordentlich Power ist doch gut. Das kan man nie genug haben."
 
Ich denke schon, dass die Frage nach Rechenpower nie ein Ende haben wird. Erstens werden auch die Anwendungen immer Ressourcen-hungriger und zweitens werden manche Anwendungen erst durch mehr Rechenpower möglich (z.B. Gesichts- oder Spracherkennung) und sinnvoll nutzbar. Eine meiner Hauptanwendungen ist ACDSee Pro, das bereits einen deutlich spürbaren Geschwindigkeitszuwachs durch meinen Umstieg von Single- auf Dual-Core erhalten hat. Version 2 wird laut Hersteller dann auch Quad-Core direkt unterstützen. Nicht auszudenken, wie schnell z.B. eine Datenbankaktualisierung mit einigen zehntausend Bildern dann geht.

Aber in einem Aspekt gebe ich Dir recht, die Rechenpower sollte angemessen sein. Wenn man keine Anwendungen nutzt, die die Rechenpower benötigen bzw. davon profitieren, dann ist es rausgeschmissenes Geld und zudem noch unnötig umweltbelastend durch einen erhöhten Stromverbrauch.
 
Das kommt immer auf die Anwendung drauf an.

Wenn ich jetzt z.B. privat rechenaufwendige Sachen mit dem PC mache (multimedia), dann sind mehr Power immer gut... alleine schon bei der Kodierung von Multimedia-Inhalten. Brauche ich jetzt noch für eine CD -> MP3 z.B. 4 Minuten, brauche ich mit der doppelten Leistung 2 Minuten etc. Solange das nicht so gut wie sofort fertig ist, ist die Leistung doch immer verbesserungswürdig und das ist dann ja ein ziemlich vielfaches von heute.

Andererseits könnte man auch Richtung Energiesparen weiterentwickeln - selbe Leistung für weniger Aufnahme bzw. mehr Effizienz.

So wie wir vllt. jetzt lachen, wie lange bestimmte Vorgänge früher gedauert haben, welche jetzt so wirken, als würden sie sofort ausgeführt/abgeschlossen werden, so werden wir in Zukunft darüber lachen, wie lange bestimmte rechenaufwendige Vorgänge heute noch dauern.

Außerdem steigen mit der angebotenen/verfügbaren Leistung auch wieder die Anforderungen aufgrund neuer Möglichkeiten. Man hätte doch früher wohl auch nie gedacht, Videos usw. auf dem Computer zu bearbeiten etc. Oder 3D-Desktops. Usw.

PS:
Bevor es mir noch jemand erklärt. Dass durch Verdoppelung der Cores sich nicht die Rechenleistung verdoppelt ist mir schon klar. Nur die Anzahl der parallel zu verarbeitenden Threads...

EDIT:
Man bedenke z.B. dass auch früher Rechenleistungen für damalige Verhältnisse gigantisch waren und alles nötige bei weitem übertroffen haben. Versucht man heutige, "normale" (egtl. nicht besonders) Programme auf solchen Rechnern auszuführen, wird man dabei alt. Office 2007 ist ja z.B. auch "nur zum Schreiben" etc. und trotzdem benötigt man dafür inzwischen schon fast einen High-End-Rechner.

Genau so wie man z.B. die 650 MB einer CD nie komplett brauchen wird. Aber die Anforderungen steigen durch neue Möglichkeiten einfach. So werden Rechner in Zukunft ganz nebenbei Sachen machen, die heute noch gar nicht möglich sind. (Vllt. ganz nebenbei die Wetterprognosen der nächsten Tage für vor der eigenen Haustür berechnen, oder was weiß ich...)

Und außerdem gibt es noch genug Bereiche, wo die Leistungen heutiger Rechner diese noch ganz schön lange beschäftigen. Programme compilieren, Multimedia, 3D, Datenkompression... die Leistung kann mMn noch so viel gesteigert werden, bis keine Verzögerung bei der Ausführung solcher Tätigkeiten mehr auftritt. Und wenn es in sehr weiter Zukunft wirklich mal so weit sein wird, wird es neue, noch viel rechenaufwendigere Anwendungen geben, die wieder viel Zeit benötigen... HD Multimedia, Ultra-Datenkompression, 4D,... :p
 
Zuletzt bearbeitet:
Um Textverarbeitung zu machen, würde auch ein Windows 3.11 mit Winword 2.0 ausreichen. Dazu nimmst du dann den schwächsten Prozessor, den Du heute bekommen kannst oder einen alten gebrauchten Rechner und das reicht vollkommen aus. Aber dann will man plötzlich Object Linking and Embedding (OLE) nutzen und merkt, dass die Kiste dabei ins Stocken gerät.

Bei den Privatanwendern sind Spiele sicherlich die stärksten Schrittmacher. Als DOOM 3 erschien, mussten sich die meisten Gamer vermutlich erst einmal einen neuen Rechner anschaffen, um das Spiel flüssig zu genießen. Und bei Titeln wie Gothic 3 und Stalker ist es ähnlich, etwa wenn der PC schon ein oder zwei Jahre alt ist und nur über 1 GB RAM verfügt.

Bevor man sich einen Quad-Prozessor zulegt, sollte man sich die Frage beantworten, ob man überhaupt Anwendungen hat, die davon profitieren. Falls nämlich nicht, schmeißt man lediglich Geld zum Fenster heraus.

Selbstverständlich hat jeder Spaß daran, wenn er einen schnellen Rechner hat, auf dem es sich flüssig arbeiten lässt. Ich selbst finde es z. B. super, dass ich gleichzeitig mehrere speicher- und rechenintensive Programme laufen lassen kann, ohne dass die Performance spürbar einbricht.

Ich erinnere mich noch gut daran, dass ich einmal aus einem 18-minütigen Video ein zwei Minuten langes Stück herausschneiden und separat abspeichern wollte. Nachdem ich den Befehl abgeschickt hatte, war mein alter Rechner ca. eine Stunde lang dermaßen beschäftigt, dass er auf keine Tastatur- oder Mauseingaben mehr reagierte. Heute lache ich darüber erledige solche Jobs unauffällig im Hintergrund.

Mein Eindruck ist, dass sich mit den Möglichkeiten auch das Nutzerverhalten ändert. Man sieht das gut beim DSL. Früher überlegte man es sich zweimal, wenn es darum ging, eine 5 MB große Datei hoch- oder herunterzuladen. Inzwischen sind Updates von über 100 MB durchaus üblich und stellen für DSL-User überhaupt kein Problem mehr dar.
 
ipponfighter schrieb:
Bitte postet wirklich sinnvolle Beiträge und nicht: "Ordentlich Power ist doch gut. Das kan man nie genug haben."
Ich verstehe die Frage nicht. Nein, man brauch nicht mehr Rechenpower. Man kann sogar
ganz ohne Rechenpower. Für ein Brief benötigt man auch nicht Win3.11 und Word2.0.
Das ging auch unter DOS, mit Papier und Tinte, oder Steinplatten. Man braucht auch kein
Auto, Fernseher, Staubsauger, Waschmaschine usw.
Die Entwicklung (der Menschheit) läßt sich nicht aufhalten und mt dem begrenzten Horizont
der Nutzung eines Heim PCs schon gar nicht erklären. Keiner wird gezwungen sich dem
"Rüstungwahn" anzuschließen. Es sei denn, er möchte an aktueller Technik teilhaben. Falls
du aber konkrete Fragen zur sinnvollen Ausstattung eines PC für bestimmte Anwendungen
hast, empfehle ich dir die Fachforen.
 
Nein. Es geht mir darum, ob man immer das neuste, leistungsstärste und beste haben muss. Klar kann man den Vortschritt nicht aufhalten, aber man abwarten, bis die Technick ausgereifter ist. Dies ist aber zuu Zeit ziemlich schlecht. Jeder kennt es. Man kauft nen neuen PC und schon ist er veraltet.
 
Die Frage ob man immer das Neuste und Leistungsstärkste haben muß, kannst du nicht beantworten.
Ob du dagegen immer auf den neusten Stand sein möchtest, kann dir auch keiner beantworten, nur du
selber.
Technik wird fast nie ausgereift sein. Selbst ein Flaschenöffner läßt sich noch verbessern. Wann etwas
veraltet ist, ist relativ und unterliegt auch einem subjektiven Eindruck.
 
Genauer gesagt wird also die Frage nach der Existenzberechtigung der "early adopters" gestellt. Das sind z. b. diejenigen, die bei einem angekündigten PC-Spiel nicht bis zum Releasedatum warten können und lauthalt nach einer Beta-Version schreien. Dieses Forum ist voll davon.
 
Wenn wir weiter von diesen alle 14 Monate doppelte Rechenpower ausgehen ist natürlich aber sehr bald ein Punkt erreicht, an dem für den normalen User keine Verbesserung mehr drin ist.

Irgendwann ist dann 3D Multimedia in einer Auflösung drin, die keiner Verbesserung mehr Bedarf, weil unsere Augen begrenzt sind.

Datenkompression ist kein Problem, weil unbegrenzt Speicherplatz vorhanden ist. Und wenn doch was komprimiert werden soll, geschieht das augenblicklich.

Ein Roboter hat eine übermenschlich intelligente KI und notfalls wird eine eigene Persönlichkeit + Gefühle emuliert und alles. Was soll man da noch schneller machen?
 
Jace schrieb:
Datenkompression ist kein Problem, weil unbegrenzt Speicherplatz vorhanden ist. Und wenn doch was komprimiert werden soll, geschieht das augenblicklich.
[...] Was soll man da noch schneller machen?

Ich glaub du überschätzt die Entwicklung da gewaltig. Wenn du einmal bei maximumcompression.com vorbeischaust, wirst du sehen, dass der beste Komprimierer mit über 30.000 Sekunden immer noch über 8 Stunden für 300 (!!!) MB braucht, die nächsten 3 noch viel länger.

So, wenn du jetzt 1 GB Daten komprimieren willst und z.B. unter augenblicklich 30 Sekunden verstehen würdest, sieht die Rechnung ungefähr folgendermaßen aus:

30603 Sek * (1.073.741.824 / 316.355.757) = 103870 Sek = 28 Std. 51 Min. (für 1 GB anstatt ~ 300 MB)

103870 Sek / 30 Sek = ~ 3462-fache Leistung nötig, um die 30 Sek. zu erreichen

2 ^11 = 2048
2^12 = 4096

D.h. nach 12 Leistungsverdoppelungen wären wir auf dem Niveau. Wenn ich mich richtig erinnere, sind es 18, nicht 14 Monate...

12 * 18 = 216 Monate / 12 = 18 Jahre.

Damit hätten wir in 18 Jahre die gewünsche Rechenleistung, um solche Datenmengen "einigermaßen augenblicklich" zu komprimieren. Natürlich gibt es dabei noch folgenden Bedingungen:

  • Die Rechenleistung müsste weiterhin innerhalb von 18 Monaten verdoppelt werden können, früher ging das mithilfe der immer höherwerdenden Taktung einfacher. Jetzt geht der Trend ja immer mehr Richtung Parallelisierung und da ist wohl nicht so viel rauszuholen.
  • Die Leistungs-Ansprüche steigen in den nächsten 18 Jahren nicht. :freak:
  • Und was sind 1 GB in 18 Jahren?


Also derzeit sieht es wohl so aus, als ob noch genug Zeit vor uns liegt, in der wir höhere Rechenleistung gut brauchen können.

PS:

Zum Thema unbegrenzt Speicher...
Wie gesagt, es sagte einmal jemand, dass man niemals eine CD vollkriegen würde. Und auch hier wird es immer enger mit der Speicherdichte, obwohl holographische Medien noch extremes - theoretisches - Potenzial haben.

Hologramme können theoretisch ein Bit in einem Würfel mit der Kantenlänge der Wellenlänge des Lichts, das zum Schreiben benutzt wurde, speichern. Das Licht z.B. eines Helium-Neon-Lasers ist rot (genaue Wellenlänge: 632,8 nm). Wenn man nun Licht von dieser Wellenlänge benutzt, würde ein Quadratzoll von perfektem holografischen Speicher 1,61×1013 Bits, was ungefähr 2.014 Terabyte entspricht (2,5×1012 Bit pro cm²), speichern können. Ein Kubikzoll von solchem Speicher hätte eine Speicherkapazität von 8.083.729.105 Terabyte (493.299.416 TB pro cm³). Aber die Speicherdichte ist in der Praxis um Größenordnungen niedriger, da noch Bits für Fehlerkorrektur benötigt werden, und die Mangelhaftigkeit des optischen Systems ausgeglichen werden muss.

Wikipedia - Holografischer Speicher

Damit könnte man dann wohl die ganze Welt in einen kleinen Würfel speichern - schön wärs. :D
 
Zuletzt bearbeitet von einem Moderator: (Lexikon-Link korrigiert)
Oder anders gesagt, ich hatte einen Rechner mit nem 3200+ und nun mit einem X2 4000+. Das macht sich deutlich bemerkbar bei der Analyse von Sounddateien und dem Umwandeln dieser. Das ist für mich eine echte Erleichterung und Zeitersparnis. Der Gedanke, dass es noch schneller gehen könnte, vielleicht *klick* und *fertig*, macht mich schon an. :D
 
OK.. deine Rechnung sieht hieb und stichfest aus.
Aber gleichzeitig nimmst du dir doch noch den Wind aus den Segeln mit dem Beispiel für die fast unbegrenzte Speicherkapazitäten.


Und ich könnte meine Aussage natürlich leicht umändern.. nicht bald, aber irgendwann in ferner Zukunft ist der Punkt erreicht, wo wir sagen können, dass genug Rechenpower verhanden ist. ^^
 
Finde eigentlich schon das irgenwann mal schluss sein könnte...Keine Lust alle 5 Jahre einen neuen High-End Pc zu kaufen weil dann kein Spiel mehr läuft oder nur schlecht läuft:(
 
Zurück
Oben