Ab wann ist der CPU nutzlos schnell?

Gwito

Lt. Commander
Dabei seit
Okt. 2006
Beiträge
1.414
Hallo,

ich studiere jetzt nicht gerade im Informatikbereich, aber dennoch haben wir natürlich einen Informatikprofessor (wobei es an und für sich kein Prof. ist).
Dieser hat uns gefühlt jede Stunde mitgeteilt, dass CPUs jenseits von 2,5Ghz nicht mehr schneller werden, ausser in ganz speziellen Anwendungen. Das hat er damit begründet dass der Weg zwischen CPU und RAM zu weit ist, also würde der schnellere CPU einfach nur länger auf Daten warten und dadurch würde sich nichts an der Geschwindigkeit tun.

Seitdem bin ich ständig hin und her gerissen ob ich das nun glauben soll oder nicht, klingt zwar nach Quatsch aber immerhin sollte der doch etwas Ahnung haben. Kann mir einer sagen ob das nun richtig ist und vll. früher mal so war (mit DDR1/2) oder ob das wirklich so stimmt?

Weswegen ich aber eigentlich den Thread geöffnet habe ist, dass ich ein neues Notebook suche. Es ist nur für Office/Internet/Musik und hin und da mal Videos. Da mein aktuelles Notebook einfach nur langsam ist, wollte ich dieses mal genug Rehenpower dass das nicht mehr passiert, denn in Chrome bei 2-3 offenen Tabs ging das geruckel schon los. Aber welcher CPU sollte es max. sein? Reicht da ein neuer Atom schon aus?
 
Dafür gibt es Benchmarks.... und ja die werden schneller. Guck dir den Faildozer an der geht bei hohem Takt erst richtig ab.

Und ob die CPU intern mehr Zeit mit Eierschaukeln verbringt kann dir egal sein.
 
Wie bindet der den eine 2600K CPU an EDO Ram an :-D
Das ist doch totaler quatsch, erstens hat man spezielle wege das interface zu vergrößern (Dualchannel, triplechannel) und zweitens werden die Daten in der CPU nur verarbeitet.
 
Nimm nen Notebook mit i3 und HD3000, dazu 4GB RAM, wird fuer die Anforderungen locker reichen.

Das was dein Dozent da erzaehlt ist im uebrigen Quatsch :D
 
was ist ein faildozer?
ich kenn nur den bulldozer ;)

ich kann mir schon vorstellen, das an der aussage was dran is.
heute wirds nicht mehr stimmen... aber zu zeiten von SD-Ram und DDR1 könnte das vllt schon gestimmt haben.

das liegt aber vllt nicht an den langen wegen, sondern an der geringen bandbreite der specihermodule.
das könnte die cpu schon ausbremsen.
 
Dieser Effekt ist sogar innerhalb von CPUs selbst zu beobachten. So dass es zu "Zeitverzegrungen" kommen kann, bei hohen Taktfrequenzen, wenn die Daten von einer Ecke der CPU zur anderen sausen müssen.

Damit dies nicht passiert wird bei Schaltungsdesign darauf geachtet, dass die mit einander in Bezug stehenden Funktionsgruppen möglichst nicht zu weit auseinander angeordnet sind.

Um auf die Frage des RAMs zu sprechen zu kommen: Dafür wurden ja die Cache Speicher in die CPUs integriert. 1st Lvl, 2nd Lvl und je nach Art heute meistens auch schon 3rd Lvl, um dem Trägen Hauptspeicher auf die Sprünge zu helfen.

Eine CPU mit höheres Frequece nutzt dir aber sehr wohl noch, denn wer sagt, dass jeder Befehl der CPU auch einen Speichertransfer benötigt? Es gibt genügend Befehle, die nur auf die Rechenwerke der CPU zugreifen und keinen Bustransfer benötigen.

Außerdem wurde vor Jahren bereits eine OOO-Strategie (out of order) in die CPUs integriert, so dass die CPU die Befehle selbst umsortieren kann, um während eines Buszugriffs andere Befehle parallel abzuarbeiten.

Dein Prof. irrt sich also nicht, aber hat einiges Aspkte bei seiner Verallgemeinerung außer Acht gelassen.
 
Wow, du studierst UND hast Informatik und weißt nicht, dass es DIE CPU heißt? Wie geht das?
 
Also ich kann dir sagen des es mehr oder minder schwachsinn ist. Mein Informatik Studium bzw der Teil mit Prozessor Technik, .... ist zwar schon etwas länger her aber ich würde gern mal sein Begründung dafürhören. Der weg Ram CPu ist ja nciht wirklich gut für sowas. Da kommt ja nch die Bandbreite und die Geschwindigkeit mit dazu. Diese sind wohl eher auschhlaggebend
 
Grundsätzlich hat Dein "Prof" recht - wenn sich die CPUs seit der Pentium-Zeit intern nicht verändert hätten:

Mehrstufige Caches, immer größer werdend, interne Speichercontroller, mehr Speicherkanäle, schneller taktender Speicher mit immer geringeren Latenzen - mit diesen Verbesserungen kriegt man dieses Problem in den Griff.
 
Dein Dozent meint wahrscheinlich, dass extrem schnelle CPUs viel Zeit mit dem Warten auf die restlichen Komponenten verbringt und daher die theoretische Leistung nicht ausspielen kann. Dieser Effekt existiert tatsächlich, da es kaum einen fühlbaren Unterschied ausmacht, ob eine CPU 3.4 oder 3.3GHz hat. Messbar ist der Unterschied aber trotzdem.

Zu deinem Notebook: Kauf dir keins mit Atom-CPU, wenn du planst damit zu Arbeiten, mehr als 3 Tabs zu nutzen oder auch mal ein paar mehr Anwendungen offen haben willst. Mit einem Core i5 wirst du wahrscheinlich am besten fahren. Achte auch darauf, dass das Display nicht zu gering aufgelöst, denn mit 1376*768 lässt es sich nicht gut arbeiten.
 
heutzutage sitzt der Speichercontroller direkt in der CPU somit fallen umwege über den Chipsatz weg deshalb halte ich die Aussage für sehr schwamig
 
NIE WIEDER ATOM!

Das ding ist zu lahm, 720p Videos unter WinXP ruckelfrei abzuspielen trotz 2GB ram. Desweiteren hat das Netbook ca 5 Wochen nach Garantie-Ende das Starten verweigert.

War ein HP Mini 5101 mit Intel Atom N280

Die AMD-E-Series scheint hier interesannt zu sein. Bei meiner Schwester spielt ein E350 1080p unter Win7 64bit mit 4GB ram problemlos ab. Die Bedienung ist aber (evtl auch wegen der 5400RPM-Platte) etwas "gemächlich"
 
Die Aussage deines Professors ist im Allgemeinen richtig.
Er bezieht sich dabei auf den Von-Neumann Flaschenhals, der den Umstand bezeichnet, dass in den letzten 20 Jahren die Prozessorgeschwindigkeit exponentiell zugenommen hat, während die Speichergeschwindigkeit kein soches explosionsartiges Wachstum verzeichnen konnte. Daher sind Speicher- und Prozessorgeschwindigkeit enorm auseinander gedfriftet, weswegen die Speicheranbindung zur Performance kritischen Engstelle geworden ist.
Diesem versucht man Caching, internen Speichercontrollern und so weiter entgegen zu wirken, das kann diese Problem aber nur abschwächen und es nicht aufheben.
Daher macht sich dieses Problem bei fast allen Programmen bemerkbar, da fast alle Programme auf die ein oder andere Weise nur Daten hin und her schieben.
Natürlich gibt es Programme, die kaum Daten benötigen und stattdessen viel Rechenoperationen benötigen. Bei diesen macht sich auch die Prozessorgeschwindigkeit deutlich bemerkbar.
 
Sandy Bridge-E und Quad Channel Ram ;)
 
Also in den Veranstaltungen, die ich zu Rechnerarchitekturen und Leistungsbewertung gehört habe wurde auch oft darauf hin gewiesen, dass die Speicheranbindung bzw. die Speichergeschwindigkeiten einen Flaschenhals darstellen.
Das heißt, dass die Zugriffsgeschwindigkeiten nicht im selben Ausmaß ansteigen wie die Rechengeschwindigkeit (also Taktung, sprich Baugröße und Anzahl der Transistoren) der CPU. Vom Grundsatz her würde ich deinem Prof. da also auch zustimmen, allerdings hängt das halt stark von der Beschaffenheit der zu verarbeitenden Daten ab.
Selbes gilt ja auch für die Effizienz der Caches, da sich fehlzugriffe mit den entsprechenden Misspenaltys dann auch bei nicht oder wenig korrelierten Daten kontraproduktiv auf die Gesamtgeschwindigkeit des Systems auswirken können.

In der Praxis würde ich sone Aussage dann aber auch weniger Bedeutung zumessen, da bereits in einigen Kommentaren beschriebene Mechanismen und die Beschaffenheit der Daten bei "normalen" Anwendungen dazu führen, dass nen höherer Takt auch zu ner höheren Performance führt.

Also für den Endnutzer stimmt diese Aussage so pauschal denke ich nicht, wenn man sich mit spezial Architekturen auseinandersetzt sollte man das aber wohl im Hinterkopf behalten, dass CPU Takt eben nicht gleichzusetzen ist mit Performance.
 
Zuletzt bearbeitet:
Also der Prof erklärte es halt nur mit dem Weg. Er hatte es auch vorgerechnet, mit dem Weg und der max Geschwindigkeit der Daten, glaube er hat mit Lichtgeschwindigkeit gerechnet, aber auch nur deswegen weils das schnellste wäre. Aber das ist doch auch der Grund warum vieles schon in die CPU gelegt wird. Vielleicht meinte er nur Office Sachen wie Programmstarts etc. was ja fast alles aus dem RAM geladen wird.

Also Atom wie gesagt nur die neuen, also ab der 5xx Serie. Aber soll nun doch 13,3" soll, da sind Atoms eh selten, mehr als 1376*768 geht da aber kaum, komm aber damit gerade gut zurecht.

Ist das mit den 5400RPM deutlich merkbar? Hab gerade ein schönes gefunden, dass eben eine 5400RPM Festplatte hat, allerdings in 1.8" und für 1.8" gibt irgendwie nur genau eine Serie von Toshiba...

@Seth666 Stimmt, sollte lieber Artikel statt Matheformeln lernen ;)

Edit: Dann hatte er wohl im Ansatz recht, nur hat er es wohl etwas zu krass formuliert bzw. etwas übertrieben.
 
Zuletzt bearbeitet:
Also der Weg ist schon ein Entscheidender Faktor, allerdings auf dem Gesamten Mainboard sowie in allen einzelnen Bauteilen.

Ich denke der Prof. meinte mit speziellen Anwendungen eben Benchmarks, Foto/Video-Bearbeitung, manche Spiele etc.pp.

Denn hier kann man den Unterschied meist schon sehen ob eine CPU 3,4 GHZ oder 3,8 GHZ hat.

Aber auch bei vielen Spielen wirst du merken dass es an der gesamt Performance nicht alzuviel "dreht".
Beim Videoschnitt merkst du es zum Beispiel sehr deutlich (solange die Festplatten mitkommen) und der RAM auch ausreichend Groß ist.

In der Regel wartet die CPU immer auf Daten(da sie im Vergleich am Performantesten ist im System) und hat Leerlaufphasen, das ist auch nahezu Unmöglich zu umgehen, um das aber zu reduzieren, gibt es wie oben schon geschrieben L1-Cache, L2-Cache, L3-Cache.

Zumal die CPU nicht auschließlich mit dem RAM Kommuniziert.

Kannst dir statistisch ja mal die Leerlaufphasen auf deinem System angucken. Im Normalen Win Betrieb braucht man heutzutage ca. 40% der Leistung die Vorhanden ist (Vll. meinte das auch dein Professor)
 
Werbebanner
Zurück
Top