Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
weiters kommt man, wenn man nur die Taktraten der C2D/C2Q weiter zu steigern versucht, zu dem gleichen Ergebnis wie schon beim P4, der Stromverbrauch steigt, trotz besserer Fertigung unverhältnismäßig an.
und wo ist der unterschied beim i7 ?
Dort machen sie doch im Moment das gleiche, nur das die Teile dabei heiß werden ohne ende und zudem ein Loch in die Brieftasche brennen.
eine cpu die bei 2,83ghz mit 65W auskommt (4 kerne !) wäre sicher leichter richtung 4 ghz zu schieben als eine mit fast dem doppelten verbrauch.
eine mit 3,33ghz und 65W (2 kerne) erst recht.
in 10jahren singlecore programme, ahja, welche singlecore programme benutzt du denn die ganze zeit die leistung brauchen und auch in 10jahren noch singlecore sein werden?
dir ist offensichtlich nicht klar wie viel sich überhaupt nicht sinnvoll parallelisieren lässt.
einfach mal nach P-vollständigen Problemen googlen (achtung : nicht NP -> das sind fälle für den quantencomputer)
bestes Beispiel : auch in 10 Jahren wird niemand einen Algorithmus entwickelt haben mit dem 4 Frauen zusammen ein Kind in 2 Monaten bekommen können.
Exakt das gleiche trifft auch auf rein sequenzielle Probleme im Computer zu.
Ein gutes Beispiel wäre hier eine Uhr bzw allgemein ein Zähler der pro Takt einmal erhöht wird und exakt abgefragt werden muss.
aktuelle beispiele :
- emulation ist immer aktuell (mobiltelefone, konsolen, betriebssysteme), in zukunft wohl noch mehr, da manche architekturen x86 hier in sachen leistung überholen (bsp : cell)
- gpu-physx ohne kollisionskontrolle bei vielen objekten, da praktisch unmöglich parallel berechenbar -> rückfall auf cpu
- alle möglichen arten von freeware bei denen sich der programmierer nicht den aufwand gemacht hat
- bestehende programme die weitergenutzt werden aber längst nicht mehr geupdeted werden.