News AMD und Intel: Zukünftig bis zu 16 CPU-Kerne?

Ich denke, es ist weniger "schwer" eine MultiCore-Optimierung zu programmieren als zeitaufwendig. Spiele-Unternehmen haben schlicht die Zeit nicht bzw. wollen nur für den Massenmarkt produzieren.

Andererseits laufen in allen Programmier-"Werkstätten" derzeit mindestens DualCore-Optimierungen, anhand deren Ergebnissen sich die MultiCore-Unterstützung sicher in den nächsten Jahren ausweiten wird.

Doch selbst wenn der erste Spiele-Titel mit "QuadCore only" in den Regalen steht, werde ich dennoch zuerst die Tests lesen, ob das Spiel selbst den Kauf wert ist, nur wegen Hardware-Unterstützung verkauft sich keine Software, besonders wenn bei DualCore-Spiele das gameplay interessanter ist.
 
Es muss auch nicht auf gedei und verderb Multi-Core optimiert werden. Nur sehr komplexe, zeitkritische Prozesse sollten nach Möglichkeit paralellisiert werden. Und das ist ja nunmal nicht der großteil aller Programme.
 
Blödsinn. Die Schaltzeit des langsamsten Schaltnetzes/~werks bestimmt die maximale Taktrate. Nur weil man Transistoren durch höhere Spannungen dazu bewegen kann schneller den Arsch hochzukriegen heißt das nicht, dass das der einzige Weg wäre.
 
Die Entwicklung von Multicore CPU`S scheint @ mom billiger zu sein, als wenn man die Taktraten weiter verbessert. Ich persönlich halte den Sprung von Single auf Dualcore schon für extrem, deshalb ist es meines erachtens nach besser 8 oder sogar 16 cores mit 2,66 ghz zu takten als wenn man einen Single oder Dualcore (theoretisch) auf den gleichen Wert takten würde, da die Programmierer ab jetzt eigentlich sich im klaren sein sollten, dass die Software heutzutage auf mehrere Threads aufgeteilt werden sollte/wird, da dies Singlecores um einiges Abhängen würde, in punkto performance.
 
Schön wäre es wenn die Kerne dann alle redundant wären. Wenn mir heute mein Singlecore abraucht, dann wars das. Der Gedanke, das bei redundanten Multicores ruhig mal ein Core sich verabschieden kann, nur mit der Auswirkung das die CPU ein paar Prozent an Geschwindigkeit verliert, würde mir schon gefallen. :)

Greetz
 
Ja ich wäre dir auch über ein Link (Wiki oder so) dankbar, um zu erfahren was genau du damit meinst. Thx
 
Ich glaube einige hier verstehen die Funktionsweise von Software nicht.
Nicht jedes Problem/Algorithmus ist beliebig oder überhaupt Parallelisierbar.
Da kann man auch 5000 Prozessoren haben und es bringt nichts.
Zudem ist irgendwann die Synchonisation der Prozessoren sehr aufwändig.

Ein Beispiel zum Übertragen:
Wenn 10 Leute kochen, geht vielleicht das schälen der Zwiebeln schneller, aber wenn man es dann kocht, geht es nicht schneller nur weil die 10 Leute um den Herd stehen.

Sonst vielleicht mal hier informieren:
http://en.wikipedia.org/wiki/Amdahl's_law
 
gloomyslayer schrieb:
Ein Beispiel zum Übertragen:
Wenn 10 Leute kochen, geht vielleicht das schälen der Zwiebeln schneller, aber wenn man es dann kocht, geht es nicht schneller nur weil die 10 Leute um den Herd stehen.

Ich liebe Kochen, besonders mit vielen Köchen:
- einer plant
- einer trägt Geschirr auf bzw. später Fertiggekochtes auf den Tisch
- einer holt Gläser und die Getränke, schenkt alles aus
- einer putzt Gemüse, organisiert den Zulauf
- einer schneidet und entsorgt die Bio-Abfälle
- einer "kocht", bestimmt die Reihenfolge, verteilt später auf auf Teller
- einer sorgt für Stimmung, Unterhaltung, Musik
- einer macht gar nichts, er räumt später ab und spült vor

O.k. waren nur acht, zwei müssen zu Hause bleiben :lol:
 
Ich halte Multicore langfristig für deutlich klüger als wenige Kerne mit mehr Takt.
Folgendes (theoretische) Beispiel: Mit anständig programmierter Software dürfte man damit rechnen, dass man die Leistung der verschiedenen Kerne einfach addieren kann. Eine DualCore mit 3Ghz hätte somit (theoretisch) 6Ghz Leistung. Eine Verdoppelung der Leistung bei selber Architektur kann nun folgendermaßen zu Stande kommen:
1. Ein 4-Kern-Prozessor mit 4*3Ghz = 12Ghz Leistung => doppelter Stromverbrauch durch doppelt so viele Kerne.
2. Ein 2-Kern-Prozessor mit 2*6Ghz = 12Ghz Leistung => doppelter Stromvernbrauch nur, wenn die internen Spannungen, usw. nicht erhöht werden müssten, was bei einer Verdoppelung der Taktraten bei einer CPU mit der selben Architektur unwahrscheinlich erscheint.

Eine sinnvolle Aufteilung der Arbeit zwischen den Kernen, sollte langfristig realisierbar sein.
 
schon mal jemand daran gedacht das 16 kerne vielleicht nicht alle als cpu genutzt werden sondern als grafikkerne, netzwerk, chipsets....
warum arbeitet intel wohl stark an der grafik und warum hat amd ati aufgekauft und nvidia macht sich auch schon sorgen...

cheers
 
"Nobody will ever need more than 640k RAM!"

@lordnaikon

So dramatisch... wo hastn den Satz her ?

meintest du (Original engl.: "640 kB ought to be enough for anybody.") Was auf deutsch heisst "640 kB sollten eigentlich genug für jeden sein."? Er sagt selbst, das Gegenteil behauptet zu haben.

http://de.wikiquote.org/wiki/Bill_Gates


mfg

p.s. am besten den dazugehoerigen Link im Wikiquote durchlesen. Eigentlich sollten wir diesem Mann dankbar sein.
 
Zuletzt bearbeitet:
Zurück
Oben