BlueBird-XT
Cadet 4th Year
- Registriert
- Mai 2005
- Beiträge
- 105
Um hier mal bezüglich dieser utopischen Mutmaßungen aufzuräumen ,
die meisten hier argumentieren ja so , dass es sich gleich verhält (verhalten wird)
wie die Entwicklung der GPU's ABER , wer so argumentiert , dem fehlen einige Kenntnisse
über Rechnerarchitektur und Ähnliches .
Wer behauptet CPU's wären nicht dafür geeignet , bestimmte Formel auf großen Datenmengen
anzuwenden , der weis nicht was SIMD heißt und bedeutet (Single-Instruction-Multiple-Data) .
Es ist zwar richtig , dass man einen hypotetischen 1000Ghz P4,Ahtlon... bräuchte um die
Grafikberechnungen per CPU zu erledigen (dann auch mit 3.0 Shadern), aber die Datenmengen stehen definitiv nicht im
Vergleich zu den Physikberechnungsdaten sowohl von der Menge als auch der Art der Daten.
Nun zum SIMD , was glaubt ihr warum es Befehlssätze wie MMX,3DNOW,SSE,SSE2,SSE3 ... gab und gibt ?
Ganz einfach , um große Matrizen in wenigen Takten zu multiplizieren , oder einfach halt damit
zu rechnen (deswegen auch SingleInstruction) .
Wenn man jetzt noch die Entwicklung zu 2/4/8 - Core CPU's sieht ergibt sich
folgendes Leistungsbild :
CPU-Perf(Theoretisch) = 25(Befehlsatzleistungsfaktor) * 1(Cpu-Kerne) * 4.5Ghz(entspricht 4500+ bei AMD)
CPU-Perf = 112,5Ghz
Etwas realistischer (mit 2 Kernen) :
CPU-Perf = 15 * 2 * 4.5Ghz
CPU-Perf = 135Ghz
Zur Erklärung :
der Faktor 25 ist fast nicht erreichbar , aber es gibt optimierte Algorithmen
die es auf knapp 20 (bei MMX,SSE,SSE2 ...) bringen , die Anzahl an Kernen wird auch noch steigen
und sicher die Leistung auch .
---------------------------------------------------------------------------------------------------------------------
Damit ist der Beweis erbracht , eine PPU iss überflüssig
die meisten hier argumentieren ja so , dass es sich gleich verhält (verhalten wird)
wie die Entwicklung der GPU's ABER , wer so argumentiert , dem fehlen einige Kenntnisse
über Rechnerarchitektur und Ähnliches .
Wer behauptet CPU's wären nicht dafür geeignet , bestimmte Formel auf großen Datenmengen
anzuwenden , der weis nicht was SIMD heißt und bedeutet (Single-Instruction-Multiple-Data) .
Es ist zwar richtig , dass man einen hypotetischen 1000Ghz P4,Ahtlon... bräuchte um die
Grafikberechnungen per CPU zu erledigen (dann auch mit 3.0 Shadern), aber die Datenmengen stehen definitiv nicht im
Vergleich zu den Physikberechnungsdaten sowohl von der Menge als auch der Art der Daten.
Nun zum SIMD , was glaubt ihr warum es Befehlssätze wie MMX,3DNOW,SSE,SSE2,SSE3 ... gab und gibt ?
Ganz einfach , um große Matrizen in wenigen Takten zu multiplizieren , oder einfach halt damit
zu rechnen (deswegen auch SingleInstruction) .
Wenn man jetzt noch die Entwicklung zu 2/4/8 - Core CPU's sieht ergibt sich
folgendes Leistungsbild :
CPU-Perf(Theoretisch) = 25(Befehlsatzleistungsfaktor) * 1(Cpu-Kerne) * 4.5Ghz(entspricht 4500+ bei AMD)
CPU-Perf = 112,5Ghz
Etwas realistischer (mit 2 Kernen) :
CPU-Perf = 15 * 2 * 4.5Ghz
CPU-Perf = 135Ghz
Zur Erklärung :
der Faktor 25 ist fast nicht erreichbar , aber es gibt optimierte Algorithmen
die es auf knapp 20 (bei MMX,SSE,SSE2 ...) bringen , die Anzahl an Kernen wird auch noch steigen
und sicher die Leistung auch .
---------------------------------------------------------------------------------------------------------------------
Damit ist der Beweis erbracht , eine PPU iss überflüssig