News PhysX-Karten ab Mai im Handel

Es ist echt bemitleidenswert, wie unqualifiziert und hetzerisch die meisten Aussagen über diese PhisX Karten sind.
Es wird gebuuuhht ohne Ende und zum Boykott dieser revolutionären Kreation aufgerufen. Dies jedoch mit dem Bewusstsein, dass die Havok Lösung um Längen besser sei. Ich habe selten solchen Schwachsinn zu lesen bekommen. Ich werde mir eine PhysX auf jeden fall kaufen, nicht um den Prozessor zu entlasten, sondern um Effekte die es nie vorher gegeben hat, zu erleben. Mir wird nicht suggeriert, ich bräuchte es. Aber ihr lasst euch ein suggerieren, Havok sei das Maß aller Dinge. Lasst eure Grafikkarten doch Physik berechnen und spielt mit 15-20 Frames, ich wünsche viel Spaß dabei. Auch müsst ihr Geld haben wie nix, wenn ihr euch einverstanden erklärt, bei jedem neuen Graka Kauf noch was für die Havok zu zahlen.

PhysX ist die bessere Lösung, eindeutig und ohne Zweifel, dies wird euch jeder bestätigen, der ahnung davon hat. Stellt euch doch mal vor, unsere CPU´s müssten die Grafik berechnen?? Auch hier wünsche ich frohes Pixelvergnügen.

Informiert euch lieber etwas und benutzt den eigenen Verstand, anstatt euch was eintrichtern zu lassen, um dann eine technologische Erungenschaft zu dämonisieren.

Soviel von mir...
 
[ACE].:SHARK:. schrieb:
. :)
und ganz lustig finde ich du macht die karte und die leute die für die karte sind runter und meinst dann aber selber "ich würde da erstmal erste tests abwarten"
das ist ne super einstellung !

Errrr das war an die Leute gerichtet die hier schon gleich Super schreien. Solllen erstmal Tests abwarten. Naja wenn jetzt noch eine Karte kommt dann wird es der PC noch schwerer haben gegen Konsolen. In USA sind PC Spiele schon in den Laeden am aeussersten Rand gedraengt... z.B EBGames. Der Trend geht eindeutig in Richtung Konsolen. Und anstatt mal den PC mit den hunderten von Grafikkarten zu vereinfachen kommt jetzt noch ne Karte. Ich finds Schwachsinn. Die Physik die in den Spielen im Moment ist und kommt z.b Crysis kann man auch ohne Physikkarte spielen. Je teuerer die Hardware desto mehr wird illegal kopiert. Und desto mehr setzen Firmen mehr auf Konsolen.
 
noxon schrieb:
..., aber die Prozessoren der neuen Konsolen sind schon extra darauf ausgelgt um die Bedürfnisse eines Spiels zu befriedigen. Ich spreche hier hauptsächlich vom Cell.
Nein, nein und nochmals nein, der PS2-Prozessor ist auch etwas, dass es in dieser Form nur in der PS2 gegeben hat und auch damals wurde, wie übrigens auch schon bei jeder anderen Konsole zuvor, vom Marketing groß rumgeschwelgt, das wäe jetzt ein "Spieleprozessor", es ist aber einfach ein Prozessor und fertig, dass dieser völlig anders aufgebaut ist als RISC86-Hardware ist ja schön und gut, macht ihn aber nicht gleich zu einem größeren Spielespezialisten.

Die XBox hat bewiesen, dass ein Pentium III 733 schneller ist als der superspieleoüptimierte PS2-Prozessor, zu dem Sony in dutzenden Präsetntationsfolien Werte präsentierte, die teilweise exorbitant über dem eines P3 lagen und behauptete, in der Praxis würde sich zeigen, dass der Prozessor doppelt so schnell wäre wie ein P3 733, dabei krebst er ihm in vergleichbaren Umgebungen erwiesenermaßen hinterher.

noxon schrieb:
...Der hat mit einer normalen x86 CPU kaum noch was gemein.
Hat ein Apple G5 auch nicht und trotzdem ist ein Apple G5 ein ganz normaler Prozessor für multimediale Computer.

noxon schrieb:
...Natürlich kann selbst der Cell nicht mit der PPU mithalten, aber er ist schon nicht schlecht. Bei einer 32Bit-Genauigkeit schafft der Cell eine Peak-Leistung von über 200 GFlops und der PPU "nur" knapp 100.
Marketingwerte sollte man nicht immer vergleichen, die 200 GFlops sind sowieso nur imaginär.
 
Zuletzt bearbeitet:
@242:
Das Konsolen zunehmend an Boden gewinnen finde ich zwar auch traurig, hat aber IMHO folgende Gründe:
*) PC-Spiele sind leichter zu kopieren (größeres Risiko für die Hersteller)
*) schwieriger zu entwickeln & testen (viele mögliche Konfigurationen)
*) Die Konsolen sind wesentlich billiger in der Anschaffung
Da die Konsolenentwickler bei der Architektur weder Altlasten mitschleppen müssen (die x86 Architektur hat Jahrzehnte auf dem Buckel!) noch Rücksicht auf andere Einsatzzwecke nehmen müssen, kann gnadenlos auf Preis bzw. Leistung optimiert werden. Da werden Konsolen immer einen Vorteil haben.
Daher denke ich, dass es gar nichts bringen würde, den PC zu vereinfachen, denn dann müsste man ihn auf eine Konsole "herunterfrisieren".
Der PC hat aber gegenüber den Konsolen aber einen entscheidenden Vorteil: Er ist aufrüstbar.
Deshalb nur mal so als Denkanstoss: Vielleicht ist die PPU kein Nachteil sondern ein Vorteil, schließlich haben die Konsolen keine und der PC damit möglicherweise einen Vorsprung bzw. eine Möglichkeit mitzuhalten!
 
seesharp schrieb:
...
Da die Konsolenentwickler bei der Architektur weder Altlasten mitschleppen müssen (die x86 Architektur hat Jahrzehnte auf dem Buckel!) ...
Der Code hat Jahrzehnmte Evolution auf dem Buckel, Evolution ist kein Stillstand und die Prozessorarchitektur ist mit dem NexGen 5x86 grundlegend revolutioniert worden, Thema RISC86, weswegen es dem G5 keinen Deut genutzt hat, keine "X86-Altlasten" zu haben und er eben trotzdem gegen Yonah abloost. ;)
 
MountWalker schrieb:
Nein, nein und nochmals nein, der PS2-Prozessor ist auch etwas, dass es in dieser Form nur in der PS2 gegeben hat ...

Ich sag doch, dass ich nciht von der PS2 und der Xbox rede, sondern vom Cell. Bei dem wurde speziell darauf geachtet, dass er sehr gut mit Multimedia-Aufgaben zurechtkommt. So zum Beispiel auch das parallele Dekodieren von mehreren hochauflösenden HDTV Videostreams und ähnliches.

Hat ein Apple G5 auch nicht und trotzdem ist ein Apple G5 ein ganz normaler Prozessor für multimediale Computer.

Aber du musst ja wohl zugeben, dass der Cell mit seinen 8 SPEs schon erheblich anders funktioniert, als ein G5. Die SPEs werden zwar von einem PowerPC-ähnlichem Prozessor gemanaged, aber die eigentlichen Aufgaben übernehmen die SPEs und da wurde schon drauf geachtet, dass sie zum Beispiel möglichst effektiv miteinander kommunizieren können um Ergebnisse schnell austauschen zu können. Der Ringbus, der die einzelnen SPEs miteinander verbindet, ist ein wichtiger Faktor für die hohe Leistung des Prozessors.

Leider kenne ich mich mit der Architektur nicht all zu gut aus, aber es ist doch logisch, dass auf gewisse Dinge bei dem Prozessor wert gelegt wurde und auf andere weniger. die Prioritäten wurden halt auf Spiele und Multimediaanwendungen gesetzt.


Marketingwerte sollte man nicht immer vergleichen, die 200 GFlops sind sowieso nur imaginär.

Wenn ich Marketingwerte genommen hätte, dann hätte ich 1,5 TFlops oder mehr geschrieben. Das hat Sony nämlich angegeben. Es ging sogar hoch bis auf 3 TFlops.

Aber es stimmt natürlich, dass die Werte nichts mit der Realität zu tun haben, es sind halt die theoretischen Maximalwerte. Ich sagte ja, dass die PPU wahrscheinlich mehr aus ihrer Rechenleistung macht, als der Cell, wenn es um Physik geht.
 
SirDrago schrieb:
Errrr das war an die Leute gerichtet die hier schon gleich Super schreien. Solllen erstmal Tests abwarten. Naja wenn jetzt noch eine Karte kommt dann wird es der PC noch schwerer haben gegen Konsolen. In USA sind PC Spiele schon in den Laeden am aeussersten Rand gedraengt... z.B EBGames. Der Trend geht eindeutig in Richtung Konsolen. Und anstatt mal den PC mit den hunderten von Grafikkarten zu vereinfachen kommt jetzt noch ne Karte. Ich finds Schwachsinn. Die Physik die in den Spielen im Moment ist und kommt z.b Crysis kann man auch ohne Physikkarte spielen. Je teuerer die Hardware desto mehr wird illegal kopiert. Und desto mehr setzen Firmen mehr auf Konsolen.


Es geht aber nicht um aktuelle physik. das man aktuelle spiele physik mit aktuellen spiele rechnern berechen lassen kann ist ja wohl nix neues. sollten wir deswegen auch die forschung für schnellere cpus und schnellere grafikkarten einstellen?

es ist ganz einfach so das ein spezialiserter chip wesentlich mehr leistung bringt, und somit wesentlich günstiger ist, als ein unspezialisierter chip. das ist ein fakt, da gibt es garnichts zu diskutieren. dementsprechend ist es absolut sinnvoll spiele PCs mit "sovielen spezialisierten chips wiem möglich vollzustopfen".

schließlich ist das doch immer genau DAS argument für konsolen - du schreibst es ja sogar selbst: konsolen sind für spiele optimiert, werden mit "spiele cpus geliefert" etc. dadurch sind sie schneller und billiger als PCs.

spezielisierte chips bringen genau das in den PC...

das eine solche karte den PC teurer macht ist nämlich totaler schwachsinn...
 
Siberian..Husky schrieb:
...
spezielisierte chips bringen genau das in den PC......
Nein eben nicht, sie sind sehr sehr viel mehr, als ein stink normaler, zweifachskalarer PowerPC-TricCore, wie er in der XB360 steckt.

Und nochmal @Noxon

Der Sony PS2-Prozessor ist "extrem übelst voll hammer auf Spiele optimiert", nicht anders als Cell, eine Architektur die du, entgegen dem Cell, auch ausschließlich in der PS2 findest, angeblich in der Spieleleistung doppelt so schnell wie ein Pentium III 733, der ja "voll hammer die übelste X86-Altlasten mitchleppt und vollstens nicht optimiert für Spiele ist", und komischerweise kam kein einziger Konsolentester zu dem Urteil, dass die XBox auch nur annähernd weniger CPU-Leistung gehabt hätte als die Sony PS2. Dieses erwige "das sind ja voll die Spieleoptimierten CPUs, die können Spiele viel besser berechnen" ist durch die XBox wiederlegt worden. Klar ist der Cell wieder etwas völlig neues, endlich hat mans geschafft sinnvoll Multiprocessing so verbinden zu können, dass der Compiler leichtere Arbeit hat als früher Resultate zu zaubern, die 8 SPEs gut auslasten, das ist gut und wichtig und schön und sicherlich auch hier und da ein Leistungsvorteil, es macht ihn aber nicht mehr zum spieleoptimierten Prozessor als den PS2-Prozessor, der nicht mehr spieleoptimiert war als der XBox-Prozessor, der ein einfacher Pentium III war.

Genausowenig wie Konsolen, trotz dass die PS1 eben mit überdeutlich schlechterer "Spieleleistung" als ein Pentium-Voodoo-PC sehr gut mit Spielen für Pentium-Voodoo-PC mithielt, weil die Spieleentwickler eben hervorragendes Design vollbracht haben, mit Sparen an den richtigen Stellen (warum wohl wurde Quake und Hexen II nicht auf die PS1 portiert), ohne 3D-Grafik auskommen werden sie irgendwann in der nächsten oder übernächsten Generation, also PS4 oder PS5, ohne PPU auskommen, bis dahin werden die Spielentwickler aber auch so tolle Resultate zaubern können, nicht, weil die Prozessoren alle Leistung hergeben würden, sondern weil sie schlichtweg gute Spieledesigner sind und ein reines Spiele-OS haben.

Um mehrere HDTV-Streams gleichzeitig flüssig auszugeben brauche ich keinen Cell, ich brauche vor allem ein dafür geeignetes OS, mit Windows oder Linux geht das nicht, da kann man bei Linux in kernelconfig rumoptimieren was man will, Linux und Windows sind nicht besonders für Multimedia geeignet, deshalb gibt es für einen speziellen Markt auch den BeOS-Nachfolger Zeta, der bei Videoberechnung, -bearbeitung usw. deutlich mehr Leistungsplus bringt als ein Cell.
 
Zuletzt bearbeitet:
musst du immer alles so wörtlich nehmen? :P

Ich meine das spezialisierte chips das in den PC bringen, was konsolen angeblich so viel besser und effektiver macht. daher war die "super spiele cpu" auch in anführungszeichen ;).
 
MountWalker schrieb:
Nein, denn Spiele sind nun wirklich das letzte, bezogen auf zeitkritische Anwendungen, was multithreaded wird - weswegen ja die ersten Spiele auch noch nicht wirklich gut multithreaded sind, die einzige spieleverwandte Anwendung die aktuell gut von Multithreading profitiert ist 3D Mark 06. ;)
Hmm... stimmst du mir damit eigentlich zu, oder wie soll ich das verstehen?
Schließlich gibt es auf Konsolen mehr multithreaded Spiele als auf dem PC. Die Anzahl der Xbox 360 Spiele überwiegt ja schon dem der PC-Spiele. :D
Aber 3dmark06 ist nicht die einzige Spieleanwendung, die davon profitiert. Mir ist auch nicht gerade aufgefallen, dass es überhaupt viel davon profitiert, wenn man nur den Benchmark durchlaufen lässt (CPU-Test mal ausgenommen). Profitiert nicht Quake4 gut von Multithreading? Ich kann mich eigentlich nur an den Core vs. AMDFX Benchmark erinnern, wo der Unterschied doch groß genug war.

Zu den Konsolen: Bin da Mountwalkers Meinung. Ich könnte mir aber auch vorstellen, dass eine PPU in einer NextnextGen-Konsole dennoch gut vorstellbar wäre. Mit 65 oder 45 nm (wir reden bei der NextnextGen immerhin von mind. 5 Jahren), aber nur soviele Transistoren wie jetzt ließe sich eine PPU kostengünstig produzieren und implementieren, wobei die CPU dann etwas entlastet wäre. Warum nicht?
 
@MountWalker 245: Natürlich hast Du Recht. Die x86-Architektur ist nicht stehen geblieben.
Trotzdem bleiben immer hinderliche Altlasten, z.B.
*) Die x86-Befehlswörter sind nicht gleich lang: Dadurch muss beispielsweise der Befehls-Cache immer byteorientierten Zugriff anbieten. Wären alle Befehlswörter immer gleich lang (z.B. Doppelwortgröße = 32-bit), könnte man den Befehls-Cache ein Quentchen effizienter designen.
*) Verschiedene Addressierungsmodi müssen unterstützt werden: 16-bit Adressierung mit Page und Index-register im Gegensatz zu 32-bit Adressierung mit flachem Adressraum (bei x64 zusätzlich 64-bit Adressierung mit flachem Adressraum)
*) Im 16-bit Modus sind auch viele Befehle und Register nicht verfügbar (VM-Management, User-Level, usw.) und müssen daher abschaltbar sein
*) Verschiedenste Adressierungsmodi für Datenwörter sind auch nicht gerade förderlich (direkte Adressierung, indirekte Adressierung über Zeiger wahlweise mit und ohne Index, usw.)
*) Last but not least die diversen Befehlserweiterung wie SSE1-3 und 3Dnow!, die zusätzliche Komplexität reinbringen
Das alles können die Konsolenentwickler bei Bedarf über Bord werfen, wenn eine neue CPU entwickelt werden soll und dadurch Komplexität sprich Transistoren sprich Produktionskosten sparen.
Die x86-Architektur ist nur noch deswegen "auf dem Markt", weil bereits derart viel Software dafür existiert und daher die Verbreitung enorm ist (und auch weiter bleiben wird). Rein technisch spricht nichts mehr dafür, ansonsten würden nicht alle modernen CPUs die x86-Befehlswörter in eigene Befehle (Mikroinstruktionen) zerlegen, um intern effizienter arbeiten zu können. Die enorme Codebasis ist auch der Grund, warum Konkurrenzprodukte wie der PowerPC, auf dem PC Markt keine Chance hatten. Weil die Verbreitung nie erreicht werden konnte, wurden die horrenden Entwicklungskosten eine CPU zu entwickeln nie in diesem Maß hereingespielt und damit jede Weiterentwicklung auf Dauer untergraben.
@248: Ich denke, Du musst aber auch ins Kalkül ziehen wann die PS2 herausgekommen ist und wann die XBox das Licht der Welt erblickt hat. Dadurch relativiert sich der Vorsprung der XBox wieder. Für die XBox 2 wurde auch keine x86-CPU mehr verwendet. Das hat sicher seinen Grund.
Und zum Thema Zeta: Rechenleistung zaubert kein Betriebssystem aus der CPU. Ein Echtzeitbetriebssystem wie Zeta ist Windows bei Echtzeitanwendungen (sprich allen Multimedia-Anwendungen) nur auf Grund der anderen Vorgangsweise des Schedulers überlegen und nicht weil mehr Rechenleistung zur Verfügung steht. Während "normale" OSs danach trachten jedem Prozess möglichst viel Rechenzeit zur Verfügung zu stellen (nach Bedarf), versuchen Echtzeit-OSs jeden Prozess möglichst regelmäßig eine Zeitscheibe zur Verfügung zu stellen. Beides hat Vor- und Nachteile. Bei Echtzeitanwendungen ist das Ergebnis nicht so wichtig, es muss nur rechtzeitig etwas da sein (bei Filmwiedergabe stört's nicht, wenn die Qualität kurzfristig minimal sinkt, Hauptsache die Framerate bleibt konstant). Sie profitieren daher von einer möglichst regelmäßigen Verteilung, auch wenn dies bedeutet, dass Rechenzeit möglicherweise vergeudet wird, nur um den "Takt" zu halten. Bei "normalen" Anwendung zählt nur ein richtiges Ergebnis (eine Tabellenkalkulation sollte schon genau rechnen ;-). Sie profitieren von möglichst viel Rechenzeit, da stören unregelmäßige Unterbrechungen nicht.
 
@239: Gerade Spiele können enorm von Parallelität profitieren. Es macht z.B. durchaus Sinn Soundausgabe, Grafikengine, Physik ;-) und KI in eigene Threads zu verlagern. Auf einem Rechner mit nur einer CPU geht der Schuss aber nach hinten los. Der einzige Vorteil, nämlich Dinge gleichzeitig erledigen zu können, ist bei nur einer CPU nicht gegeben. Dafür handelt man sich den Overhead durch Threadwechsel ein. Weit schlimmer ist aber, dass man dann dem Betriebssystem-Scheduler die Verteilung der Zeitscheiben überlassen muss. Wenn dieser dann der Meinung ist, dass die Grafikengine nun ein bischen länger die CPU benötigt, darf man eben mit stotterndem Sound weiterspielen ;-)
Deswegen kommen die Spiele mit Multi-Threading-Unterstützung erst mit beginnender Verbreitung von Dual Cores schön langsam auf den Markt.
 
ich finde es super wie alle auf einmal die berechnung der physik übernehmen wollen.
1. die physikkarte selber ^^
2. nvidia
3. nun auch ati :D https://www.computerbase.de/news/grafikkarten/atis-gpus-besser-in-physikberechnungen.15801/

was kommt da noch intel und amd ? :king:

ich find das nicht schlecht so kommt da bewegung rein.
und alle die gegen die physikkarten sind haben noch mehr zum maulen.
obwohl sie sicher selber bis spätestens in 2 jahren so ne karte oder eine der anderen lösungen nutzen. das ist immer so erst "so ein müll brauchen wir nicht,soll doch die cpu das machen" ja ja die hat halt auch nichts besseres zu tun ist doch eh immer so unterfordert :lol:
 
also überladene spiele beispielsweise muss man eigentlich nicht befuerchten denk ich, aber es wird alles so viel realer im spiel und action spiele duerften in puzzeln u.ä. definitiv sehr von profitieren.
die physik in hl2 zb is ja ne nette spielerei, aber stößt auch mal schnell an ihre grenzen, weil alles simplifiziert ist; gegenstaende haben den schwerpunkt bestimmt immer in der mitte, usw
 
seesharp schrieb:
...
Die x86-Architektur ist nur noch deswegen "auf dem Markt", weil bereits derart viel Software dafür existiert und daher die Verbreitung enorm ist (und auch weiter bleiben wird).
Nein, die Abwärtskompatibilität wird schlicht immer gefordert, deswegen ist PS/2 gefloppt. Ich kenne auch keinen Apple G5 oder Sun UltraSPARC, der nicht auch eine 32b-CPU wäre. ;)

seesharp schrieb:
...Rein technisch spricht nichts mehr dafür, ansonsten würden nicht alle modernen CPUs die x86-Befehlswörter in eigene Befehle (Mikroinstruktionen) zerlegen, um intern effizienter arbeiten zu können.
Sie haben die Nachteile einer CISC-Architektur damit weitestgehend behoben, das bedeutet noch lange nicht dieser "Mittelweg" wäre deutlich schlechter als reine RISC-Architekturen - sonst wäre Apple nicht auf X86 umgestiegen. Die Codebasis scheint mir als Grund nicht vollstens plausibel, da auf Windows und MacOS X für verschiedene Funktionen auch weiterhin unterschieldliche Libs benutzt werden. Ich glaube nicht, dass MS Office auf Mac COM oder .Net zur Verfügung stehen und Quicktime wird auf Windows auch in Zukunft kein Cocoa haben. ;)

Klar das erwirtschaftete Geld spielt eine Rolle, aber verschiedene RISC-Architekturen haben ja über die Konsolen auch eine ganze Menge Geld für die Entwicklung eingespielt.

seesharp schrieb:
...@248: Ich denke, Du musst aber auch ins Kalkül ziehen wann die PS2 herausgekommen ist und wann die XBox das Licht der Welt erblickt hat. Dadurch relativiert sich der Vorsprung der XBox wieder.
Nein, denn das Argument bezieht sich auf Sonys Proklamation in der Praxis wäre der PS2-Prozessor in vergleichbarer Umgebung doppelt so schnell wie ein Pentium III 733 - ist für Sony halt dumm gelaufen, dass Microsoft ein Jahr später einen vergleichbaren Prozessor in seine Konsole eingebaut hat. :p
 
Zuletzt bearbeitet:
So ich geb auch einfach ma meinen Senf dazu..

Vielleicht bringen die Links hier die Leute die der meinung sind das die Karte und das ganze Konzept scheisse is ma zurück auf den Boden der Realität.

http://personal.inet.fi/atk/kjh2348fs/ageia_physx.html

Ich jedenfalls werd mir ne Schale an meinen PC-Sessel bauen damit mir die Freudensoße die das Bein hinunterlaufen wird wenn die Karte in meinem PC steckt und die passenden Spiele über meinen Monitor rauschen nicht den Teppich versaut!
Bis dato könnt ihr die Physik bestaunen die dafür verantwortlich ist das eure Tasten auf der Tastatur genau den Bullshit weitergeben den ihr euch sonst wo herkramt.

Allen anderen viel spaß damit :D
 
Zuletzt bearbeitet:
[ACE].:SHARK:. schrieb:
ich finde es super wie alle auf einmal die berechnung der physik übernehmen wollen.
1. die physikkarte selber ^^
2. nvidia
3. nun auch ati :D https://www.computerbase.de/news/grafikkarten/atis-gpus-besser-in-physikberechnungen.15801/

was kommt da noch intel und amd ? :king:

Mit AMD könntest du gar nicht so daneben liegen. Anscheinend führen die Gespräche mit Clearspeed über die Möglichkeit den AMD-Prozessoren einen Cell-ähnlichen Co-Prozessor zur Seite zu stellen.

Clearspeed entwickelt bereits Co-Prozessoren, wie zum Beispiel den CSX600. Der ist schon kein schlechtes Teil mit 96 cores und 25 GFlops double precision bei 500 MHz. Der Cell erreicht mit seinen 3,2 GHz ungefähr die gleiche Leistung.


MountWalker schrieb:
...es macht ihn aber nicht mehr zum spieleoptimierten Prozessor als den PS2-Prozessor, der nicht mehr spieleoptimiert war als der XBox-Prozessor, der ein einfacher Pentium III war.

Also das stimmt einfach nicht. Der Cell ist keine normale CPU. Der hat noch nicht einmal ein vollwertiges Instructionset, weswegen man ihn nicht als multipurpose CPU verwenden könnte. Viele Instructions nach dem IEEE Standard sind für die Spieleverarbeitung einfach nicht nötig und deshalb wird auch nur ein Subset dieses Standards verwendet.

Die SPEs haben außerdem keinen direkten Speicherzugriff, keinen Cache und eine Branchprediction kennen die auch nicht. Alles Eigenschaften, die eine normale CPU haben sollte um effektiv als multipurpose CPU arbeiten zu können.
 
Zuletzt bearbeitet:
@255: "Nein, die Abwärtskompatibilität wird schlicht immer gefordert, deswegen ist PS/2 gefloppt. Ich kenne auch keinen Apple G5 oder Sun UltraSPARC, der nicht auch eine 32b-CPU wäre. ;)"
Und wer fordert immer die Abwärtskompatibilität? Jene Firmen, die bereits massig Software für den x86 entwickelt haben und ihre Investitionen schützen müssen. Damit ist jedes Alternativprojekt von vornherein zum Scheitern verurteilt, da es sich schlicht niemand leisten kann die gesamte alte Softwarebasis über den Haufen zu werfen und anzupassen/neu zu entwickeln. Was nützt schon eine tolle CPU die nur für Nischenprodukte verkauft werden kann?
"sonst wäre Apple nicht auf X86 umgestiegen"
Apple musste auf x86 umsteigen, weil IBM mit der Weiterentwicklung des G5 nicht vorankam. Das lag sicher nicht an IBMs Fähigkeiten (siehe Cell), sondern daran, dass die dafür notwendigen Investitionen für den kleinen Markt, den Apple bietet, zu riskant sind. Die Mobile-Variante des G5 liess jahrelang auf sich warten und wird nun wohl nie mehr kommen. Einen G5 Dualcore wird's wohl auch nie mehr geben. Damit blieb Apple gar keine andere Wahl, obwohl die Umstellung viel Schweiß und Tränen kostete und kosten wird.
Glücklicherweise ist Darwin auch in einer x86-Variante erhältlich und ein genialer Emulator (Rosetta) mildert die schlimmsten Härten. Außerdem ist es leichter zu verschmerzen, die relativ kleine Softwarebasis Apples umzustellen.
"über die Konsolen auch eine ganze Menge Geld für die Entwicklung eingespielt"
Richtig. Über die Konsolen und das ist der Punkt. Die Entwicklungs- und Produktionskosten sind gigantisch und IBM kann es sich einfach nicht leisten die Entwicklung des PowerPC über die Einnahmen aus dem Cell querzufinanzieren. Wenn der PowerPC an sich nicht genug Kohle abwirft, dann war's das.
"wäre der PS2-Prozessor in vergleichbarer Umgebung doppelt so schnell"
Ach so. Alles klar. Da hast Du natürlich vollkommen recht. Sonys Marketing hat da wieder Mal die Realität ordentlich verbogen ;-)
 
seesharp schrieb:
@255: "Nein, die Abwärtskompatibilität wird schlicht immer gefordert, deswegen ist PS/2 gefloppt. Ich kenne auch keinen Apple G5 oder Sun UltraSPARC, der nicht auch eine 32b-CPU wäre. ;)"
Und wer fordert immer die Abwärtskompatibilität? Jene Firmen, die bereits massig Software für den x86 entwickelt haben und ihre Investitionen schützen müssen.
Apple G5 und Sun UltraSPARC sind X86-Prozessoren? Das ist mir aber neu! ;) Die Frage ist, warum auch die ach so ultramodernen reinen RISC-Architekturen wie Apples G5 und Suns UltraSPARC 32b rechnen können, wo doch angeblich X86 die böse Abwärtskompatibilität exklusiv gepachtet hat. Ist die SPARC32- oder die PPC32-Codebasis etwa auch zu schade um alles für 64b umzuschreben? ;)

Und warum wird der Apple PowerMac G5 vor Jahren bei einem Test von Anandtech von einem der ersten Opteron-Systeme (Linux) überholt, wo doch IBM damals noch Entwicklung für PPC finanzierte, die ja nun von Konsolen und Serverfarmen (Power5) getragen wurde und PPC wegen fehlender Altlasten doch besser arbeiten sollte?
 
Zuletzt bearbeitet:
@MountWalker: Ich hab das Gefühl wir reden aneinander vorbei. Natürlich sind weder G5 noch UltraSPARC x86-Prozessoren. Klarerweise haben die dieselben Probleme mit Altlasten. Ich habe auch nie behauptet, das x86er das Problem exklusiv gepachtet haben. Ich habe lediglich davon gesprochen, dass die Konsolenentwickler es sich leisten können alles von Grund auf neu zu entwickeln und DAHER Altlasten nicht mitschleppen müssen. Wie noxon @257 so richtig schreibt, können diese es sich ja sogar leisten, die CPUs wirklich nur auf das Nötigste zu reduzieren, was bei einem Multipurpose-Prozessor in dieser Weise keinen Sinn machen würde.
Durch diese Einsparungen kann das Preis-/Leistungsverhältnis deutlich optimiert werden. Das Multipurpose-CPUs deswegen grundsätzlich schlechter sind, habe ich nicht behauptet. Ich glaube, da sind wir uns einig. Diesen Vorteil können die Konsolenhersteller aber zu in zweierlei Richtung nutzen: entweder den Takt höher zu schrauben oder die Produktionskosten entsprechend zu senken.
Wenn eine Konsole herauskommt und ich einen PC mit gleichwertiger Leistung zusammen stelle, dann kommt mich die Konsole immer wesentlich billiger und das sicher nicht nur durch die Subvention der Produktionskosten von Seiten der Hersteller. Das ist mein Punkt.

Zum Vergleich G5/Opteron: Das ist sicher richtig, aber der G5 markiert ja auch schon den Punkt, an dem die PowerPC-Architektur am absteigenden Ast ist/war. Die Vorgänger wie G3 und G4 waren zu der Zeit den entsprechenden x86ern um Häuser überlegen, konnten sich aus den genannten Gründen aber nie am Markt durchsetzen. Schon 1998 hat ein Prof auf der TU Wien den Untergang des PowerPC prophezeit und er hat wirklich Recht gehabt.
 
Zurück
Oben