• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News IBM liefert Prozessor für Nintendo Wii aus

@18: wahrscheinlich meinen die eine takterhöhung und damit einhergend eine erhöhung der rechenleistung
 
Mist erzählt... Sry :D Lesen bildet;)

Tortzdem wird es der Wii wohl pünktlich an den Start schaffen... Im gegensatz zu anderen... :D
 
Zuletzt bearbeitet:
ComputerBase schrieb:
IBM Test Engineer Jim Myers inspiziert eine Charge von Broadway-Prozessoren für Nintendos Wii im IBM Burlington Testcenter (Vermont, USA) (Bild 1/26)
Nicht, dass ich mich zum Retter unserer Muttersprache aufspielen will, ich gehör auch zu denen, die "Threads" "Disskussionsfäden" vorziehen, aber zumindest "Engineer" hat doch ein verständliches deutsches Pendant, oder ;)
 
dann ist IBM doch noch nicht am Ende mit der Produktion der Power Architektur nachdem Apple umgesattelt hat.
 
abgesehen von allem finde ich das obere bild aber göttlich - warum steht da nicht als bildunterschrift "vom schwein und dem uhrwerk" *lol*
 
@11
mal nicht übertreiben, hat schon seinen grund warum apple ibm den rücken gekehrt hat
 
ScheinTOT schrieb:
Selbst meine PSP hat nen Dualcore. .

Toll.
Selbst der Sega Saturn baute schon auf Dual-Core-Architektur. Theoretisch wäre es mit der Konsole möglich gewesen, doppelt so viele Polygone wie mit der Playstation1 darzustellen, aber die beste Prozessorarchitektur bringt einem nichts, wenn die meisten Entwickler aus Kosten- oder Zeitgründen nur einen Kern unterstützen...
Im Übrigen hatte der Saturn neben 2 Hauptprozessoren noch 6 Co-Prozessoren - gemerkt hat man davon im Vergleich zur PS1 aber nichts.

@Topic:

Die Kombination IBM/Nintendo/Ati hat schon beim Gamecube gut geklappt (ordentliche Leistung, sehr gute Bildqualität), dann wirds beim Wii auch klappen.
Zwar ist die Taktung der Wii-CPU im Vergleich zu aktuellen Desktop-CPUs geradezu mickrig, man darf aber auch nicht vergessen, dass die Konsole a) kein ressourcenfressendes Windows im Hintergrund laufen hat, und b) die Konsole nur niedrige Auflösungen berechnen muss.
Spielt mal Doom3 mit 1600x1200 und dann mit 640x480, dann seht ihr, wieviel Leistung alleine dadurch verloren geht, um ein Spiel in einer so hohen Auflösung zu berechnen.
 
Taktrate hat mit Rechenleistung sehr wenig zu tun.
GPUs(300-700Mhz) arbeiten auch mit relativ wenige Mhz im Vergleich zu den CPUs(-3700Mhz), die Mhz gehen mit jeder neuen CPU Generation sogar hinunter......

Die Frage ist viel mehr, was der Core pro Takt so tut.
 
Fraqq schrieb:
und b) die Konsole nur niedrige Auflösungen berechnen muss.
Spielt mal Doom3 mit 1600x1200 und dann mit 640x480, dann seht ihr, wieviel Leistung alleine dadurch verloren geht, um ein Spiel in einer so hohen Auflösung zu berechnen.
Bei den jetzt immer mehr verbreiteten LCD- und Plasma-Geräten, zieht das mit der niedrigen Auflösung nicht mehr.
Wenn dann noch HDTV ins Spiel kommt...


Kann für Nintendo nur hoffen, das genügend Chips vorhanden sind, um weltweit zu starten.
IBM kann das aber bestimmt wuppen.
 
@Rasemann: Mein Mikroprozessor-Prof würde dir jetzt eine ohrfeigen! ^^
Also die Taktrate ist entscheidend für die Rechenleistung, so ist das nicht. Innerhalb einer Architektur kann die Taktrate Berge versetzen, weil der Takt wie ein Schrittmacher für das Ausführen von Befehlen anzusehen ist. Mehr Takt = Mehr durchgeführte Befehle.

Wenn man allerdings zwischen verschiedenen CPU-Architekturen unterscheidet, dann sind neben den Taktraten noch die "Circles Per Instruction" und das "Pipelining" wichtig (neben der Busbreite des Systems / des Prozessors).
Circles Per Instruction sagen aus, wie viele Taktzyklen ein Prozessor braucht um einen Befehl auszuführen. Wenn der Wert klein ist, brauchts nicht so viel Takt, wenn der Wert groß ist umso mehr. Pipelining sagt aus, wie viele Befehle gleichzeitig ausgeführt werden können und die Busbreite sagt aus, wie groß die "Datenwörter" sein können, um in einem Rutsch bearbeitet werden zu können.

Nur mal so als kleiner Exkurs! ^^ Hab heute Rechnerarchitektur-Klausur geschrieben und bin noch voll auf dem Tripp...
 
ibm wird bestimmt mehr wii prozessoren in einem jahr liefern als sie bei apple in den letzten 10 jahren abgesetzt haben :D
ausserdem ist ne desktop cpu furchtbar überladen, segmentierung, 16-bit befehlssatz und vieles mehr was eine geschlossene konsole nicht benötigt...
 
Der Wii Hauptprozessor wird mit Sicherheit sehr leistungsstark!

Immerhin ist der Wii Chip fast 1 Jahr moderner als die 360 CPU.

Und von hohen Auflösung und HDTV braucht keiner anfangen zu quatschen!
1280*720p ist keine hohe Auflösung, das kann jeder PC schon seit etlichen Jahren.
Die PS3 kann auch kein FullHD 1920*1080p. Nur wenn die Grafik billig ist, dann kann die Auflösung hochgeschraubt werden.

Meine Grafikkarte (270,- Euro) stört sich jedenfalls nicht an 1920*1440p bei CS:S auf maximalen Details, 4xFASS, 16xAF und rendert fleißig über 60 fps!

Doch die CPU bringt bremst die Framerate. Da der Wii "nur" 720???*480p rendern muss, braucht er auch keine 3 GHz, Antialiasing und Texturfilterung übernimmt ohnehin der Grafikchip.
Wieviele Pipelines und MHz dieser hat würde mich eher interessieren als die CPU.
Doch auch hier braucht der Wii-Grafikchipnicht nicht annähernd so viel Leistung bringen, wie die 360/PS3. Jeder Pixel frißt Leistung, egal ob das Bild "hochgerechnet" ist oder wirklich mehr Bildinformation enthält. Die Wii Auflösung ist gerade mal etwas besser als 640*480 von uralten PC Spielen. Darüber lacht ein moderner Grafikchip.

MFG

McDaniel-77
 
Zuletzt bearbeitet:
Schön zu hören das der Chip jetzt von IBM ausgeliefert wird. Dann wird es auch genügend Konsolen zum Launch geben. Hört sich auf jeden Fall besser an, als die News von Sony bzgl. des PS3 Launchs in Europa!
 
Zurück
Oben