• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News PCs bald mit Steckkarten zur Physikberechnung?

Rouven

Quoten-DJ
Registriert
Juni 2001
Beiträge
131
Geht es nach den Visionen eines Ausstellers der diesjährigen Games Developers Conference (GDC 2005), scheinen sich nach Central Processing Units (CPUs) und Graphic Processing Units (GPUs) nun auch PPUs, Physics Processing Units, am Horizont abzuzeichnen.

Zur News: PCs bald mit Steckkarten zur Physikberechnung?
 
Das könnte die Computerspiele revolutionieren und konsolenähnliche zustände beim Pc einbringen. Speziell auf die Karte optimierter Code braucht keine 10Ghz CPU mehr sondern entlastet das gesamte System. Ich bin sehr gespannt.
 
Na toll, dann darf ich in Zukunft also auch noch meinen Physikbeschleuniger regelmäßig upgraden. Nee Danke, da hab ich lieber ne Leistungsstarke CPU im Rechner, die is wenigstens zu mehr nütze als Spielchen toll zu machen.
 
ich versteh kein wort... wozu soll das gut sein? :)
 
ludieku schrieb:
Den Begriff "schmipft sich" finde ich unpassend und unseriös!
Für micht fällt sowas eher unter Umgangssprache. Über welche völlig belanglosen Sachen sich einige Gedanken machen :rolleyes:
 
Für mich ist der Sinn von so einer Karte das ich als Benutzer nicht ständig aufrüsten muss. Ich hoffe das der Hersteller das genau so sieht und nicht alle paar Monate eine neue, schnellere und bessere Karte rausbringt. Die Spielprogrammierer wissen genau das der Computer immer Rechenstärker wird, warum sollen sie ihren Code optimieren wenn das Spiel einfach einen schnelleren Pc bräuchte?
 
Einerseits freut es mich das zu hören, weil dadurch eine enorme Steigerung der Rechenleistung für Physikeffekte eintritt, andererseits wird es wohl nicht lange dauern, bis die Preise bei Grafikkartenähnlichen Zuständen angekommen sind.

Bloß, dass dann nicht einfach die Physik runtergeschraubt werden kann, weil sich diese ja durch die neuen Möglichkeiten massiv auf den Spielablauf auswirken würde.

Jetzt würde ja eigentlich bloß noch eine Karte für künstliche Intelligenz fehlen und die CPU ist fast arbeitslos. :D

Gruß MOB
 
Ich finde es schwachsinnig jetz auchnoch einen Physikbeschleuniger in seinem Rechner haben zu müssen.
Sollen sie lieber die GPUs mit Vertex und Pixelshader flexibler machen, und der CPU damit Arbeit beim Physik-berechnen abnehmen.

Ich persönlich hoffe ja, dass sich sowas nicht durchsetzen wird. Nur ein weiterer Verbraucher in meinem PC, für den ich alle 1 1/2 Jahre Geld ausgeben muss, wenn ich aktuelle Spiele gut spielen will.
 
Zuletzt bearbeitet:
warum ist computerbase in letzter zeit so langsam?diese news hab ich schon vor knapp einer woche bei theinq gelesen.

hier mal ein bild solch einer karte.

ppu.jpg
 
Mich würde auch mal interessieren, für was eine solche Karte gut sein soll, belegt nur unnötig einen Steckplatz. Denn ob man heutzutage eine 3 oder 4 GHz (3000+ oder 4000+) CPU hat, macht so gut wie keinen Unterschied, da die CPU's ja eh net viel berechnen müssen.
 
Mensch, geil, ne Karte, die keine Anschlüsse hat, also auch nich mal n Slotblech.
Seh ich das eigentlich richtig, dass die abgebildete Karte auf einer Seite PCI- und auf der anderen Seite PCI-Express- Pins hat?
 
Also sooo tierisch leistungsföhig sieht die Karte nicht aus. Da ist ja noch nichtmal n Kühler drauf. Gibts irgendwo Info's was die Karte macht und wie schnell?
So langsam wird alles ausgelagert und man hat dann eine Spielkonsole mit einem nichts tuenden Prozessor der blos für's Windows zuständig ist mit dem man dann die Spiele startet, dann übernimmt die restliche Hardware. :-)
Naja da kann die CPU solange SETI@Home nebenbei machen wenn der Rest spielt. :-D
 
Ist das nun evtl. ein Schritt in Richtung Raytracing? :love: ;)

Wenn ja, würde ich soetwas durchaus begrüßen, denn heutige Grakas sind nicht mal annähernd dazu in der Lage dies zu berechnen, geschweige denn, heutige CPU's diese Informationen zu verarbeiten. Spezielle Karten könnten da durchaus in der Lage sein, uns "echt anmutende Welten" zu bescheren...

ABER mit Sicherheit wird dies nicht eine einmalige Anschaffung werden, die Industrie möchte ja gerne weiterhin Geld verdienen... :rolleyes:
 
Hmm finde das System zwar auch sehr komisch, aber ich meine irgendwo stand mal, das nen System was z.B. vorher 40 Gegener in Spiel darstellen kann, dann 40000 Gegener darstellen kann :o. Wenn das wirklich so ist, dann her damit, den die Karte kann garanatiert auch von andrer Software genutzt werden. :)

greetz faba
 
Ich halte die Idee für sehr gut. Auf www.anandtech.com ist noch ein längerer Artikel dazu.

Ich gehe mal davon aus, dass wenn sich der Physikbeschleuniger durchsetzt der Chip über kurz oder Lang auch auf die Graka kommt. Der PCI Express Bus ist schnell genug und die Kosten senkt es auch noch.
 
Einige Leute sind hier der Meinung, dass die CPU's ja gar ncihts mehr berechnen müssten. Wer auch immer das gesagt hat, der irrt gewaltigt. Wie sonst wäre eine gute Leistungssteigerung bei schnellen Grafikkarten mit schnelleren CPU's möglich? Es gibt einen großen Unterschied zwischen einem System mit einem AMD 3000+ und einer 6800 Ultra sowie einem AMD 4000+ und einer 6800 Ultra. Die Grafikkarte kann einfach nicht mit genügend Daten versorgt werden, da die CPU auch anderweitige Arbeiten ausführen muss. Gerade Informationen für die Physik eines Spieles sind sehr aufwändig und fordern eine CPU enorm.

Und hier kommt diese Karte ins Spiel! Sie entlastet die CPU im Bereich der Physikberechnungen und diese kann sich anderen Aufgaben widmen. Dadurch kann eine CPU mit 1800 Mhz (64 3000+) dann auch die Grafikkarte mit mehr Daten versorgen und das gesamte System läuft um einiges schneller.

Abgesehen davon ist die Berechnung von physikalischen Gesetzen extrem schwer für heutige CPU's und GPU's, sodass Raytracing undenkbar wäre. Wenn aber eine solche PPU Raytracing unterstützt, sind extrem realistische Welten denkbar (alleine der korekte Schattenwurf...). Auch hätte die GPU weniger zu tun, da sie u.a. bei der komplexen und ressourcenfressenden Schattenberechnung entlastet würde. Das würde detailliertere Texturen und mehr Details bei gleicher Belastung zulassen, oder insgesamt mehr FPS.

Irgendjemand hat gesagt, dass die Karte nicht leistungsfähig aussehe, weil sie keinen Kühlkörper hat. Blödsinn! Oder sind RAM's nicht leistungsfähig weil nicht alle einen Kühllkörper besitzen? Es gibt durchaus RAM's die Verschönerungsmaßnahmen unterzogen wurden und einen Heatspreader ihr Eigen nennen. Aber wie Tests zeigen, haben die meisten RAM's Wärmeleitfolie zwischen Bausteinen und Heatspreader, welche die Wärme eher am Übergang hindern und isolieren. Folglich sind derartige Lösungen unnötig.
Ebenso diesee PPU's. Mit 25W brauchen sie höchstens einen passiven Kühlkörper, der meiner Meinung sehr wahscheinlich noch kommen wird, da nicht jedes System viele Gehäuselüfter inne hat und somit wenig Konvektion besteht. Ohne passiven Kühlkörper wäre die Karte selbst mit 25W ausgeschmissen.
Wie sieht es denn mit Notebooks aus? Sind die CPU's nicht leistungsfähig weil sie lediglich 25W verbrauchen und das ganze Notebook für alle Komponenten nur einen Lüfter benötigt?



Kurz: Diese PPU's sind eine hervorragende Idee, die den PC meines Erachtens nach um einiges verschnellern werden.
 
Geht der Trend nicht neuerdings zu Mehrkernprozessoren, die dafür ausgelegt sind parallele Aufgaben zu bearbeiten? Einer dieser Cores könnte da doch bestimmt eine solche Aufgabe übernehmen... (Nach meinem Laienwissen) :)
 
Tukas schrieb:
Geht der Trend nicht neuerdings zu Mehrkernprozessoren, die dafür ausgelegt sind parallele Aufgaben zu bearbeiten? Einer dieser Cores könnte da doch bestimmt eine solche Aufgabe übernehmen... (Nach meinem Laienwissen) :)

Sicher ginge das, nur ist so ein Spezialchip deutlich effektiver als eine universelle Multicore CPU. Nur mal so aus der Luft gegriffen, behaupte ich, das dieser PhysEx bei 200MHz soviele Physikberechnungen leisten kann, wie ein normaler 2000 MHz CPU, Schließlich ist der Phys Ex darauf optimiert.

Trotzdem finde ich es ziemlich verschwenderisch für jede 3D Berechnung eines Spiels ne extra Karte zu bauen. 3D-Sound, 3D-Grafik(T&L) und jetzt auch noch 3D-Physik. Die Daten der 3D Szene müssen an alle Karten übertragen und gespeichert werden, was CPU und RAM belastet. Wenn M$ diesen neuen Grafikstandard verabschiedet, dann sollten sie gleich mal dafür sorgen das alles zentral berechnet werden muß. Also einen Standard für die gesamte 3D Szenerie. Dann braucht der Prozessor die 3D Daten nur einmal aufzubereiten und zu speichern und somit hätte man auch nur noch eine Steckkarte.Meinetwegen mit mehreren spezialisierten CPU's, obwohl sich das sicher einiges rationalisieren läßt. Die Berechnungen für 3D, ob Physik, Sound oder Grafik, sind sich sicher sehr ähnlich.
 
Zuletzt bearbeitet:
ich finde das einen schritt in die richtige richtung.

computerspiele sind in den letzten zehn jahren ein grosser markt geworden. es steht ausser frage, ob sich eine zusätzliche karte nur für computerspiele lohnt.

es erinnert mich an die voodoo-zeit. die performance einer reinen 3d-beschleunigerkarte war damals einfach gewaltig und bot deutlich länger reserven als heutige grafikkarten.

ausserdem ist es viel besser, eine extra karte herzustellen, als diese funktion auch noch in die ohnehin schon am limit laufenden grafikkarten zu verbauen.
meine vision ist, zwei oder drei karten im rechner, die je nur noch etwa 20W verbrauchen, aber zusammen in spielerelevanten berechnungen deutlich schneller sind, als eine einzelne karte, die 120W verbraucht.
 
Zurück
Oben