• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News PCs bald mit Steckkarten zur Physikberechnung?

Ich versteh auch nicht, was dein Problem ist. So kann sich die CPU auf andere Sachen konzentrieren. Z.B ne noch viel komplexere KI!

Bessere KI+Tolle Physik(und mit entsprechender GraKa: +SuperGrafik ^^)=ich bin dabei :lol:
 
Ums kurz zu sagen, mir reicht schon ne teure Grafikkarte. Ich dachte der Shader 4.0 sollte viele physikalische Berechnungen vereinfachen - bevor die Spezifikationen dafür ziemlich abgespeckt wurden. Jetzt kann man sich natürlich fragen wieso.

ps.:Damals war ne Voodoo3 für 300,-DM schon ein happiger Preis, wenn man heute die Preise sieht dann bekommt man erst richtig das Kotzen. Und dann noch ne teure Karte dabei? Nä.
 
ja ich hab gelesen das Nvidia eine eigene Physik shader einheit in den neuen Geforce Karten die das Shader Model 4 unterstützen einbauen wollt microsoft hat aber die auflagen geändert und das shader model 4 beschnitten.
Ja ich würde auch nicht 500€ zahlen für nen physik chip da würd ich die erfinder fragen ob die ein wenig :freak: sind. Wenn das tei 100-200€ kostet dann were es sicherlich vertretbar und denkmal daran das du das teil sicher länger hast als eine Graka
 
vander schrieb:
...
Die zusätzlichen Funktionen sollten nicht in die GPU der Graka integriert werden, sondern als zusätzliche Spezial CPU's auf einer Karte verbaut werden. Dadurch würde die GPU auf Funktionen zum Texturieren reduziert und die erforderlichen Daten für die 3D Berechnungen müssten für Sound, Grafik und Physik nur einmal berechnet und gespeichert werden....

Ich schon etwaslänger her, aber eine Bemerkung muss ich dazu dennoch loswerden:
Auf Fähgigkeiten zum texturieren beschränlt wäre eine GraKa heutzutage nicht viel wert. Das texturieren vollführt der Hardware-Rasterizer, ein Chip der mit Rasteriesung die 3D-Landschaft , ganz wie im Star-Trek-Holo-Deck nachbildet, er holt sich Informationen über die Drahtgitter von der CPU und kleistert Texturen drüberm, berechnet die erspektivenkorrektur, Alpha-Blöending und noch einiges anderes Zeug. Seit numehr fünf Jahren aber gibt es Shader-Karten, die Grafikkarten sind, erst nur mit Vertex, später ab Geforce 2 GTS auch mit Pixel Shader, programmierbar, Shader sind nicht Teil des Rasterizers und es bot sich hier, auch wenn Nvidia und ATI von Anfang an den Kombichip entwickelten, eine 2-Chip-Lösung an, das hatte 3Dfx erstmal auch geplant, auf VSA-100 sollte Rampage folgen, ein Rasterizer der gegenüber VSA nur mehr Rohleistung bot udn auch seine Effekte ua. T-Buffer weiterführt, neben ihm sollte auf die Karte Sage, ein Chip der ausschließlich für Shaderberechnungen gedacht war, auch die Folgegeneration sollte erstmal noch eine solche Zweichip-Karte werden - man könnte fast meinen dieser Weg sei für die Industrie auch interessant - doch ach, die dritte Generation nach Voodoo5 sollte auch bei 3Dfx ein Kombi-Chip werden; warum wohl?

Man kann jetzt nur spekulieren, weil 3Dfx die letzten Schritte nicht mehr erklährt hatte, warscheinlich ist aber, dass ein KombiChip mit der Leistung von rampage und Sage in zu dessen Release verfügbaren Fertigungstechniken zu viel Wärme produzierte und auf so kleiner Fläche nicht gebnügend Wärme hätte abführen können, dass also die Berechnungen auf zwei Chips verteilt wurden um die Wärmeabgabe zu verteilen, denn nur so erklährt sich, warum 3Dfx hoffte eines Tages doch noch beides, Rasterizer und Shader, wie die anderen in einem Chip zu fertigen.

Darüber hinaus entdeckt man, dass der Kombichip, welcher auch in allen einzelnen Fähigkeiten stark optimiert, schon immer ein erstrebtes Ziel der Industrie gewesen ist:
Erst brauchte man für den Rasterizer einen Extrachip auf einer extra Karte neben der 2D-grafikkarte, dann wurde, selbst bei 3Dfx, Rasterizer und 2D-Grafik in einem Chip gefertigt; erst brauchte man für MPEG-, später für MPEG-2-Hardware-Dekodierung eine extra Karte, dann wanderte der Videodecoder auf die Grafikkarte und schließlich wurde auch er in den Grafikchip integriert.

Anzunehmen, dass hier sowohl der extra Physik-Chip nur eine sinnvolle Übergangslösung sei und in einigen Jahren auch dies in den Grafikchip integriert werden könne ist also nicht völlig abwegig; Grafikchips sind schließlich bereits heute Multifunktionskünstler und dennoch in allen Einzelbereichen optimiert. ;)
 
Cowboy schrieb:
Ich finde es schwachsinnig jetz auchnoch einen Physikbeschleuniger in seinem Rechner haben zu müssen.
Sollen sie lieber die GPUs mit Vertex und Pixelshader flexibler machen, und der CPU damit Arbeit beim Physik-berechnen abnehmen.

Ich persönlich hoffe ja, dass sich sowas nicht durchsetzen wird. Nur ein weiterer Verbraucher in meinem PC, für den ich alle 1 1/2 Jahre Geld ausgeben muss, wenn ich aktuelle Spiele gut spielen will.

naja ich glaube nicht dass Vertex und Pixel-Shader zur Physikberechnung genutzt werden, eher wie der Name schon vermuten lässt zur Bilddarstellung
und es wird keiner gezwungen jeden Sch*** der Industrie zukaufen nur weil die sagen dass es gut ist
aber es wird trotzdem wieder ein wichtiger Schritt in Richtung Realismus
denn so wird der CPU die Arbeit genommen die zur schnellen Datenverarbeitung gewonnen werden kann

ich glaube es wird so sein wie es mountwalker profezeit hat
 
35712 schrieb:
Einige Leute sind hier der Meinung, dass die CPU's ja gar ncihts mehr berechnen müssten. Wer auch immer das gesagt hat, der irrt gewaltigt. Wie sonst wäre eine gute Leistungssteigerung bei schnellen Grafikkarten mit schnelleren CPU's möglich? Es gibt einen großen Unterschied zwischen einem System mit einem AMD 3000+ und einer 6800 Ultra sowie einem AMD 4000+ und einer 6800 Ultra. Die Grafikkarte kann einfach nicht mit genügend Daten versorgt werden, da die CPU auch anderweitige Arbeiten ausführen muss. Gerade Informationen für die Physik eines Spieles sind sehr aufwändig und fordern eine CPU enorm.

Und hier kommt diese Karte ins Spiel! Sie entlastet die CPU im Bereich der Physikberechnungen und diese kann sich anderen Aufgaben widmen. Dadurch kann eine CPU mit 1800 Mhz (64 3000+) dann auch die Grafikkarte mit mehr Daten versorgen und das gesamte System läuft um einiges schneller.

Abgesehen davon ist die Berechnung von physikalischen Gesetzen extrem schwer für heutige CPU's und GPU's, sodass Raytracing undenkbar wäre. Wenn aber eine solche PPU Raytracing unterstützt, sind extrem realistische Welten denkbar (alleine der korekte Schattenwurf...). Auch hätte die GPU weniger zu tun, da sie u.a. bei der komplexen und ressourcenfressenden Schattenberechnung entlastet würde. Das würde detailliertere Texturen und mehr Details bei gleicher Belastung zulassen, oder insgesamt mehr FPS.

Kurz: Diese PPU's sind eine hervorragende Idee, die den PC meines Erachtens nach um einiges verschnellern werden.
Das Problem ist nur, dass die CPU immer unwichtiger wird. Sie wurde eingentlich dafür entwickelt, um alles mögliche zu berechnen und die Architektur eines Rechners zu vereinfachen. Heutzutage jedoch berechnet nicht mehr nur die CPU die Grafik und den Sound, sondern bekommt diese Aufgaben zum Teil erheblich von der Grafik-, bzw. der Soundkarte abgenommen. Das fing so richtig mit DX7 und der T&L-Berechnung an, das von da an die Graka berechnet. Die CPU berechnet nunmehr nur noch die Physik, die KI etc.
Das heißt, dass die CPU kaum noch belastet wird. ATi hat zum Bsp. eine Möglichkeit gefunden, die brachliegende Rechenleistung einer CPU für die Grafikberechnung zu nutzen, deshalb sind die ATi-Karten mit den neuesten Treibern auch um so vieles schneller in HL² und Doom3 geworden.
Außerdem kann Raytracing ja bei den Dual- und Quadcore Prozessoren von den anderen DIE's berechnet werden. Es müssen nur entsprechende Befehle unterstützt werden, eventuell mit SSE4 oder so. Ergo sind PPU's total überflüsssig.

Die Zukunft sieht wohl eher so aus, dass eine CPU aus sehr vielen DIE's besteht, so wie der Cell-Chip. Am besten wäre es natürlich, wenn man nur noch eine CPU hätte, die aus mehreren DIE's besteht, wovon der eine die Grafik, der andere die Physik, ein weiterer die KI und ein anderer den Sound etc. berechnen würde. D.h. jeder DIE ist an seine entsprechende Aufgabe angepasst. Das würde die CPU enorm schnell machen, da die ganzen Daten nicht mehr über den PCI-Bus gejagt werden müssten. Das wäre wesentlich billiger und platzsparender. Meinetwegen entwickeln nVidia und ATI den DIE, der für die Graikberechnung zuständig ist, den DIE, welcher den Sound berechnet von den entsprechenden Soundkartenherstellern und der Rest dann von AMD und Intel.
 
du vergisst aber die enorme Wärmeentwicklung die dieser Chip dann hätten
 
Benji18 schrieb:
du vergisst aber die enorme Wärmeentwicklung die dieser Chip dann hätten
Das ist völlig egal, da der Chip ja ne sehr große Fläche hat, die die ganze Abwämre abgibt. Und da die ganzen Signalwege so kurz sind, steigt die Rechenleistung enorm an, iss dann so wie mit A64 Prozessoren und dem integrierten Speicherkontroller. D.h., man muss den Chip dann nicht mehr so hoch takten. Man könnte so eine CPU dann eventuell sogar passiv kühlen.

Was mir gerade noch dazu einfällt, ist, dass solch eine CPU nur noch auf einen gemeinsamen Speicher zugreifen müsste und so der Arbeitsspeicher, der Speicher der Grafikkarte (und der PPU) durch einen gemeinsam genutzten Speicher ersetzt werden würde, wodurch die Kosten nochmal enorm gesenkt werden würden.
 
Zuletzt bearbeitet:
cR@zY.EnGi.GeR schrieb:
Das ist völlig egal, da der Chip ja ne sehr große Fläche hat, die die ganze Abwämre abgibt. Und da die ganzen Signalwege so kurz sind, steigt die Rechenleistung enorm an, iss dann so wie mit A64 Prozessoren und dem integrierten Speicherkontroller. D.h., man muss den Chip dann nicht mehr so hoch takten. Man könnte so eine CPU dann eventuell sogar passiv kühlen.

Was mir gerade noch dazu einfällt, ist, dass solch eine CPU nur noch auf einen gemeinsamen Speicher zugreifen müsste und so der Arbeitsspeicher, der Speicher der Grafikkarte (und der PPU) durch einen gemeinsam genutzten Speicher ersetzt werden würde, wodurch die Kosten nochmal enorm gesenkt werden würden.

warum macht das keiner wenns so einfach ist? wenn firmen so die hälfte der produktionskosten sparen würde könnten sie viel mehr kohle verdienen wenn sie es nur ein klein wenig billiger verkaufen würden als die einzelkomponenten.

so funktioniert das aber leider nicht. wenn du den takt eines chips runterdrehst aber gleichzeitig keine leistung verlieren willst musst du mehr transistoren rein packen. größere chips können zwar die wärme besser abgeben als kleinere, aber nicht soviel besser. ausserdem sind große chips komplizierter und um einiges teurer herzustellen. ausserdem verbrauchen größere chips soweit ich weiß auch mehr strom.

bei der speicheranbindung darfst du auchnicht sparen. die aktuellen grafikspeicher sind viel schneller als der ram aufm mainboard. also entweder braucht man immernoch getrennten highspeed ram für sound/grafik/physik-einheit oder man baut da gleich 1.5gb gddr3 ram rein - und das wird sicher nicht billiger als es heute ist ;).

die kürzeren signale wegen bringen ganz sicher auch keine spürbaren performance schubb. aktuelle grakas sind ja nichtmal in der lage pci-express oder 8x-agp annähernd auszulasten.

wenn riesen chips efizienter wäre hätten wir heute 100mhz cpus die mehrere dm² groß sind.
 
@ Siberian Husky:
Lies doch mal Post #46 durch, ich glaub du hast da was völlig falsch verstanden. ;)

Siberian..Husky schrieb:
warum macht das keiner wenns so einfach ist? wenn firmen so die hälfte der produktionskosten sparen würde könnten sie viel mehr kohle verdienen wenn sie es nur ein klein wenig billiger verkaufen würden als die einzelkomponenten.
Das Problem besteht darin, dass die Firmen weniger verdienen würden, da man ja nur noch eine CPU hat. Wobei, eigentlich würden die ja sogar mehr Gewinn machen, denn wenn man eine bessere GPU haben möchte, muss man zwangsläufig eine solch neue CPU (Combine Prozessor Unit :) )kaufen. Auf jeden Fall müssen diese Firmen alle zusammenarbeiten, und da liegt wohl der Hund begraben.

Siberian..Husky schrieb:
so funktioniert das aber leider nicht. wenn du den takt eines chips runterdrehst aber gleichzeitig keine leistung verlieren willst musst du mehr transistoren rein packen. größere chips können zwar die wärme besser abgeben als kleinere, aber nicht soviel besser. ausserdem sind große chips komplizierter und um einiges teurer herzustellen. ausserdem verbrauchen größere chips soweit ich weiß auch mehr strom.
Diese CPU besteht aus einer GPU, APU, PPU und der normalen CPU. D.h., dass diese CPU aus wesentlich mehr Transistoren besteht, aber dennoch günstig zu produzieren ist, da es ja getrennte Cores sind. ;)

Siberian..Husky schrieb:
bei der speicheranbindung darfst du auchnicht sparen. die aktuellen grafikspeicher sind viel schneller als der ram aufm mainboard. also entweder braucht man immernoch getrennten highspeed ram für sound/grafik/physik-einheit oder man baut da gleich 1.5gb gddr3 ram rein - und das wird sicher nicht billiger als es heute ist ;).
Und die neuen Grafikkarten, die demnächst erhältlich sein werden, besitzen 1GB GDDR3 Speicher. Den könnte man dann direkt auf dem Mainboard unterbringen und so den Arbeits-, Grafikkarten und PPU-Speicher ersetzen.

Siberian..Husky schrieb:
die kürzeren signale wegen bringen ganz sicher auch keine spürbaren performance schubb. aktuelle grakas sind ja nichtmal in der lage pci-express oder 8x-agp annähernd auszulasten.
Und was die Signalwege betrifft, dauert es sehr lange, bis die Informationen der CPU bei der Grafikkarte angekommen sind. Das würde jetzt ultraschnell gehen, hat also nix mit 8xAGP oder 16xPCIe zu tun. ;)

Siberian..Husky schrieb:
wenn riesen chips efizienter wäre hätten wir heute 100mhz cpus die mehrere dm² groß sind.
*g*, die Transistoren werden immer kleiner und somit auch der DIE, damit jedoch die ganze Abwärme auch abgeleitet werden kann, hat AMD z.B. beim Barton den L2 Cache verdoppelt, deshalb wird diese CPU im Gegensatz zum Athlon XP erheblich besser gekühlt. Du kannst also eine CPU ncht einfach beliebig groß machen, denn dann müsste man sehr viel mehr Transistoren unterbringen und das macht die CPU sehr teuer, deshalb entwickeln AMD und Intel jetzt Dualcore und Quadcore-CPU's, da hat man nicht so einen großen Ausschuss.
Außerdem wie willst du denn eine winzige CPU von ein paar Millimetern richtig kühlen können? Deshalb werden ja die Prescott-Prozessoren so heiß, weil die in 90nm gefertigt werden und sehr klein sind.
 
Zuletzt bearbeitet:
dass ein core der cpu das eine, der zweite was anderes berechnen kann, macht die cpu deswegen noch nicht annähernd so schnell wie eine eigens dafür ausgelegte hardwarelösung.

noch so manches neuere spiel lässt sich mit ner voodoo2 spielen, in software unmöglich.
 
E.T. schrieb:
dass ein core der cpu das eine, der zweite was anderes berechnen kann, macht die cpu deswegen noch nicht annähernd so schnell wie eine eigens dafür ausgelegte hardwarelösung.

noch so manches neuere spiel lässt sich mit ner voodoo2 spielen, in software unmöglich.
Doch, denn jeder Core ist entsprechend seiner Aufgabe angepasst. Der eine Core beinhaltet Vertex- und Pixelshadereinheiten, der andere FPU und ALU, etc. ;)
 
Ganz nette Idee, aber wohl nicht sehr praktikabel. ;)
Was ist wenn du damit eine neue Grafikkarte einbauen willst? Den Superteuren "all-in-wonder-super-integrierten-cpu-apu-was-weiß-ich" in die Tonne kloppen, oder nur die GPU mit dem Dremel rausfräsen und eine neue einsetzen? :p
Das ganze sollte doch wohl auch ein wenig skalierbar bleiben, daher wirds so schnell nicht auf solche Komplettlösungen hinauslaufen. Ich könnte mir vorstellen dass man mit der PPU auch eine KI programmieren kann. Es gibt z.B. heute schon sowas in der Art, wo immerhin die Collision-Detection mittels Shaderprogrammen auf der GPU realisiert wird.
 
cR@zY.EnGi.GeR schrieb:
@ Siberian Husky:
Lies doch mal Post #46 durch, ich glaub du hast da was völlig falsch verstanden. ;)
ich glaube du hast keine ahnung wovon du redest, sorry...

cR@zY.EnGi.GeR schrieb:
Das Problem besteht darin, dass die Firmen weniger verdienen würden, da man ja nur noch eine CPU hat. Und diese Firmen müssten alle zusammenarbeiten.
warum sollten firmen weniger verdienen? wieviel sie verdienen bestimmen sie selbst. und wenn sie einen chip bauen der eine cpu, eine graka, eine soundkarte, eine ki-karte und eine physikkarte ist dann werdne sie die dinger immernoch so teuer verkaufen das sie damit ordentlich gewinn machen - wie immer. und wenn das ganze auchnoch, wie du sagst, billiger udn trotzdem in jedem bereich schneller wäre dann könnten sie sogar billiger verkaufen als die jetzigen extralösungen und dabei mehr geld verdienen! und das mit hardware die auchnoch schneller ist - wer würde das nicht machen?



cR@zY.EnGi.GeR schrieb:
Diese CPU besteht aus einer GPU, APU, PPU und der normalen CPU. D.h., dass diese CPU aus wesentlich mehr Transistoren besteht, aber dennoch günstig zu produzieren ist, da es ja getrennte Cores sind. ;)
mehrere cores oder einer ist vollkommen egal. eine multicore cpus ist ein chip. ein riesiger chip in diesem fall - und das wäre extrem teuer. wenn du mehrere chips nutzen willst wird das ganze genauso teuer wie es heute ist - nur das du die einzelenn chips nicht so gut tauschen kannst. und schneller wäre das ganze dann auchnicht.

cR@zY.EnGi.GeR schrieb:
Und die neuen Grafikkarten, die demnächst erhältlich sein werden, besitzen 1GB GDDR3 Speicher. Den könnte man dann direkt auf dem Mainboard unterbringen und so den Arbeits-, Grafikkarten und PPU-Speicher ersetzen.
was meinst du warum die nächste generation 1gb grafik ram haben wird? aus lange weile? nein - sie brauchen den extram ram, genau deswegen kommt der auf die platine. bessere texturen bedeutet mehr platz, bedeutet man braucht mehr ram. wenn du jetz nurnoch 1gb gddr3 ram für dein ganzes system nutzen würde hättest du wesentlich weniger als ein aktuelles system mit 1gb mainboard ram und 256mb graka ram - das ist doch wohl klar oder?

cR@zY.EnGi.GeR schrieb:
Und was die Signalwege betrifft, dauert es sehr lange, bis die Informationen der CPU bei der Grafikkarte angekommen sind. Das würde jetzt ultraschnell gehen, hat also nix mit 8xAGP oder 16xPCIe zu tun. ;)
wartum hat es damit nichts zu tun? meinst du die informationen fliegen von der cpu zur graka durch die luft? die gehen durch den pci-express bus oder durch den agp und derzeit geht das mehr als schnell genug. da sind bei pci-express noch genügend reserven für die nächsten graka generationen drin.

cR@zY.EnGi.GeR schrieb:
*g*, die Transistoren werden immer kleiner und somit auch der DIE, damit jedoch die ganze Abwärme auch abgeleitet werden kann, hat AMD z.B. beim Barton den L2 Cache verdoppelt, deshalb wird diese CPU im Gegensatz zum Athlon FX erheblich besser gekühlt. Du kannst also eine CPU ncht einfach beliebig groß machen, denn dann müsste man sehr viel mehr Transistoren unterbringen und das macht die CPU sehr teuer, deshalb entwickeln AMD und Intel jetzt Dualcore und Quadcore-CPU's, da hat man nicht so einen großen Ausschuß.
Außerdem wie willst du denn eine winzige CPU von ein paar Millimetern richtig kühlen können? Deshalb werden ja die Prescott-Prozessoren so heiß, weil die in 90nm gefertigt werden und sehr klein sind.

das ist vollkommen falsch. cpus können eben nicht einfach so immer weiter schrumpfen. mit der derzeitigen technik wird das nurnoch ein paar mal möglich sein bevor die cpus aufhören zu funktionieren(ein gate in einem transistor muss mehrere atome breit sein damit man keine probleme aus der quantenphysik bekommt - aktuelle gates sind nurnoch ein paar atome breit... und kleiner als ein atom wird wohl so schnell auch nix werden oder ;)). desweiteren werden kleine chips nicht gleich wärmer. wenn man eine kleinere fertigungstechnik nutzt werden sie sogar eigentlich kühler da man weniger spannung braucht damit die cpu funkti9oniert. der prescott hat einfahc kein gutes design für 90nm - normale 90nm chips sind kühler als die selben in groß. nur kleinere chips die im mit dem selben process gefertigt werden und genausoviel leistung verbraten sind pauschaul heisser als die größeren.

warum man mitlerweiel auch für den desktop dualprocessoren baut ist ein ganz anderer grund - nämlich das angesprochene problem das cpus kaum noch weiter schrumpfen können. man muss sich jetz langsam darum gedanken machen wie man anders mehr leistung aus seinen chips bekommt - vorallem da die verkleinerung des herstellungsprozesses jedesmal die vertigung deutlich teurer macht. und kurzfristig sind dualcores da ein sehr guter weg da man seine vorhandenen cpu designs weiter nutzen kann. langfristig muss man aber effizientere cpus bauen wie ibm es derzeit tut(ich meine dabei den G5, nicht cell ;)). die "einfach" mehr rechnen können pro takt.

dual cores haben eigentlich zu effizienteren chips nur den vorteil das sie wirklich sachen gleichzeitig vollkommen unabhängig tun können. für einen officerechner ist soetwas relativ wichtig da man so einen deutlich besseren arbeitsfluss bekommt. ein dual cpu/dual core system fühlt sich einfach geschmeidger an. das aber auch nur solange man wirklich paralelisierte software hat oder mehrere anwendungen paralel laufen. beides ist bei spielen derzeit nur bedingt der fall wodurch dual core cpus erstmal deutlich langsamer sein werden(derzeit sind die dinger mit 2ghz und weniger geplannt - wenn das spiel nur einen core effektiv nutzen kann läuft es also fast so langsam wie auf einer normalen 2 ghz cpu...)


es ist also vollkommen unmöglich (bei einem guten design) einen riesigen all-in-one chip zu bauen der gleichzeitig schneller und günstiger ist als mehrere kleinere einzel chips. von der wärmeentwicklung erstmal ganz abgesehen...
 
Zuletzt bearbeitet:
Green Mamba schrieb:
Ganz nette Idee, aber wohl nicht sehr praktikabel. ;)
Was ist wenn du damit eine neue Grafikkarte einbauen willst? Den Superteuren "all-in-wonder-super-integrierten-cpu-apu-was-weiß-ich" in die Tonne kloppen, oder nur die GPU mit dem Dremel rausfräsen und eine neue einsetzen? :p
Das ganze sollte doch wohl auch ein wenig skalierbar bleiben, daher wirds so schnell nicht auf solche Komplettlösungen hinauslaufen. Ich könnte mir vorstellen dass man mit der PPU auch eine KI programmieren kann. Es gibt z.B. heute schon sowas in der Art, wo immerhin die Collision-Detection mittels Shaderprogrammen auf der GPU realisiert wird.

Da muss ich Green Mamba rechtgeben was ist wenn du die Graka tauschen willst. Sowas wer schwachsin das zumindest die Graka nicht intigriet wird.
P.S. das die Prescotts so warm werden Hängt mit der wesentlich lengeren Datenleitung im Die zusammen.
 
Meiner Meinung nach wäre es sinnvoller die Spiele zumindest Dual-Prozessor-fähig zu entwickeln. Gerade in Bezug auf die neuen Intel-Dualcore-Modelle wäre das sinnvoll, da es viel besser skaliert als irgendeinene Physik-Engine auf Hardware-Basis. Insbesondere ist anzunehmen, dass der Bedarf für Rechenleistung für die Spielphysik viel langsamer steigt als der Bedarf an Grafikleistung und Bedarf an sonstiger CPU-Leistung (z.B. für KI). Folglich würde die Physik-Hardware obsolet werden (sie wird dann doch wieder von der CPU mitberechnet), wenn man nicht gerade den Earth-Simulator unterm Schreibtisch haben möchte. Von daher halte ich das gesamte Konzept für kritisch; insbesondere für die Unternehmen, die darin ihr Geld investieren.
 
@ Siberian Husky:
Du hast es immer noch nicht begriffen, oder? Schade, dabei habe ich versucht, es so gut wie möglich zu erklären, aber einige brauchen wohl extra Nachhilfe in Sachen Computerhardware. Ich habe zufälligerweise ein wenig Ahnung davon, denn ich bin ausgebildeter Fachinformatiker, der lernen musste, wie RISC/CISC Prozessoren, Mainboards, Grafikkarten, Arbeitsspeicher (musste ich sogar nachbauen, also AND, NAND, OR, NOR, XOR, XAND) etc. aufgebaut sind und wie man z.B. berechnen muss, wieviel Speicher eine Grafikkarte benötigt und wie man von Binär in Hexadezimal und Octal und Dual umrechnet. Und ich hatte nicht umsonst eine 1,0 in Systemtechnik. ;)

Also nochmal:
Es besteht ein erheblicher Unterschied zwischen einer einzigen großen CPU und einer CPU aus mehreren DIE's, denn wenn bei einem DIE mit 400 mio Transistoren ein Fehler bei der Produktion auftritt (z.B. durch ein Staubpartikel) und der DIE so weggeworfen werden muss, ist wesentlich teurer, wie wenn ein Fehler bei 4 DIE's mit jeweils 100 mio
Transistoren auftritt. Dann muss man nämlich nur noch einen DIE mit 100 mio Transistoren wegwerfen. Deshalb setzen jetzt AMD, Intel, nVidia und ATi auf Mehrprozessorsysteme.
Dualcore-Prozessoren werden nicht aufgrund dessen, dass Transistoren nicht mehr weiter schrumpfen können hergestellt. :volllol:
Denn wie ich schon geschrieben habe, sind immer größere DIE's immer komplexer und teurer aufgrund des immer größer werdenden Ausschusses. Deshalb baut man ja auch Schiffe nicht aus einem Teil sondern aus vielen kleinen einzelnen Teilen. Den Rumpf aus einem Teil herzustellen, wäre unbezahlbar, aber viele kleine Teile herzustellen und dann zusammenzubauen ist wesentlich günstiger.
Verstanden?

Nächste Lektion:
Den 1GB GDDR3 Speicher einer bald erscheinenden Grafikkarte müssen sich 2 GPU's teilen, d.h. dass alle Daten zweimal vorhanden sind, also nur 512MB an Daten gespeichert werden können. Deshalb reichen 1GB vorerst aus. Außerdem wird GDDR3 Speicher dann auch sehr viel günstiger werden, da mehr davon verkauft wird.
Verstanden?

Nächste Lektion:
Die Signalwege werden erheblich verlürzt, deshalb sind die Informationen wesentlich schneller bei der GPU angekommen. Hat also nix mit dem Datendurchsatz, also 8xAGP und 16xPCIe zu tun. Wenn zum Bsp. ein Bus 80km fahren muss, sind die 20 Personen in 1 Stunde am Zielort, wenn aber ein Bus nur 8km fahren muss, sind die 20 personen in nur 6min am Zielort. Verstanden?

Benji18 schrieb:
Da muss ich Green Mamba rechtgeben was ist wenn du die Graka tauschen willst. Sowas wer schwachsin das zumindest die Graka nicht intigriet wird.
P.S. das die Prescotts so warm werden Hängt mit der wesentlich lengeren Datenleitung im Die zusammen.
Hab ich schon weiter oben gepostet. Man muss dann natürlich die ganze CPU ersetzen, weshalb es bisher auch noch nicht so gehandhabt wird.
 
Zuletzt bearbeitet:
Also mir persönlich würde es viel besser gefallen, wenn endlich mal schöne Raytracing Grakas kommen würden und nicht nur diese Scanline-Renderer.... dann könnte ich die Hardware auch für Animationsberechungen verwenden und nicht nur für spiele.
oder es wäre echt super wenn die Pyhsik-PU auch für andere Rechenarbeiten verwendet werden könnte wie ein Co-Prozessor bzw FPU die ja früher die 386 unterstützt haben...
oder man Video-Software dazu bringen könte neben SSE und MMX eben auch die PPU zu nutzen als option!

Ich arbeite nehmlich gerne mit Raytracing-Software und da ist mir die heutige CPU-Technik zu langsam :(
 
Frage: Was wäre am Wahrscheinlichsten als Anbindung über PCIe? PCIe 1* oder eher PCIe 16* ? Weil sonst müsste man ja immer zwei 16er haben 8). Jemand ne Einschätzung oder weiß jemand was?
 
Zurück
Oben