• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News PCs bald mit Steckkarten zur Physikberechnung?

Hab nen Athlon 64 3200+ und die CPU Auslastung liegt bei mir bei 100% bei den Demos!!
 
Ich frag mich gerade, wenn diese PPU's so toll sind, wieso bestehen dann die ganzen Supercomputer, die Erdbeben und Atomtests simulieren aus ganz normalen Intel und AMD Prozessoren und nicht aus speziellen PPU's?
 
cR@zY.EnGi.GeR schrieb:
Nächste Lektion:
Den 1GB GDDR3 Speicher einer bald erscheinenden Grafikkarte müssen sich 2 GPU's teilen, d.h. dass alle Daten zweimal vorhanden sind, also nur 512MB an Daten gespeichert werden können. Deshalb reichen 1GB vorerst aus. Außerdem wird GDDR3 Speicher dann auch sehr viel günstiger werden, da mehr davon verkauft wird.
Verstanden?
Kleiner Tipp, mach mal locker Junge. ;)

Wenn 2 GPU´s auf einer Grafikkarte sitzen, müssen nicht zwangsläufig alle Daten 2x im Grafikkarten-Ram vorhanden sein, weil ja jede GPU direkt angebunden ist. Das ist der Unterschied zwischen SLI-Systemen und Systemen mit 2 GPU´s auf einer Platine. Wie genau es bei der kommenden Grafikkarte gehandhabt wird ist, soweit ich weiß, noch nicht klar.

Wenn man so eine All-in-wonder-Kiste haben will, kauft man sich eine Spielekonsole. ;)
Signal-Laufzeiten sind bei der Anbindung einer Grafikkarte oder Soundkarte wohl absolut unwichtig. :D
Bei einer RAM-Anbindung, da kann sowas bzgl. der Kompatiblität eine Rolle spielen. Aber die Leistung wird da wohl kaum von beeinflusst.

Salvation schrieb:
oder es wäre echt super wenn die Pyhsik-PU auch für andere Rechenarbeiten verwendet werden könnte wie ein Co-Prozessor bzw FPU die ja früher die 386 unterstützt haben...
Davon kannst du ausgehen. Animationen werden ja heute teils auch schon von der GPU berechnet (stichwort Vertexshader). Allerdings kann man nicht jede Art von Animation auf die GPU lagern.
Natürlich kann man so eine PPU auch für ganz andere Dinge benutzen. Wenn du wüsstest zu was GPU´s heute schon so "missbraucht" werden. :D
 
Zuletzt bearbeitet:
cR@zY.EnGi.GeR schrieb:
@ Siberian Husky:
Du hast es immer noch nicht begriffen, oder? Schade, dabei habe ich versucht, es so gut wie möglich zu erklären, aber einige brauchen wohl extra Nachhilfe in Sachen Computerhardware. Ich habe zufälligerweise ein wenig Ahnung davon, denn ich bin ausgebildeter Fachinformatiker, der lernen musste, wie RISC/CISC Prozessoren, Mainboards, Grafikkarten, Arbeitsspeicher (musste ich sogar nachbauen, also AND, NAND, OR, NOR, XOR, XAND) etc. aufgebaut sind und wie man z.B. berechnen muss, wieviel Speicher eine Grafikkarte benötigt und wie man von Binär in Hexadezimal und Octal und Dual umrechnet. Und ich hatte nicht umsonst eine 1,0 in Systemtechnik. ;)

Also nochmal:
Es besteht ein erheblicher Unterschied zwischen einer einzigen großen CPU und einer CPU aus mehreren DIE's, denn wenn bei einem DIE mit 400 mio Transistoren ein Fehler bei der Produktion auftritt (z.B. durch ein Staubpartikel) und der DIE so weggeworfen werden muss, ist wesentlich teurer, wie wenn ein Fehler bei 4 DIE's mit jeweils 100 mio
Transistoren auftritt. Dann muss man nämlich nur noch einen DIE mit 100 mio Transistoren wegwerfen. Deshalb setzen jetzt AMD, Intel, nVidia und ATi auf Mehrprozessorsysteme.
Dualcore-Prozessoren werden nicht aufgrund dessen, dass Transistoren nicht mehr weiter schrumpfen können hergestellt. :volllol:
Denn wie ich schon geschrieben habe, sind immer größere DIE's immer komplexer und teurer aufgrund des immer größer werdenden Ausschusses. Deshalb baut man ja auch Schiffe nicht aus einem Teil sondern aus vielen kleinen einzelnen Teilen. Den Rumpf aus einem Teil herzustellen, wäre unbezahlbar, aber viele kleine Teile herzustellen und dann zusammenzubauen ist wesentlich günstiger.
Verstanden?

Nächste Lektion:
Den 1GB GDDR3 Speicher einer bald erscheinenden Grafikkarte müssen sich 2 GPU's teilen, d.h. dass alle Daten zweimal vorhanden sind, also nur 512MB an Daten gespeichert werden können. Deshalb reichen 1GB vorerst aus. Außerdem wird GDDR3 Speicher dann auch sehr viel günstiger werden, da mehr davon verkauft wird.
Verstanden?

Nächste Lektion:
Die Signalwege werden erheblich verlürzt, deshalb sind die Informationen wesentlich schneller bei der GPU angekommen. Hat also nix mit dem Datendurchsatz, also 8xAGP und 16xPCIe zu tun. Wenn zum Bsp. ein Bus 80km fahren muss, sind die 20 Personen in 1 Stunde am Zielort, wenn aber ein Bus nur 8km fahren muss, sind die 20 personen in nur 6min am Zielort. Verstanden?


Hab ich schon weiter oben gepostet. Man muss dann natürlich die ganze CPU ersetzen, weshalb es bisher auch noch nicht so gehandhabt wird.

solche lehrer hätte ich auch gerne gehabt :lol: :p

was du erzählst stimmt ja hinten und vorne nicht. ein cpu mit mehreren cores ist immernoch ein chip - wenn da was kaputt ist darfst du alles wegwerfen. wenn du alles auf extrachips machst hast du die selben chips wie heute nur auf einer platine - da gibt es keinen vorteil.

wie so ein bus im pc funktioniert weiß ich auch. was du anscheinend nicht weißt ist das die geschwindigkeit vollkommen ausreichend ist. wenn man wollen würde hätte man einen bus im pc der daten mit lichtgeschwindigkeit übertragen kann(per glasfaser oder einfach mit wechselstrom). natürlich wäre da auch kürzer noch schneller, aber der unterschied von ein paar zentimetern.... das braucht aber bisher niemand denn so schnell kann keine komponente im pc irgendwas verarbeiten. die geschwindigkeit ist vollkommen aussreichend solange genügen daten auf einmal transportiert werden können. und ich weiß ja nicht was du für hardware in deinem pc hast - aber in meinem ram liegen kaum daten die gleichzeitig noch im graka ram liegen. nur bei sli liegen die daten gleichzeitig doppelt vor. man bräuchte also um genau soviel platz zu haben wie vorher mehr als 1gb gddr3 ram. vorrausgesetzt das man jetzt schon 1gb ram hat. man braucht also nicht weniger ram als vorher mit haubtram + graka ram.

mathe war wohl auch nicht so deine stärke. gddr3 ram ist wesentlich aufwendiger zu produzieren als normaler ddr2 ram und wird so auch nicht billiger werden als der ddr2 ram, es jetzt ist. es wird dann zwar mehr gddr3 ram verkauft als jetzt - aber sicher nicht mehr gddr3 ram als jetzt ddr2 ram verkauft wird und somit wird das teurer bleiben als der jetzige ram. das wäre totale verschwendung da ddr2 ram für die cpu vollkommen ausreichend ist.

Ich frag mich gerade, wenn diese PPU's so toll sind, wieso bestehen dann die ganzen Supercomputer, die Erdbeben und Atomtests simulieren aus ganz normalen Intel und AMD Prozessoren und nicht aus speziellen PPU's?

da wären wie wieder bei mathe...

wieviele super computer haben wir auf der welt? 10? 20? meinst du es macht sinn extra dafür neue highend chips designen zu lassen? weißt du was das an entwicklungskosten verschlingt? da ist ein 1000 cpu cluster aus bestehender technik einfach günstiger.

anders sieht das aber bei PCs aus. wenn spiele pc so eine karte braucht kommt man leicht auf stückzahlen über den wert ab dem sich eine produktion lohnt...

spezial chips werden vorallem dort benutzt wo entweder genug stückzahlen gebraucht werden(PC) oder wo nicht genug platz ist einen riesigen cluster hinzustellen(flugzeug).

P.S.:
Dualcore-Prozessoren werden nicht aufgrund dessen, dass Transistoren nicht mehr weiter schrumpfen können hergestellt. :volllol:
das interessiert mich ganz besonders: wie oft hat intel denn noch vor seine fertigungstechnik für silizium chips zu verkleinern? soweit ich weiß sind derzeit nur 3 weitere stuffen geplant und danach wird man komplett auf ein anderes material umsteigen müssen. die umstellungen werden nun auch wesentlich länger dauern da es derzeit noch keine möglichkeit gibt relativ kostengünstig(und trotzdem teuerer als die größeren) kleinere strukturen auf silizium chips zu bringen. heutzutage ist alein die forschung für die fertigung solcher cpus viel teurer als es die forschung für cpus vor 10 jahren noch war.

das ist also sehr wohl zumindest mit ein grund warum dual-core cpus hergestellt werden. höhere aktraten sind nämlich ohne kleinre strukturen nichtmehr so einfach möglich. also muss die leistung pro takt gesteigert werden.

P.P.S.: mit informatik hat das rein garnichts zu tun, das ist physik...


EDIT: solange man beim x86 befehlssatz bleiben würde(und das wäre kein problem) dann wäre es absolut nicht schlimm die ganze cpu zu ersetzen. amds sind schließlich auch nicht pin kompatibel zu intel cpus und in den neusten ist ja sogar ein teil des mainboard chipsatzes mit drin - alles ohne probleme. wenn dein konzept funktionieren würde - also billiger, schneller, praktischer oder das alles zusammen wäre - dann hätten wir das bereits.
 
Zuletzt bearbeitet:
Original geschrieben von cR@zY.EnGi.GeR
Also nochmal:
Es besteht ein erheblicher Unterschied zwischen einer einzigen großen CPU und einer CPU aus mehreren DIE's, denn wenn bei einem DIE mit 400 mio Transistoren ein Fehler bei der Produktion auftritt (z.B. durch ein Staubpartikel) und der DIE so weggeworfen werden muss, ist wesentlich teurer, wie wenn ein Fehler bei 4 DIE's mit jeweils 100 mio
Transistoren auftritt. Dann muss man nämlich nur noch einen DIE mit 100 mio Transistoren wegwerfen. Deshalb setzen jetzt AMD, Intel, nVidia und ATi auf Mehrprozessorsysteme.
Dualcore-Prozessoren werden nicht aufgrund dessen, dass Transistoren nicht mehr weiter schrumpfen können hergestellt. :volllol:
Denn wie ich schon geschrieben habe, sind immer größere DIE's immer komplexer und teurer aufgrund des immer größer werdenden Ausschusses. Deshalb baut man ja auch Schiffe nicht aus einem Teil sondern aus vielen kleinen einzelnen Teilen. Den Rumpf aus einem Teil herzustellen, wäre unbezahlbar, aber viele kleine Teile herzustellen und dann zusammenzubauen ist wesentlich günstiger.
Verstanden?
:rolleyes:


Das ist nicht korrekt oder was meinst du wo der Celeron Cpu herstammt das ist der ausschuß bei den der L2 Cache zu größten teil defekt ist also bis 256kb es wird nicht der gesammte außschuss weggeworfen. :evillol:
 
Was regt ihr euch alle so auf?
Et kütt wie et kütt!
Da können wir nix dran ändern.... wenn sich die Industrie entschließt, die Karten rauszubringen, dann manchen sie es. Wenn nicht, dann nicht. :D
 
ich sage nur meine Meinung naja im endefekt bleibt uns sowieso nichts anderes übrig
 
Benji18 schrieb:
Das ist nicht korrekt oder was meinst du wo der Celeron Cpu herstammt das ist der ausschuß bei den der L2 Cache zu größten teil defekt ist also bis 256kb es wird nicht der gesammte außschuss weggeworfen. :evillol:
Das ist mir schon klar, iss bei Grafikkarten ja auch nicht anders, wenn da eine Pixelpipeline defekt ist, wird der DIE ja auch net weggeworfen sondern diese Pipeleine deaktiviert und als langsameres Model verkauft. Was ich gemeint habe, ist, dass bei immer größer werdenden DIE's die Ausschussrate erheblich steigt, das ist mit ein Grund, weshalb die DIE's immer teurer werden. Und die Chance, dass ein DIE mit 400 mio Transistoren weggeworfen werden muss, weil da mehrere Fehler vorhanden sind, ist etwa 4mal so groß, wie bei einem DIE mit nur 100 mio Transistoren.
Deshalb geht man jetzt zu Mehrprozessorsystemen über, weil man so sehr viel Geld sparen kann. 4 100 mio Transistoren DIE's sind nunmal billiger herzustellen, als ein DIE mit 400 mio Transistoren.

Siberian..Husky schrieb:
was du erzählst stimmt ja hinten und vorne nicht. ein cpu mit mehreren cores ist immernoch ein chip - wenn da was kaputt ist darfst du alles wegwerfen. wenn du alles auf extrachips machst hast du die selben chips wie heute nur auf einer platine - da gibt es keinen vorteil.

Das stimmt nicht. Denn es werden ja die ganzen DIE's getrennt auf einem Wafer hergestellt und dann auf einem OPGA Gehäuse miteinander verbunden. Wenn ein DIE defekt ist, wird er ja, bevor er auf das OPGA Gehäuse kommt, weggeworfen.

Siberian..Husky schrieb:
gddr3 ram ist wesentlich aufwendiger zu produzieren als normaler ddr2 ram und wird so auch nicht billiger werden als der ddr2 ram, es jetzt ist. es wird dann zwar mehr gddr3 ram verkauft als jetzt - aber sicher nicht mehr gddr3 ram als jetzt ddr2 ram verkauft wird und somit wird das teurer bleiben als der jetzige ram. das wäre totale verschwendung da ddr2 ram für die cpu vollkommen ausreichend ist.

DDR2 ist auch für Grafikkarten normalerweise ausreichend, ausgenommen die High-End-Modelle. Und so viel teurer iss GDDR3 nicht, DDR2 iss ja noch ziemlich teuer.

Siberian..Husky schrieb:
wieviele super computer haben wir auf der welt? 10? 20? meinst du es macht sinn extra dafür neue highend chips designen zu lassen? weißt du was das an entwicklungskosten verschlingt? da ist ein 1000 cpu cluster aus bestehender technik einfach günstiger.

Die Seite www.top500.org kennst du wohl nicht, oder? Außerdem ist der Betrieb eines Supercomputers sehr sehr teuer. Da ist der Anschaffungspreis ja nix dagegen. Denn ein Supercomputer wie der Earthsimulator hat ein riesiges Kühlsystem. So ein Supercomputer benötigt ein ganzes Kraftwerk, das eine ganze Kleinstadt mit Strom versorgen kann. Da wäre es doch erheblich billiger, anstatt einen Supercomputer mit 10.000 CPU's mit z.B. nur 1.000 PPU's herzustellen.

Was also Mathe betrifft, ich hatte Mathe und Physik als Leistungsfach. Hättest du besser auch belegen sollen. ;)

Siberian..Husky schrieb:
das ist also sehr wohl zumindest mit ein grund warum dual-core cpus hergestellt werden. höhere aktraten sind nämlich ohne kleinre strukturen nichtmehr so einfach möglich. also muss die leistung pro takt gesteigert werden.
Deshalb setzt Intel nicht mehr auf höhere Taktraten, die haben ja nicht umsonst den P4 mit 4GHz gestrichen, sondern verbessern wie AMD die Pro-MHz-Leistung, indem man neue Befehlsätze und mehr Pipelines unterbringt. Man kann jedoch auch die Leistung einer CPU steigern, indem man mehr Transistoren unterbringt, dadurch steigt aber wieder der Ausschuss und macht die Herstellung der CPU's wieder viel teurer. Es ist nunmal wesentlich einfacher und billiger, mehrere DIE's zusammenzuschalten, als einen neuen DIE zu entwerfen und zu produzieren. Aus dem Grund hat der Entschluss, Dualcore-CPU's herzustellen, nix mit der Strukturbreite zu tun, außerdem soll Moores Gesetz noch etwa 10-15 Jahre gelten.

Green Mamba schrieb:
Wenn 2 GPU´s auf einer Grafikkarte sitzen, müssen nicht zwangsläufig alle Daten 2x im Grafikkarten-Ram vorhanden sein, weil ja jede GPU direkt angebunden ist. Das ist der Unterschied zwischen SLI-Systemen und Systemen mit 2 GPU´s auf einer Platine. Wie genau es bei der kommenden Grafikkarte gehandhabt wird ist, soweit ich weiß, noch nicht klar.
Folgendes steht auf www.tomshardware.de:
"Das Herzstück der Gigabyte 3D1 besteht aus zwei NVIDIA GeForce 6600 GTs, die jeweils einen eigenen 128 MB großen Framebuffer besitzen. Die Speicherbusbreite beträgt jeweils 128 Bit. In seinen Werbebroschüren addiert Gigabyte diese Werte einfach zusammen und bewirbt die Karte mit 256 MB und 256 Bit breitem Speicherbus, wie dies bereits XGI in der Vergangenheit getan hatte. Effektiv nutzbar sind aber lediglich 128 MB Speicher bei 128 Bit breitem Speicherbus, da jeder Grafikchip eben seinen eigenen Speicher benötigt und den des anderen Chips nicht sieht."

Ob nun die Daten doppelt vorliegen oder nicht, ist letzendlich egal, der Speicher ist nur zur Hälfte effektiv nutzbar, darauf wollte ich eigentlich hinaus :)
 
Zuletzt bearbeitet:
@3

Einige Formulierungen auf CB sind ungelenk, andere noch etwas pampiger. Ist mir auch schon des öfteren aufgefallen. Aber was solls, die Informationen stimmen anscheinend und ausserdem war das vor 1,5 Jahren noch heftiger. Hat sich sehr gebessert seitdem!
 
@cR@zY.EnGi.GeR
das ist alles keinen pfifferling wert, was du da von dir gibst.

ein core fpu/alu, der ander vertex/ps, das geht unmöglich. wie willst du das ansteuern, mit welcher frequenz soll das ganze laufen? denkst du, bei intel, amd, ati etc sitzen nur deppen in der entwicklung, die sowas nicht bauen würden wenn das ginge und vorteile hätte?

cR@zY.EnGi.GeR schrieb:
Da wäre es doch erheblich billiger, anstatt einen Supercomputer mit 10.000 CPU's mit z.B. nur 1.000 PPU's herzustellen.

noch so eine pseudoweisheit. ich versteh ja auch nicht viel von cpus und programmieren, aber eine ppu und eine cpu kann man so gut wie äpfel und birnen vergleichen. eine ppu ist auf eine bestimmte anwendung ausgelegt, eine mainframe-cpu nicht. darf sie auch nicht, denn die mainframe wird ja nich nur für eine einzige berechnung verwendet, das würde sich gar nicht lohnen.
und last but not least: diese ppu ist für spiele entwickelt worden! das heisst, sie kennt nur spiele-relevante instruktionen, sie ist vermutlich nicht skalierbar und sie ist vermutlich nicht sehr genau in ihren berechnungen! es hat ja keinen supergau zurfolge, wenn der aufprallwinkel in einem autorennen ein grad daneben liegt.

und jetzt seid lieb zu einenander
 
Zuletzt bearbeitet:
Hab jetzt nicht alles gelesen... also senfe ich einfach mal etwas. :D

Ich finde die Idee natürlich sehr interessant. Ich persönlich habe noch nie von solch einem Vorstoß gehört und habe nicht schlecht gestaunt über diese News. Da kommt auf einmal ein Chiphersteller und präsentiert (aus meinen Augen) aus dem Nichts einen fertigen Chip, der sich in puncto Komplexität usw wie eine Grafikkarte ausgibt. Wau! Und da die großen Entwickler Interesse bekunden, scheint es sich auch nicht um ein kleines und utopisches Produkt zu handeln.

Die Frage ist: wird das die Spieleindustrie nach vorne bringen? Nach vorne katapultieren? Die Physik wird ja noch von der CPU berechnet, richtig? Jetzt kommt es eben drauf an, was das Kärtchen kosten soll. - Wenn man eine hat, wozu wird dann die übrig gebliebene CPU-Power verwandt?
 
Tod schrieb:
Die Frage ist: wird das die Spieleindustrie nach vorne bringen? Jetzt kommt es eben drauf an, was das Kärtchen kosten soll. - Wenn man eine hat, wozu wird dann die übrig gebliebene CPU-Power verwandt?

Die Frage lautet anders. Wie lange dauert es, bis Spiele die Physikkarten so gut unterstützen, so das sich die Anschaffung lohnt? Ferner ist alles Neue grundsätzlich horrend überteuert, weil anfangs nur die technikgeilen Superfreaks blind draufstürzen, als gäbe es nichts wichtigeres. Die kann man so gut neppen, das weiß die Industrie. PPU zum Preis einer nagelneuen High-End CPU. :D

Wenn die Karten rauskommen, dann lasse ich mal ganz locker zwei Jahre ins Land ziehen. Erstens ist die Technik dann ausgereifter, zweitens gibt es sicher nicht vor 2008 Spiele, die mit PPU-Karten BESSER laufen als ohne. Mal sehen, ob man sich die Karte dann leisten kann, wahrscheinlich hat man dann zeitgleich die Wahl, für satte 800 Euro die neue ATI X1300 XT kaufen, bzw. die Geforce 8200 Ultra - die Karten, die endlich auch Spiele mit der Unreal-Engine unterstützen. :freak: :p :D
 
cR@zY.EnGi.GeR schrieb:
Das stimmt nicht. Denn es werden ja die ganzen DIE's getrennt auf einem Wafer hergestellt und dann auf einem OPGA Gehäuse miteinander verbunden. Wenn ein DIE defekt ist, wird er ja, bevor er auf das OPGA Gehäuse kommt, weggeworfen.

da kommen wir ja endlich dem punkt der diskusion auf die spur. soweit ich weiß ist das eben nicht so. amd sagt selbst das eine dual-core cpu eine cpu mit 2 cores auf einem die ist.

Dual core AMD Opteron processors are one more example of how AMD is extending its evolutionary Direct Connect Architecture by connecting two CPUs on one die, eliminating the bottlenecks inherent in front-side bus architectures.

hier kann man auch sehr gut erkennen das das ein chip - also ein die - werden soll:
33046A_3.jpg


anders wäre das auch garnicht möglich da sich die 2 cpus unteranderem zumindest teile des caches, den memorycontroller und das bus-interface teilen sollen. es werden also nicht einfach 2 normale cpus cores in ein packet gepackt sondern da wird ein neuer chip entwickelt. anders wäre das auch garkein vorteil zu multiprocessor systemen da man ansonsten ja immernoch über irgendeinen buss miteinander komunizieren müsste wenns nicht im selben chip währe.

is ein core kaputt dann wird man diesen nurnoch als was anderes verkaufen können, zersägen und einfach einen anderen core dranschweissen wird wohl nix werden ;).


zu deiner supercomputer-liste: natürlich ist der anschaffungspreis im verhältniss zu den unterhaltskosten gering. aber nur weil dort nicht geforscht werden muss. die forschung ist heutzutage so teuer das sich die firmen das alein nichtmehr leisten können. derzeit forschen fast alle chip firmen gemeinsam um endlich einen weg zu finden wie man am günstigsten noch kleinere chips herstellen kann. selbst für ibm alein wäre das viel zu teuer.

das betreiben eines durchschnittlichen supercomputers kommt da wesentlich günstiger.
 
Also ich finde wir sollten einfach abwarten was in der Zukunft kommt!
Der Markt reguliert das schon!

Entweder wir rennen alle in die Shops und kaufen uns so eine Karte, oder eben nicht und sie verschwindet ganz schnell wieder.
 
Ja spinnt denn die Welt? Ich meine, dass wir in Sachen Physikberechnung bisher bei allen gemachten Evolutionsschritten, gerade mal an der Oberfläche kratzen und noch unglaubliche Möglichkeiten auf uns warten, ist sicher (fast) jedem klar. Aber eine extra Karte, ich weiß nicht. Und was ist wenn dann jemand keine solche Karte hat?
Im Gegensatz dazu würd ich mich schon sehr drauf freuen in einem Spiel Mauern physikalisch korrekt in einzelne Staubkörner zu zersprengen und echten Wind und dessen Auswirkungen zu bewundern. Interessant wären auf jedem Fall die Ergebnisse.
 
Es wird doch sicher so laufen wie bei den neuen Grafikkarten. Ist die Funktion nicht da, wird sie nicht dargestellt. Wenn du die Karte hast, bewegen sich die Grashalme korrekt beim laufen durch die Wiese, oder eine mauer zerfällt korrekt in ihre Bestandteile, oder es wird eben so dargestellt wie bisher.
Warum eine extra Karte? Überleg mal was man heute mit den Shadern so alles darstellen kann auf der Graka. Das wäre selbst mit einem 40 Ghz P4 nicht machbar. Genau so siehts mit "aufwendigen" echtzeit Physik-Effekten aus. ;) Aufwendig ist dabei relativ. Einen Grashalm korrekt zu bewegen wäre kein Problem, aber 30.000 sind da schon schwieriger. Und längst nicht jeder physikalische Effekt lässt sich mit dem SM3.0 auf der Grafikkarte berechnen. Auch ist ja die Rechenleistung auch dort nicht beliebig.
 
Das kann aber nicht dein Ernst sein! Was glaubst du welche gigantischen Einschnitte die Physikberechnungen in Gameplay, Umgebung und Spielfluss haben? Lies dir mal die Entwicklungsgeschichte von HL2 an, welche unvorhersehbaren Anpassungen und Umbrüche nötig waren um einen korrekten Spielablauf zu gewährleisten. Der zusätzliche Zeitaufwand hat die Entwickler in ärgste Probleme gestürzt.
Du glaubst doch nicht wirklich, dass das Spiel einfach mit oder ohne den Effekten, gleich gut funktionieren. Wenn doch, war dir nicht klar wie weitgehen ich die Einflüsse dieser Möglichkeiten in den dann möglichen Games sehe.
 
Doch schon, aber HL² wurde eben nicht für die Unterstützung für so eine Karte geschrieben. Ansonsten muss sowas eben von vornherein mit einkalkuliert werden. Die Physik in HL² ist ja komplett auf der CPU berechenbar, und daher vergleichweise Simpel. Vergleichsweise im Bezug auf die Möglichkeiten einer eigenen Phyisk-Karte.
Mit so einem Ding berechnet man nicht das Fall-Verhalten einer Öltonne. Dabei gehts um die Berechnung von 1000enden oder gar Millionen Elementen.
 
Genau und wenn das ganze noch komplexer wird, dann sind die Einschnitte ins Gameplay noch gröber. Wie sollte man dann so einfach umschalten können oder beide Varianten anbieten können.
 
Zurück
Oben