• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Optimierte Games

Garack

Captain
Registriert
Mai 2006
Beiträge
3.583
HI!

Gibt es irgendwo Infos welche (kommenden) Games:

- Doppelkern

- 64 Bit

- Hardware Physic

optimiert sind/werden ?

Also bei GRAW weiss ich dass es Physic optimiert ist. Far cry 64 Bit.

Was ist mit ET:QW oder AA oder BF2142 oder Cryses ?
 
Crysis wird auf jedenfall für Multi-Core CPUs ausgelegt sein. Die Physik-Engine soll davon stark profitieren. Den PhysX-Chip wird das Spiel aber nicht unterstützen. Crytek hat eine eigene Physik-Engine geschrieben.

Zu 64 Bit ist meines wissens noch kein offizielles Statement abgegeben worden, aber ich denke, da FarCry schon als 64 Bit Version erschienen ist, wird es Crysis auch als 64 Bit Game geben.
 
Spiele ohne Leistungsgewinn*
Spiel

Battlefield 2 --> 0% Leistungsgewinn
F.E.A.R --> 0% Leistungsgewinn
Source-engine --> 0% Leistungsgewinn
Star Wars Battlefront 2 --> 0% Leistungsgewinn

Spiele ohne Leistungsgwinn, aber mit besonderen Dual-Core-Effekten*
Spiel

Juiced --> Partikeleffekte
The Movies --> Mehr Details, bessere Ansprechzeit

Spiele mit bis zu 20% Leistungsgewinn*
Spiel

Black&White --> Bis zu 15% Leistungsgewinn, bessere Physik
Call of Duty 2 --> Bis zu 15% Leistungsgewinn
Cavilization 4 --> Bis zu 15% Leistungsgewinn
Doom³ --> bis zu 20% Leistungsgewinn
Rise&Fall --> Ca.20% Leistungsgewinn
Serious Sam 2 --> 17% Leistungsgewinn
Unreal Tournament 2007 --> "Ein deutlicher Gewinn"

Spiele mit mehr als 20% Leistungsgewinn*
Spiele

Age of Empires III --> 28% Leistungsgewinn
Gothic III --> bis zu 30% Leistungsgewinn
Need for Speed: Most Wanted --> 35%** Leistungsgewinn
Paraworld --> 25%, teils bis 40% Leistungsgewinn
Quake 4 --> 24% (mit Beta-Patch) Leistungsgewinn
Schlacht um Mittelerde 2 --> Bis zu 25% Leistungsgewinn
Spellforce 2 --> 30% (max 70%) Leistungsgewinn

Legende:


*Bei nicht verfügbaren Spielen nach Angaben der Entwickler
**Nur mit speziellem ATI-Treiber
 
Warauf bezieht sich diese Tabelle? auf Doppelkern CPU?

Und warum dann Ati Treiber?

Worher ist die Quelle?
 
Laut den Entwicklern soll Gothic 3 bis zu 40 % mit DualCore zulegen. Das ist aber natürlich immer noch nur ne Schätzung. :rolleyes:
 
Ich sag mal so ... erzählen kann man viel aber beweisen kann man momentan wenig ;)

Ja, die Liste bezieht sich auf DualCore.
Ähm, das mit dem ATI Treiber kann ich dir nicht erklären.
Die Liste habe ich irgendwo ausm Netz von einer PC-Technik Website. Ich hatte die noch auf PC gespeichert.
 
Solltest dir die PC Games Hardware zulegen, da gibt es immer interessante Artikel, Berichte und Interviews (teilweise mit Videos) zum Thema Spielengines und Spieleentwicklung mit schwerpunkt Hardware!
 
Gerade als der über mir "Pc Games Hardware" erwähnte is mir eingefallen das ich die aus der 03/2006 Ausgabe habe und nich von einer Website.
 
Also die kommenden Spiele werden garantiert für neue Technologieen wie Dualcore und SLI/crossfire optimiert werden.Aber die Entwickler wollen ihre spiele ja verkaufen und richten deshalb im normalfall einen backfallmodus ein(wie bei hl2 die dx7 grafik).Das einzige was dann stört ist das Crysis dann aussehen wird wie Quake2 :p
 
Also DX10 wird nur geringfügig besser aussehen, als die DX9 Version, was lediglich am SM 4 liegt. Der Unterschied wird vielleicht ähnlich groß sein wie zwischen DX8 und 9.

Wahnsinns Unterschiede wird es dort nicht geben.


BTW: Ich habe noch ein Spiel mit PhysX-Unterstützung gefunden. Hier der absolute geile Trailer zu Joint Taskforce.
 
Wie wäre es denn mal mit Cell Factor.Das is sogar auf der page von denen verlinkt.Das ist einfach das beste game was es gibt(bis jetzt).
 
noxon schrieb:
Also DX10 wird nur geringfügig besser aussehen, als die DX9 Version, was lediglich am SM 4 liegt. Der Unterschied wird vielleicht ähnlich groß sein wie zwischen DX8 und 9.
Der Schwerpunkt soll doch eigentlich auf Performance liegen.
Mal sehen, wieviel Unified Shader bringen werden.
Die GPU soll dann doch an die CPU zurücksenden können. Was soll das bringen? Ich sehe es als Schritt, dass sich AGP damit dann so langsam auch technisch verabschiedet.
 
Deinorius schrieb:
Der Schwerpunkt soll doch eigentlich auf Performance liegen.
Mal sehen, wieviel Unified Shader bringen werden.
So ist es. DX10 kann jetzt viel effizienter Objekte verwalten, was Heut zu Tage immer wichtiger wird. Besonders bei Spielen wie Crysis, wo es Unmengen an Blättern und Laub gibt kann mit DX10 einiges an Performance herausgeholt werden.


Die GPU soll dann doch an die CPU zurücksenden können. Was soll das bringen? Ich sehe es als Schritt, dass sich AGP damit dann so langsam auch technisch verabschiedet.
Die Idee, die ja hinter den Unified Shadern steckt ist, dass man sie auch für etwas anderes verwenden kann als nur für Grafik. Bisher waren Shader immer unidirektional und konnten keine Informationen mehr zurückliefern. Die Unified Shader besitzen nun eine Stream-Out Funktion die die Ergebnisse der Berrechnung wieder zurückliefern kann. So kann ein Stream jetzt auch mehrere Shaderprogramm hintereinander durchlaufen, wenn man möchte und es lässt sich nun auch interaktive Physik auf der Grafikkarte berechnen.

Hauptsächlich hat man mit den US versucht bisherige CPU-Aufgaben auf die Graka zu verlegen. So wurden bisher Animationen immer von der CPU gesteuert. Wenn sich also eine Figur auf dem Schirm bewegte wurde das auf der CPU berechnet. Jetzt soll dies auf die Grafikkarte verlegt werden. Die ist jetzt komplett für die Animation und das Rendering zuständig. Eventuell noch für die KI.

Das bleibt jetzt alles dem Programmierer überlassen. Die Fähigkeiten hat die Karte jetzt jedenfalls. Die Grafikkarte hat auch vollen Zugriff auf den Hauptspeicher des Rechners. So muss sie nicht den schnellen Grakaspeicher für Animationsaufgaben oder sowas verwenden.

Ich suche dir nachher nochmal einen Link heraus, falls es dich interessiert. MS hat ein paar schöne Präsentationen (mit Video) zur den neuen DX10 Funktionen und zur Shaderprogrammierung veröffentlicht, die ganz intressant sind.
 
Zuletzt bearbeitet:
Ich bitte darum. ^^ Danke.

Also hinsichtlich Graka anstatt der CPU zu verwenden, interessiert mich eigentlich nur die Videobearbeitung, was von ATI ja schon lange propagiert wird. :rolleyes:
Zwar irgendwie vorhanden, nutzen die das nur, um ein eigenes Programm dafür rauszubringen. Besser wäre es, bestehende Codecs auf GPUs zu optimieren.
Avisynth GPU-optimiert... gott, wär das geil. :D
Mit Eintritt von HDTV wird die GPU unabdingbar sein. Selbst DualCore-CPUs sind mit HDTV derzeit eigentlich schon überfordert. Es ist schlimm genug, wenn man einen Film mit weniger als 5 fps komprimieren muss und das bei 2 Durchgängen. :p
 
noxon schrieb:
Die Idee, die ja hinter den Unified Shadern steckt ist, dass man sie auch für etwas anderes verwenden kann als nur für Grafik

Ich würde eher sagen, Unified Shader ist der logisch Schritt in Richtung optimale Auslastung hin zur universellen (internen) Recheneinheit (im Gegensatzt zu dem sonst aufkommendem Trend für alles eine eigene dedizierte Recehneinheit zu verwenden [Physik, Mathematik]).

Ist auch irgendwie logisch, denn es wird in der Praxis recht selten vorkommen, dass z.B. bei einer G70 alle 24pixel und 8 Vertex Pipes gleich ausgelastet sind, sondern, dass eine oder mehrere Pipelines warten müssen, was Preformance kostet.
Das schöne ist ja auch, dass Spiele diese Technologie, wie sonst die meisten anderen schon, nicht spezifisch unterstützen müssen!
Wir können auf jeden Fall gespannt sein, wie viel Leistung Unified Shader in der Praxis wirklich bringen wird!
 
Hier der Link zu zwei Präsentationen in Bezug auf Direct3D unter Vista. Allerdings bezieht sich nur die Zweite auf D3D10 und das auch nur zum Teil.

Aber immerhin erfährt man da, welche Idee hinter D3D10 steckt.

Man kann sich entweder nur die PowerPoint Präsentation runterladen oder die komplette Vorlesung als Video, welches parallel zum Erklärten durch Grafiken und Quellcode begleitet wird.

Ich würde zweiteres empfehlen. Mit der Präsentation alleine kann man nicht sehr viel anfangen.
 
Zuletzt bearbeitet:
Also ich kann das mit dem 0% Leistungsgwinn bei CS:S also Source Engine bestätigen. Ich hatte die 180 Tage Testversion von Windows 64bit Prof. von Microsoft und hatte sogar wenn ich mich recht entsinne ein paat FPS weniger wie mit der 32bit version.
 
Was mir gerade so beim Lesen einfällt ist, wenn tendenziell immer mehr Funktionen und Bereiche an die "Graka" abgegeben werden, hat man doch am Ende irgendwann nix anderes, als ne Spielekonsole auf einer Platine, nur das ganze zufällig im PC.
Oder auch andersrum gedacht eine Spielekonsole mit PC-Funktionalität. ;)
 
Ja, aber die Spielekonsolen werden immer mehr wie PCs (Fesplatte, Internetbrowser etc) und irgendwann stoßen die beiden Welten zusammen und Verglühen in einem riesigen Feuerball :D :p

Mal im ernst: Ich glaube dass sich das irgendwo bei dem jetzigen Stand einpendeln wird, vorallem, da wir in vll 5 Jahren 8 oder 16 Core Systeme nur noch belächeln, weil schon 32 Core Systeme herausen sind. Und iregenwo muss ja die Rechenpower der einzelnen Kerne auch hinfließen.

Dazu fällt mir das Thema Raytracing (Link1 Link2) ein. Es gab ja vor einigen Jahren mal einen inetressanten Bericht im Gamestar, aber irgendwie hat man dann nicthsmehr dazu gehört.
Ich hoffe dass sich in der Richtung noch wast tut, da jeder weiß, wass man mit Raytracing in Nicht Echtzeiptogrammen wie 3dsmax oder Maya erziehlen kann. Außerdem lässt sich Raytracing perfekt auf "beliebig" viele Treads aufteilen, da theoretisch für jeden Pixel eine eigenständige Berechnung durchgeführt werden muss
 
Zurück
Oben