• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News IDF: Alan Wake auf Quad-Core-System gezeigt

grafikdemos ?
erm... auf der tgs wie auch jetzt auf der x06 wurden also diverse spiele gezeigt die zwar ne schöne grafik haben aber eben auch vom gameplay überzeugen !

nicht umsonst hat z.b. gears of wars mal n gameplay award abgestaubt - und das obwohl die grafik wirklich brachial is.

imo is das "grafikdemo"-statement n dummes aber leider immer wieder gelesenes statement.


edit:
bis wirklich 99%igen fotorealismus hast, werden noch viele viele jahre ins land ziehen.
 
@ Wattwanderer

Ich glaube, bis wir auch nur annäherend beim Fotorealismus sind werden noch mehr Jahre vergehen, als du Finger an den Händen hast ;).
Wenn du nur mal anschaust, wie lange ein relativ photorealistisches, komplexes Bild in einem 3D Rendering-Programm zur Berechnung braucht, dann wirst du sehen, dass wir noch ewig weit davon weg sind. Wenn man dann noch Raytracing aktiviert, schnellt die Berechnungszeit exponential nach oben!
Ein erster Schritt wär zum Beispiel eine Raytracing-Karte. Alleine die Lichtberechnung (die für Fotorealismus unverzichtbar ist) wird noch relativ lange auf sich warten lassen. Auch wenn man die Polygonanzahlen von Spieleszenen und Szenen in einem photorealistischen Bild vergleicht, liegen dazwischen Welten! Wenn ich z.B. eine Grasfläche "modelliere" die sich im Wind bewegen kann, besteht zum Bsp. ein Halm aus 20-30 Polygonen (und das ist noch weit vom Photorealismus entfernt!). Ich könnte es natürlich auch mit einer Grastextur lösen, aber das sieht im vergleich zu Gras aus einzelnen Halmen einfach nur bescheiden aus!
Aber das ist jetzt alles Offtopic!
 
Zuletzt bearbeitet:
Ja, schon beeindruckend diese ganze Demonstration. Wenn das Spiel 2007 oder wann auch immer erscheint, werden wir alle wissen, wie es grafisch wirklich aussieht, wie es spielerisch ist und ob eine Quad-Core CPU wirklich vonnöten ist, um das zu zeigen, was wir da im Video sehen. Vielleicht fährt man ja auch mit einem Dual-Core Prozessor ganz gut. Bis dahin heißt es abwarten! Wem das Laden des Videos zu lange dauert, sollte man auf YouTube.com nachschauen unter dem Stichwort "Alan Wake".
 
mia.max schrieb:
aber die 360 (welche ich habe) packt das schliesslich auch, wobei die ebenfalls n quad core prozessor drinn hat, wovon wohl einer für die physik genutzt werden wird.

i'm glad to be a 360 owner :P
Die Xbox 360 hat einen Triple-Core Prozessor. Wollte ich nur mal loswerden.

Zumindest hat der Grafikchip R500 eigentlich DX10 und noch etwas mehr, wenn diverse Berichte stimmen, die ich gelesen hab. Beste Voraussetzungen für das Spiel, solange auch wirklich alle 3 Kerne verwendet werden.
 
hi,

so eine geile grafik habe ich seit langem nicht mehr gesehen. beinahe wäre ich gekommen.:D :evillol:

wenn die grafik im spiel so wirklich ist dann sage ich respekt.

mfg
 
Deinorius schrieb:
Die Xbox 360 hat einen Triple-Core Prozessor. Wollte ich nur mal loswerden.

Zumindest hat der Grafikchip R500 eigentlich DX10 und noch etwas mehr, wenn diverse Berichte stimmen, die ich gelesen hab. Beste Voraussetzungen für das Spiel, solange auch wirklich alle 3 Kerne verwendet werden.


R500 gibt's nicht, der Grafikchip heißt entweder C1 oder Xenos.
Und er ist weder eigentlich noch sonst was DX10, sondern ein D3D9-Grafikchip mit US-Architektur (und erweiterten Eigenschaften). Wenn man diesen Chip dagegen auf eine PC-Grafikkarte verbaut, dann wird er das gleiche können, was von einem Grafikchip verlangt wird, damit er als SM 3.0 durchgehen kann. Für einen D3D10-Grafikchip fehlt ihm die Fähigkeit, Geometry-Shader zu verarbeiten.
http://www.beyond3d.com/articles/xenos/index.php?p=09
Es ist auch anzumerken, dass zumindest die nVidia-Grafikkarten mehr können, was sie eigentlich dürfen, sprich die Spezifikationen des SM 3.0 schränken deren Fähigkeiten ein.
 
Für Fotorealismus bräuchte man erstmal Auflösungen um die 4000*2250 oder ähnliches auf einem bildschirm, der dein ganzes blickfeld abdeckt. Natürlich müssen dann die Texturen oder Models auch einen entsprechenden detailgrad bzw. Polygonenzahl aufweisen. Außerdem bräuchtest du eine 3D Brille und natürlich ein vorbearbeitet Bild.
Außerdem weiß ich gar nicht, ob ich das haben will. In Filmen wäre 3D eine gute Sache. ABer in Spielen will ich vielleicht nocheinmal daran erinnert werden, dass ich mich nicht im 2. Weltkrieg befinde oder sonst wann. Das könnte mehr als ekelhaft und schockierend sein, wenn nicht sogar traumatisierend.

Schönen abend noch
 
seit wann brauch man für Fotorealismus ne 3d brille? brauchst du auch ne brille wenn du dir ein foto anschaust ^^
 
Naaaaja - schon schön. :D Aber wenn ich mir das so anhöre, was die quasseln, frage ich mich, wozu man die GPU einsetzt, wenn 4 Cores alles mögliche übernehmen. :lol: Ich rechne ehrlich gesagt frühestens im Sommer 2008 mit Alan Wake - und bis dahin fließt eine Menge Wasser den Bach runter, wie man so schön sagt. Oder hättet ihr 2004 gedacht, dass im Winter 2006 Quadcores auf den Markt kommen? Ich bleibe erstmal locker.

Die letzten Tests von Vista haben ergeben, dass es noch viel zu tun gibt, die Game-Performance ist momentan unter aller Sau. Bis das rund läuft und Spiele erscheinen, die von Vista und DX10 effizient profitieren, dauert's auch noch. Um ehrlich zu sein - ich fühle mich momentan noch sehr sicher mit meiner Hardware. Abwarten und Tee trinken. Kaufe niemals ein neues Betriebssystem bei Release - das geht in die Hose. Und Alan Wake werde ich hundertprozentig kaufen. 2008. :p
 
Sehr beeindruckend! Ich bin schon sehr auf das Gameplay gespannt und ob dieses dann in verbund mit Story/Atmosphäre auch was taugt.
 
Mich interessiert nicht, was Intels Quad so alles kann, denn spätestens nach 9 Stunden Spielzeit, länger dauern ja Spiele heut zu Tage kaum noch, war es dass dann und man sitzt auf einem Prozessor, der ausgereizt werden könnte. Zu sehen beim hochgepriesenen 64 bit Prozessor.

Ich kaufe mir die Hardware nur noch, wenn diese auf dem Markt etabliert ist und somit die Mehrzahl der Programmierer diese auch unterstützt.
 
Wenn das wirklich echtzeit berechnet ist, was ich in dem video gesehen habe, bleibt mir nur zu sagen: OMG! Das war mit abstand die grafisch beeindruckenste und schönste demonstration einer solch großen landschaft die ich bis jetzt gesehen habe.
 
Man sollte auch bedenken, dass die CPU-Last unter DX10 erheblich geringer ausfällt.
Normalerweise verhält es sich heute so, dass 40% der Prozessorleistung für das verwalten der Objekte zuständig ist und nur 60% für KI, Phyik, Gameplay und den ganzen Rest.

Mit DX10 wird das Verhältnis ungefähr bei 20% / 80% liegen. Von daher wird der Prozessor auch noch etwas entlastet und hat mehr Leistung für die restlichen Dinge.

Außerdem kann ich mir schlecht vorstellen, dass die die Physik ausschließlich auf der CPU berechnen wollen. Das Auslagern auf die Graka bietet sich bei DX10 ja geradezu an.


Man braucht also sicherlich keinen Quad-Core. Mit einem Dual-Core wird man bestimmt auskommen.
 
omg...bis zum ende bin ich net gekommen, mit dem lesen der postings :freak: .... Spiele sind Luxus, wenn man sie sich nich leisten kann oder spielen kann weil der rechner zu lahm ist, tjaaaa...dann habter pech gehabt .... immer dieses gejammer...angebot und nachfrage!
 
Was mir aber bei den Screenshots fehlt, dass ein Depth of field Effekt. Das gehört eigentlich zu jedem modernen Spiel dazu, finde ich.

Erst recht bei solchen mit großen Landschaften und weitsichtigen Umgebungen.
 
deekey777 schrieb:
R500 gibt's nicht, der Grafikchip heißt entweder C1 oder Xenos.
Und er ist weder eigentlich noch sonst was DX10, sondern ein D3D9-Grafikchip mit US-Architektur (und erweiterten Eigenschaften).
Naja, R500 war dennoch im Umlauf, auch wenn der nix mit den R5x0 Chips zu tun hat.
DX10 ist der nicht, aber dafür überschreitet er einige Werte deutlich, die für SM 3.0 nötig sind. Wenigstens etwas. :p
 
Wieder ein Spiel, dass auf meinem System nicht laufen wird...
 
beckenrandschwi schrieb:
Wieder ein Spiel, dass auf meinem System nicht laufen wird...
Hehe. Wo du recht hast, hast du recht. ;)

Du bist aber einer von der ganz harten Sorte, was? Das ist ja wirklich ein uraltes Schätzchen, dass du da hast. (Bezogen auf die Schnellebigkeit der Computerentwicklung)
 
Zurück
Oben