• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Splinter Cell 3-Demo mit dicker Überraschung

Ist es nicht effektiv nur "ein Staubaufwirbeln" seitens nVidia? Ich meine, obwohl vielleicht HL2 in gleicher oder ähnlicher Weise angepriesen worden ist, kann ich mich auf meinem System nicht beklagen, denn es läuft mit 1600x1200@32bit@8AF@6xAA. Und ich frage mich dann, wozu man dann auf solche Statements was geben soll. Und zu sagen "Ich habe mir die 6800GT nur wegen SM3.0 geholt" ist doch ein bisschen daneben, oder? Klar ist, dass die nVidia Karten günstiger sind, und dennoch super Leistung bieten. Trotzdem sehe ich persönlich keinen Grund der definitv für die eine, noch für die andere Seite spricht. SLI ist meines ermessens nach keine "Errungenschaft" man hat den Mythos von 3dfX wieder in ein neues Gewandt gepresst, sodass es wie ein "Must Have" wirkt. Solange die Games in dem Sinne kein "MultiGPU" Support haben, wie manche Betriebsysteme ist es, in den Wind geschossene Leistung. Oder mache ich hier einen Logikfehlern? Solange die Spieleentwickler nur auch auf das Release zupreschen und das Game dann halbfertig releasen, ist es kein Wunder, dass die Grafikkarten immer schneller und besser sein müssen! Wenn man sich mal die Techdemos von den alten ATi und nVidia Grafikkarten zu gemüte wührt, wird man feststellen, dass diese Grafik ein manchen Spielen heute nichtmal präsent ist! Und dieser Punkt ist der traurige! Würde man seitens der Programmer die Effizieniz der Algorithmen etwas erhöhen, wären auch "veralteten" Grafikkarten doch sehenswerte Leistungen zu beobachten! Aber ist das ist scheinbar der Pakt zwischen Spieleherstellern und Hardwaremanufakturen! Die einen wollen, dass nur ihre Karte die volle Performance bringt, und die anderen wollen damit geworben werden, dass nur dieses Game in einer - meinst "Athemberaubenden" / "Stunning" / "Breathtaking" - Qualität laufen!

Meine Meinung:

Mit dem zufrieden sein, zu dem man sich entschienden hat, anderen Falls, etwas neues kaufen. Ändern kann man - so sehe ich das - nicht viel! Und wo soll der Kampf der Hersteller - wenn nicht auf dem Rücken der KUnden, wo denn sonst - ausgetragen werde?

Danke für die Aufmerksamkeit!
MfG GuaRdiaN
 
Zuletzt bearbeitet:
Natürlich wirst du in einem CPU-limitierten Game in 640x480 keine Leistungsexplosion mit SLI erleben. Das ist eher was für 1280x1024 und höher, dazu mit AA/AF. Und je dichter du am Graka-Limit bist, desto eher sind Zuwächse von 50,60 oder auch 80% drin. Ist halt mehr was für Freaks.
 
Carsten schrieb:
Natürlich wirst du in einem CPU-limitierten Game in 640x480 keine Leistungsexplosion mit SLI erleben. Das ist eher was für 1280x1024 und höher, dazu mit AA/AF. Und je dichter du am Graka-Limit bist, desto eher sind Zuwächse von 50,60 oder auch 80% drin. Ist halt mehr was für Freaks.

Gebe dir völlig Recht!
-> Nur solange die Threads der Grakas nicht vernünftig zugewiesen werden. (Ähnlich wie beim Multi GPU Support von XP (2x Xeon 3,0 @ HT = 4 Logische CPU's), der läuft auf 4 CPU's auch nicht wirklich gut! Win2K hat ja sogar noch Probs mir HT @ einer CPU) Ich denke bis das ausgereift ist, bedarf es Zeit. Aber ich kann mich - wie gesagt - auch irren! ;D

MfG GuaRidaN
 
d.s schrieb:
Regt Euch doch alle ab, wahrscheinlich beschränkt sich dies nur auf die Demo. In der Vollversion kommen bestimmt auch die ATI-User in den Genuss von HDR.

In der Vollversion ist das ganze auch nicht vorhanden.

Könnte gut sein das die Shader 3.0 auch nur eingebaut sind um in den Spielemagazinen eine bessere Wertung zu erreichen (Da kann man dann auch gleich schonmal eine GF6800GT/U mitsponsoren oder dazusagen das auf so einer gebencht wird). Der Performancebringer is das sicher nicht (Mit ner GF6600GT nichtmehr wirklich spielbar).

Mit SM2.0/SM2.0b hätte man sicher noch Performance rausholen können und die Engine wäre somit auch aktueller bzw. up to date. So ist das ganze für mich aber eher ein technischer Rückschritt, Grund: Es wird nicht auf die massiv verbreiteten SM2.0 Karten optimiert die schon fast Standard bei den Gamern sein dürften (Natürlich hat nicht jeder eine weswegen der SM1.1 Pfad auch gut ist, aber er ist ja direkt von der X-Box Version portiert/übernommen).
 
"
Es währe sehr unratsam ein Spiel nur für einen Grafikkartenhersteller optimiert auf den Markt zu bringen, da es den Kundenstamm quasi halbieren würde (außer natürlich die, die auch mit dem älteren Renderpfad 1.1 keine Probleme hätten). Ich denke dass das Riskio nicht eingegangen wird.
"

Das muss nicht so sein. Ein zum Beispiel anderes Verhalten könnte sein, dass die Kunden unzufrieden mit dem eigenen Produkt bzw. der Firma (in dem Fall ATI) sind und dann einfach ein Produkt der Konkurenz kaufen.
Es kommt immer darauf an wie die Medien das verkaufen. Die typischen Bild Medien werden das zu Lasten des jeweilig schlechteren Hardwareherstellers legen in dem Fall bei diesemSPiel wohl ATI.

"
Könnte gut sein das die Shader 3.0 auch nur eingebaut sind um in den Spielemagazinen eine bessere Wertung zu erreichen (Da kann man dann auch gleich schonmal eine GF6800GT/U mitsponsoren oder dazusagen das auf so einer gebencht wird). Der Performancebringer is das sicher nicht (Mit ner GF6600GT nichtmehr wirklich spielbar).
"
Woher willst du wissen was spielbar ist und was nicht. Man kann auchmal bei der Auflösung heruntergehen. Mit SM3.0 sind aufwendigere Shader möglich ohne viel Performance zu verlieren. Ein Shader auf 3.0 ausgelegt mit hübschen langen Anweisungen, wird SM2.0 Hardware in die Knie zwingen und zwar deutlich früher als SM3.0 Hardware.
Es ist ja nicht die Schuld von Nvidia oder den SplinterCell machern, dass ATI sich seit der Radeon9700 ausgeruht hat. Sie hatten ja genug Zeit SM3.0 zu integrieren. Wer sich die belämmerte X700pro oder X800pro gekauft hat ist selber Schuld. Da gabs die ganze Zeit bessere Produkte zum gleichen oder günstigeren Preis.
 
Limp Bizkit schrieb:
Da ich eine Geforce 6800 mein Eigen nenne, kann ich nur lachen :D . Aber ich finde es nicht gut, was da droht auf uns zu zukommen. Am Ende hat jeder von uns aus beiden Lagern Grafikkarten, damit auch ja jedes Spiel in voller Qualität genießbar ist. Wo kommen wir den da hin?

Gruß,

Flo
Sehr interessant wäre in diesem Zusammenhang die Vision eines SLI Systems, das aber nicht zwei GraKas per SLI zur Zusammenarbeit bringt, sondern im einem PCIe Port eine nVidia und im anderen eine ATI Grafikkarte hat und beim booten darft man dann wählen "where do you wanna go today?" :lol:
 
@sebbekk

Sowas geht schon und funktioniert afaik auch. Man kann dann in Windows wählen welche der beiden Grafikkarten rendern soll. Gab irgendwo mal einen Test dazu.
 
Die Splinter Cell 3-Demo bekommt ihr hier unter diesem Link (Größe ca. 590 MB). Und einen von vielen BitTorrent Clients bekommt ihr hier (BitComet). Einfach Download starten und nach einer Viertelstunde mal nachsehen, vorher ist die Geschwindigkeit meistens im Keller. Hab eDonkey und Co. nie benutzt, aber BitTorrent ist für solche legalen Sachen echt nicht schlecht.

Geschwindigkeit:
nach 05min - 20 kb/s
nach 10min - 30 kb/s
nach 20min - 40 kb/s
nach 30min - 60 kb/s

Auf der Seite FileRush gibt es zahlreiche weitere legale Downloads (InGame Videos, Trailer und Demos) zum Thema Computer und Konsolen Spiele als BitTorrent Links.
 
Zuletzt bearbeitet:
Gut das is SC total scheisse finde :D
Und meine ATI werde ich wegen so einem shit Game nicht gegen eine Nvidia eintauschen. Bäh Nvidia hat einfach so ein ekliges Bild :)
 
Ich denke zunächst sollten sich die ATI User nicht aufregen, na klar ist es scheiße, dass der Shader 2.0 und 2.x nicht implementiert wurden.

Man muss aber auch dazu sagen, dass auch alle Besitzer von Nvidia Karten der FX serie nicht in denn vollen genuß kommen, da auch diese Karten keinen Shader 3.0 besitzen. Bei diesen wäre es zumindestens möglich gewesen 2.0 zu nutzen (auch wenn mit diesem path das spiel sicherlich nicht mehr gut spielbar gewesen wäre, aufgrud der Schlechten DX9 unterstüzung der fx Serie.)

Als weiteres muss man anmerken, dass das spiel anscheinent schon für die nächste genaration von Grafikarten progranmiert wurde, da es selbst auf meinem 3400+ AMD 64 1gb ram und einer 6800Gt es gerade mal so spielbar bei allen deteils und 1024 * 768 (19-60 fps, wobei 60 fps nur an wengien stellen zusatnde kommen innenräume, wenige effekte ect.) ist


ich finde diese Entscheidung der Splinter cell programiere zwar falsch, da ich denke dass nur ein sehr greinger Anteil an Enduser eine Karte der neusten Serie besitzen, sowohl von ATI und Nvidia, aber anscheinent werden sie diese Entscheidung wohl gemacht haben und die Engien auch zukunft sichere zu machen (moded utk4 engien) .

Somit bleibt meiner Meinung nach fetszuhalten, dass man das Siel momment sowieso nur auf absoluten highend Rechner in seiner vollen pracht und geschiwindigkeit genißen und usern mit normalen Maschienen bis sehr guten halt auf die nächste Genartion von Grafikarten warten müssen damit sie dann mit allen effekten das spiel genießen können (forausgesetzt, dass auch die mainstram Karten der nächsten Genartion einen erheblichen performence Sprung ins Sachen Shader (3.0) machen.


Also leute würd uns wohl nichts anders übrig beleiben auf die nächste Geanrtion von Karten zu warten und wieder teures Geld zu invsetieren, damit man dann auch Spiele der Nächsten Geration (UT engien 3, Q4 ect.) gut in hoher Quiltät spielen kann ;) .
 
Also ich hab die Demo gerade durch und bin begeistert. Läuft super auf nem A64 3200+, 1 Gig Ram und 9700Pro (1280x1024 alles auf high ohne AAF und FSAA). Die Grafik is cool obwohl man wenn man mit dem Nachtsichgerät unterwegs is sowieso wenig von sieht. Ich werd mir das Game zulegen...wie auch die schon die Vorgänger (wobei 1 besser war als 2)
cu all
lufkin
 
Ich fass mal zusammen:

bei header ruckelt es mit einer 6800GT

und lufkin ist begeistert und spielt flüssig mit einer 9700

Ich hab die News ja gelesen und vielleicht kommt die 9700 ja so gut klar, weil sie nichts mit SM3.0 am hut hat und ihre DX8 Qualitäten gut ausspielen kann.
Heißt das für mich, der sich vor kurzem ne 6800 gekauft hat, dass ich besser für SC3 meine alte Ti4200 einbauen sollte? Die ist ja immer noch eine der besten DX8 Beschleuniger die es gitb und auf SM3 wird sie zugunsten der Performace auch mal geschmeidig verzichten?

Oder was soll ich jetzt davon halten?
 
Ich finde es ein Armutszeugnis, einfach ältere Karten nicht mehr zu unterstützen. Ich meine damit nicht in erster Linie die fehlende Unterstützung der X8xx Reihe für SM3.0, sondern generell die fehlende Unterstützung für SM 2.0. Ich weiß, wieso ich mir die meisten neuen Spiele nicht mehr kaufen werde.

Immer kürzer, immer teurer, immer mehr Kartellisierung(HL2, Doom 3, usw.) Immer höhere Hardwareanforderung (-> Kaufzwang), schlechte Optimierung für alte Karten(-> erst recht Kaufzwang). Bis auf einige Ausnahmen sind die meisten neuen Spiele davon betroffen.

Ich spiele derzeit überhaupt nichts mehr, nachdem ich WC3 + Add-On, Gotic 2 + Add-On und Diablo 2 + Add-On nochmal durchgespielt habe...
 
sebbekk schrieb:
Sehr interessant wäre in diesem Zusammenhang die Vision eines SLI Systems, das aber nicht zwei GraKas per SLI zur Zusammenarbeit bringt, sondern im einem PCIe Port eine nVidia und im anderen eine ATI Grafikkarte hat und beim booten darft man dann wählen "where do you wanna go today?" :lol:

Das gibt es bereits HIER auf Tomshardware haben sie es bereits gemacht!
 
HEHE ich weiss auch warum ich mir ne Nvidia gekauft hab ( nicht nur die leistung machts )*grins*


Ich finds gut das ATI und NVIDIA sich eine schlacht Liefern , einige sagen es bewirkt sich nachteilig auf den endverbraucher aus . Ich sage nein wie man so schön sagt Konkurenz belebt das Geschäft.


AMD64 + NVIDIA 4 EVER
 
Sponk007 schrieb:
AMD64 + NVIDIA 4 EVER

Und wieder jemand, der sich auf dem Kreuzzug gegen das "Böse" befindet. Aber das legt sich (hoffentlich), wenn du älter wirst.

Ich zocke im Moment ein Browsergame für das eine X-beliebige VGA Karte ausreicht. Ansonsten auch mal wieder Fallout 2 sowie Fallout BoS. Grafik ist nicht alles. Es muss lange Spass machen. Das zeichnet ein gutes Spiel aus.
 
Ist doch wirklich ein Witz, wenn man den wichtigsten Renderrpfad zur Zeit überhaupt (SM2.0) einfach weglässt. Ubi-Soft baut einfach nur Scheiße. Man macht sich keine Freunde, wenn Grafikartenbesitzer einer Firma (obwohl die Gefoce-FX ja auch "nur" SM2.0 unterstützt) einfach bewusst benachteiligt.

Naja, ist halt typisch nV Marketing. Man kennt ja die miesen Praktiken dieser Firma gegen die eigenen Kunden und gegen die Konkurrenz.
 
Zuletzt bearbeitet:
Zurück
Oben