• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Splinter Cell 3-Demo mit dicker Überraschung

kannstes ma bei filefront versuchen. ansonsten, als torrent client kann man eigentlich nur azureus empfehlen. der rest ist ziemlicher müll.
 
Ja danke, hätt ich zwar mit meinem VPN Tunnel nicht gedacht, aber Azureus läuft mit D:100/U:30 :)
 
GuaRdiaN schrieb:
...
Das Schlüsselwort ist, wenn ich nicht irre RISC! Dazu noch vernünftige Software und wir haben einen Apple! Man würde zumindest sehen, dass aus einer GF3, wahrscheinlich - wobei ich das nicht weiß - mehr Leistung geholt werden könnte als aus modernen Grakas!

Cya
Ist zwar jetzt ein anderes Thema, aber egal. RISC ist 2005 überhaupt keinArgument, weil es kaum reine RISC- oder reine CISC-Prozessoren gibt, die Unterschiede zwischen den mit dem einen der dem anderen Kürzel bestempelten Produkte sind mittlerweile alles andere als klar.

Schon als der PowerPC samt einer Befehlseinheit Namens Altivec auf den Markt kam wurden Fragen laut, was denn nun "Reduced Construction Set Computing" wirklich bedeute, schließlich ist Altivec nicht "reduced", sondern "complex". Man fand sich damit ab, dass 1. Power ja für "... with enhanced RISC" steht und 2. RISC sowieso mehr dafür galt, dass überhaupt einige kleine Befehle fest in der Hardware verdahtet sind. Demnach ist nun erstmal jeder Prozessor der fest in der Hardware verdrahtete Befehle hat ein RISC-Prozessor. Die letzte bedeutende CISC-Architektur soll laut diversen Nachschlagewerken x86 sein, jedoch ist das, lässt man die Definition aus den vorrangegangenen Stätzen gelten, schon lange nicht mehr der Fall.
Der AMD K6-2 ist ein x86-Prozessor, genauer gehört er der i686-Familie an und eben dieser Prozessor war der erste x86-Prozessor mit ein paar fest in der Hardware verdrahteten Befehlen, zu weltruhm brachte es dabei der Loop-Befehl, welcher dazu führte, dass Windows 95, wegen Designfehler seitens Microsoft, nicht mehr starten konnte (damit das System nicht weiter bootet während die Treiber noch geladen werden wurde damals einfach ein Loop-Befehl mit einer festen Wiederholungsanzahl gesetzt, der K6-2 arbeitete das einfach zu schnell ab). Seit dem K6-2 sind alle AMD-x86-Prozessoren mit einigen fest verdrateten Befehlen versehen, Intel macht das seit dem P3 auch.
Womit man mittlwerweile sagen kann, dass auch aktuelle x86-Prozessoren RISC-Prozessoren sind. ;)
 
Zuletzt bearbeitet:
MountWalker schrieb:
Ist zwar jetzt ein anderes Thema, aber egal. RISC ist 2005 überhaupt keinArgument, weil es kaum reine RISC- oder reine CISC-Prozessoren gibt, die Unterschiede zwischen den mit dem einen der dem anderen Kürzel bestempelten Produkte sind mittlerweile alles andere als klar.

Schon als der PowerPC samt einer Befehlseinheit Namens Altivec auf den Markt kam wurden Fragen laut, was denn nun "Reduced Construction Set Computing" wirklich bedeute, schließlich ist Altivec nicht "reduced", sondern "complex". Man fand sich damit ab, dass 1. Power ja für "... with enhanced RISC" steht und 2. RISC sowieso mehr dafür galt, dass überhaupt einige kleine Befehle fest in der Hardware verdahtet sind. Demnach ist nun erstmal jeder Prozessor der fest in der Hardware verdrahtete Befehle hat ein RISC-Prozessor. Die letzte bedeutende CISC-Architektur soll laut diversen Nachschlagewerken x86 sein, jedoch ist das, lässt man die Definition aus den vorrangegangenen Stätzen gelten, schon lange nicht mehr der Fall.
Der AMD K6-2 ist ein x86-Prozessor, genauer gehört er der i686-Familie an und eben dieser Prozessor war der erste x86-Prozessor mit ein paar fest in der Hardware verdrahteten Befehlen, zu weltruhm brachte es dabei der Loop-Befehl, welcher dazu führte, dass Windows 95, wegen Designfehler seitens Microsoft, nicht mehr starten konnte (damit das System nicht weiter bootet während die Treiber noch geladen werden wurde damals einfach ein Loop-Befehl mit einer festen Wiederholungsanzahl gesetzt, der K6-2 arbeitete das einfach zu schnell ab). Seit dem K6-2 sind alle AMD-x86-Prozessoren mit einigen fest verdrateten Befehlen versehen, Intel macht das seit dem P3 auch.
Womit man mittlwerweile sagen kann, dass auch aktuelle x86-Prozessoren RISC-Prozessoren sind. ;)

Werde zu diesem Erguß nicht viel sagen, da ich dafür vieles nachlesen müsste, dennoch frage ich mich, ob dann viele Leute eunfach nur Schwachsinn reden? Ich denke nicht!

MfG GuaRdiaN
 
keine Ahnung, warum alle schreien. Bevor man sich eine ATI gekauft hat, hat man sich beetimmt ein bischen schlau gemacht. Allen sollte klar gewesen sein, das nVidia SM 3.0 unterstützt und ATI nicht.
Is doch klar, das die Hersteller so reagieren. low level für ältere Generationen, high level für die neueste. Meiner Meinung nach ist ATI selbst Schuld (und damit der Kundenunfreundliche Part), wenn man auf die aktuellsten Errungenschaften der Technik verzichtet!
 
GuaRdiaN schrieb:
Werde zu diesem Erguß nicht viel sagen, da ich dafür vieles nachlesen müsste, dennoch frage ich mich, ob dann viele Leute eunfach nur Schwachsinn reden? Ich denke nicht!

MfG GuaRdiaN
Ähhm, muss der Tonfall jetzt wirklich sein? Dass "die Leute" nicht imer alle Weisheit mit Löffeln gefressen haben ist nunmal normal.

[URL]http://de.wikipedia.org/wiki/CISC[/URL] schrieb:
Selbst das klassische Beispiel für CPUs mit CISC-Befehlssatz, die x86-Prozessoren, verwenden seit Einführung des Pentium zur Ausführung ihrer Befehle meist einen RISC-Kern mit einer vorgeschalteten Funktionseinheit. Diese Funktionseinheit übersetzt die komplexen Befehle in eine Art RISC-Befehle, die je nach Hersteller und CPU Namen wie ROP, Mirco-Op oder µOp tragen.

Wenn du nicht selbst nachschauen willst, dann behaupte auch nicht aufgrund reiner Vermutung und Annahmen wie: "Die sagen doch alle RISC ist viel geiler als x86" uneingeschränt recht zu haben. Und vor allem halte dich mit beleidigenden Wertungen wie "Erguss" zurück wenn dir jegliche Grundlage für eine Bewertung fehlt!
Ich habe dich freundlich auf etwas aufmerksam machen wollen...
 
Zuletzt bearbeitet von einem Moderator: (Lexikon-Link korrigiert)
Danke für den Hinweis - wurde berichtigt. :)
 
MountWalker schrieb:
Ähhm, muss der Tonfall jetzt wirklich sein? Dass "die Leute" nicht imer alle Weisheit mit Löffeln gefressen haben ist nunmal normal.

Ähm, das hast nicht ganz richtig verstanden! Daran war nichts verachtend! Ich weiß darüber nicht genug und ich habe derzeitig kein Interesse daran, mich dahingehend so weit zu informieren, bis ich da - fachlich fundiert - mitreden kann! Das meine ich!

-> Mir ist klar, dass viele nicht unbedingt wissen wovon sie reden. Aber wenn ich an Computer wie die SGI Indigo denke, dann hat der RISC CPU doch seine Begründung. Ich meine, anders ist diese Leistung nicht zu erklären!
Und ich denke nicht, dass es sich bei den 8086er CPU's um RISC Cpu's handelt. Einfach weil x86 ja nun wirklich der derzeitige Standard ist. Im Server und im Workstationbereich mag das was anderes sein. (Alpha, SPARC, usw)!

Oder verstehe ich da etwas flasch?
 
GuaRdiaN schrieb:
...
Und ich denke nicht, dass es sich bei den 8086er CPU's um RISC Cpu's handelt.
habe ich ja auch nicht behauptet, ich rede von weit moderneren x86-Prozessoren, i586 und i686. ;)
Am besten ich lege dir einfach eine Produktbeschreibung von AMD zum Nx586 vor, dieser prozessor gehört noch zur Vorgängerserie des K5, also zu den ersten eigenen Prozessor-Designs von AMD und er ist ein Mobile-Prozessor, was aber nicht weiter stört:
http://www.amd.com/de-de/Processors/ProductInformation/0,,30_118_1260_1272,00.html
Hier mal ein Zitat:
RISC86 Microarchitecture
The Nx586 processor fully implements the industry standard x86 instruction set to be able to run the more than 50,000 applications now available. This implementation is accomplished through the use of NexGen's patented RISC86 microarchitecture. The innovative RISC86 approach dynamically translates x86 instructions into RISC86 instructions. These RISC86 instructions were specifically designed with direct support for the x86 architecture while obeying RISC performance principles. They are thus simpler and easier to execute than the complex x86 instructions. Note that this approach is fundamentally different than RISC processors, which have no support whatsoever for the x86 instruction set architecture. The RISC86 microarchitecture also contains many state-of-the-art computer science techniques to achieve very high performance, including register renaming, data forwarding, speculative execution, and out-of-order execution.
 
ich hab zwar ne nvidia karte die das shader model 3.0 unterstüzt trotzdem finde ich es ein "wenig" krass, dass der konkurrenzkampf zwischen ATI und nVidia soo ausartet, dass verschiedenste spiele (ich geh einfach mal davon aus, dass splinter cell nicht der einzige titel sein wird) nur noch auf bestimmten karten, bestimmter hersteller, auf voller leistung laufen können (da die aktuellen ati karten eben noch kein shader model 3.0 unterstützen... was ja eigentlich bedauerlich ist).
ist jawohl mehr als ärgerlich wenn man sich ne aktuelle ati karte a la x800 etc. käuft, welche auch nicht gerade günstig ist, und das spiel auf was man sich freut nicht so spielen kann wie man es sich zuvor vorstellte. somit kann ich mir vorstellen, dass karten umgetauscht (eben gegen welche der konkurrentz [in diesem falle nVidia modelle]) werden, die umsätze von ati zurückgehen (was in späterer zeit ggf. bei nVidia ähnlich sein wird (falls ATI auf den zug aufspringt)).

konkurrenz belebt das geschäft und ist für uns als kunden notwendig um produkte zu guten preisen erhalten zu können (was leider bei betriebssystem nicht der fall ist. da hier leider herr gates und sein microsoft ein anbietermonopol stellt)... aber was hier atm abgeht ist nicht mehr die feine englische art. hier wird mit der spiele industrie eng zusammengearbeitet und konkurrent bewusst ausgeschaltet.
arme computerindustrie *heul*
 
mOwL wÓ_òrF schrieb:
ich hab zwar ne nvidia karte die das shader model 3.0 unterstüzt trotzdem finde ich es ein "wenig" krass, dass der konkurrenzkampf zwischen ATI und nVidia soo ausartet, dass verschiedenste spiele (ich geh einfach mal davon aus, dass splinter cell nicht der einzige titel sein wird) nur noch auf bestimmten karten, bestimmter hersteller, auf voller leistung laufen können (da die aktuellen ati karten eben noch kein shader model 3.0 unterstützen... was ja eigentlich bedauerlich ist).
ist jawohl mehr als ärgerlich wenn man sich ne aktuelle ati karte a la x800 etc. käuft, welche auch nicht gerade günstig ist, und das spiel auf was man sich freut nicht so spielen kann wie man es sich zuvor vorstellte. somit kann ich mir vorstellen, dass karten umgetauscht (eben gegen welche der konkurrentz [in diesem falle nVidia modelle]) werden, die umsätze von ati zurückgehen (was in späterer zeit ggf. bei nVidia ähnlich sein wird (falls ATI auf den zug aufspringt)).

konkurrenz belebt das geschäft und ist für uns als kunden notwendig um produkte zu guten preisen erhalten zu können (was leider bei betriebssystem nicht der fall ist. da hier leider herr gates und sein microsoft ein anbietermonopol stellt)... aber was hier atm abgeht ist nicht mehr die feine englische art. hier wird mit der spiele industrie eng zusammengearbeitet und konkurrent bewusst ausgeschaltet.
arme computerindustrie *heul*


Das stimmt! Und wer bleibt auf der Strecke? Natürlich der Kunde.
Aber ich werde ganz bestimmt nicht meine X800XTPE gegen eine NV Karte umtauschen. Ganz gewiss nicht. Verzichte doch nicht freiwillig auf die hammermäßige Performance in allen Games, nur wegen ein paar Effekten in ein/zwei Spielen. Die 6800U ist nämlich bei weitem nicht das Maas aller Dinge und kackt gegenüber der XTPE teilweise gehörig ab! Scheis doch auf den HDR Effekt in SC3! :p
Das Game sieht auch so supergenial in 1280x1024 4xAA/16xAF aus! Alle Achtung! Mit der Grafik hat sich UbiSoft selbst übertroffen.
Natürlich darf so etwas nicht Schule machen, denn dann wechseln wirklich viele User von ATI auf NV! Oder warten auf die neue ATI generation! Wobei dafür wieder PciE Mobos gebraucht werden.
 
Moin

Ich habe die Demo mal angetestet und bin auch Begeistert.Super Grafik.Da ich die Vorgänger schon sehr gerne gespielt habe, kann ich es gar nicht abwarten bis der nächste Teil zu haben ist.

Ich habe zwar auch ne Geforce 6800 GT und darf in den Genuss des SC3 kommen aber dennoch muss ich da Steel vollkommen Recht geben mit dem was er geschrieben hat.

Das stimmt! Und wer bleibt auf der Strecke? Natürlich der Kunde.
Aber ich werde ganz bestimmt nicht meine X800XTPE gegen eine NV Karte umtauschen. Ganz gewiss nicht. Verzichte doch nicht freiwillig auf die hammermäßige Performance in allen Games, nur wegen ein paar Effekten in ein/zwei Spielen. Die 6800U ist nämlich bei weitem nicht das Maas aller Dinge und kackt gegenüber der XTPE teilweise gehörig ab! Scheis doch auf den HDR Effekt in SC3!
Das Game sieht auch so supergenial in 1280x1024 4xAA/16xAF aus

Gruss $ly.,de
 
Hab mal die demo angespielt. Spiele Auf Notebook 3ghz 1gb ram 64mb grafik.
Half Life 2 Läuft in 1024 x 768 mit allen details (auch wassereffekte) mit ca. 30 fps.
Nun Splinter cell: in einer scheiß auflösung von 640 x 480 !!!!!! ohne irgendwelche zusatz details komme ich auf unschlagbare 15 fps. Wie schlecht kann man spiele Programmieren!!!!
Nehmt euch ein Beispiel an Valve und dann gehts auch. Und jaja HL2 ist etwas älter, aber sieht trotzdem mindestens genauso gut aus.
 
viGGo schrieb:
so übernacht per BT gesaugt dank Shareaza noch 5% :evillol: vll sollte ich mir cfosSpeed zu legen hab volle 16 kb/s upload :lol:

EDIT:

um 6:47 UHR fertig... der BT Link aus dem 3dCenter ist nicht schlecht

moin
hab den gleichen link benutzt, aber wenn ich die Datei öffnen will, kommt unter Azureus immer ne Fehlermeldung: Splinter Cell Chaos Theory Demo.exe.torrentFehler: Keine Torrent-Information in Datei gefunden (Contents invalid - bad header)?? :confused_alt: oder mach ich wat falsch
 
Also, was mir komisch vorkommt in dieser Diskussion ist ja, dass dieser SM3 für Nvidia programmiert wurde: (das folgende ist nicht 100%ig ernstgemeint)
Die können das ja wohl höchstens für die 6800GT/Ultra programmiert haben.
Ich hab ne 6600GT und in 1024 mal 768 (kein AA, AF) und sonst hohen Details ruckelt das wie sonst was. Also ich bin selten über die 20fps Grenze gekommen.
Ok, High-End is mein Rechner jetzt nicht, aber dass das Spiel darauf nicht flüssig läuft is ja wohl n Witz.
Ich mein die Grafik is echt gut, aber HL2 und FarCry sehen ebenso gut aus, und das ruckelt nicht (obwohl HL2 ATI-optimiert ist).
Aber dass der Titel dann irgendwie nur auf 2 Grakas überhaupt auf vollsten Deteils zu spielen ist (6800GT/Ultra), ist doch irgendwie absurd.

Und dann an all jene, die hier irgendwie für einen Hersteller sind:
Ich will ja nicht besserwisserisch erscheinen, aber dieses Nvidia 4 ever oder so ählich, wie das hier schon mal geschrieben wurde, is doch eine ziemlich kurzsichtige Einstellung.
Wir brauchen schließlich auf dem Markt (mindestens) 2 etwa gleich große Gegenspieler, ansonsten hätte ja der jewieils andere ein Quasi-monopol und könnte Entwicklungstempo und Preise fast alleine vorgeben, was ja uns am meisten abträglich ist. Denn den Technologievorsprung, den diese beiden Firmen schon haben, lässt sich von anderen Mitbewerbern nicht mehr aufholen.

Ich hoffe dann mal ich krieg dann keinen Anschiss von irgendwelchen Leuten, weil mein Post irgendwelchen adneren ähnlet, aber mal ehrlich:
Das kann doch kein Mensch alles lesen, was dazu da steht.

Achso:
Wie siehts den bei euch so mit der Perfomance aus?
Auch so beschissen?

Also irgenwie n Konzept is bei mir etz irgenwie net drin
naja...
 
Zuletzt bearbeitet:
Da scheinst du wohl recht zu haben und meine Befürchtungen, das die 6600GT bei SM3.0 zu langsam ist, haben sich bestätigt!
Vielleicht wird es aber in der Finalen Version anders aussehen. Ist ja nur ne Demo und diese sind meistens recht buggie und absolut nicht optimiert.

Ich zocke mit meiner X800XTPE bei 1280x1024/4xAA/16xAF. Und habe damit so 39-60FPS, je nach Szene. Damit kann man leben! ;) SC3 kann kommen! :D
 
Hannibal101286 schrieb:
Also, was mir komisch vorkommt in dieser Diskussion ist ja, dass dieser SM3 für Nvidia programmiert wurde: (das folgende ist nicht 100%ig ernstgemeint)
Die können das ja wohl höchstens für die 6800GT/Ultra programmiert haben.
Ich hab ne 6600GT und in 1024 mal 768 (kein AA, AF) und sonst hohen Details ruckelt das wie sonst was. Also ich bin selten über die 20fps Grenze gekommen.
Ok, High-End is mein Rechner jetzt nicht, aber dass das Spiel darauf nicht flüssig läuft is ja wohl n Witz.
Ich mein die Grafik is echt gut, aber HL2 und FarCry sehen ebenso gut aus, und das ruckelt nicht (obwohl HL2 ATI-optimiert ist).
Aber dass der Titel dann irgendwie nur auf 2 Grakas überhaupt auf vollsten Deteils zu spielen ist (6800GT/Ultra), ist doch irgendwie absurd.

Und dann an all jene, die hier irgendwie für einen Hersteller sind:
Ich will ja nicht besserwisserisch erscheinen, aber dieses Nvidia 4 ever oder so ählich, wie das hier schon mal geschrieben wurde, is doch eine ziemlich kurzsichtige Einstellung.
Wir brauchen schließlich auf dem Markt (mindestens) 2 etwa gleich große Gegenspieler, ansonsten hätte ja der jewieils andere ein Quasi-monopol und könnte Entwicklungstempo und Preise fast alleine vorgeben, was ja uns am meisten abträglich ist. Denn den Technologievorsprung, den diese beiden Firmen schon haben, lässt sich von anderen Mitbewerbern nicht mehr aufholen.

Ich hoffe dann mal ich krieg dann keinen Anschiss von irgendwelchen Leuten, weil mein Post irgendwelchen adneren ähnlet, aber mal ehrlich:
Das kann doch kein Mensch alles lesen, was dazu da steht.

Achso:
Wie siehts den bei euch so mit der Perfomance aus?
Auch so beschissen?

Also irgenwie n Konzept is bei mir etz irgenwie net drin
naja...


splintercell scheint also sehr grafikkarten lastig sein, weil ich hab das gleiche problem wie du, nur mit ne 1800+ cpu.

bei mir ist es aber meist etwas über 20 fps, so 21, 22

wenn ich das licht ausmache, bekomm ich meist um die 40-50 fps. also liegts an hdr,


edit:
nur so nebenbei
man hättten wir noch so zeiten wie mit der voodoo5 6000, 4 grafikchips auf einen pcb :D
gibt ja die geforce 6600 gt mit 2 chips auf einen pcb, ob das auch mit 4 geht :freak:

naja füher hat man was für sein geld bekommen, da hab ich mir die voodoo 3 für 220 mark gekauft, und sie war fast highend, heute zahl ich 220 € (fast das doppelte) für ne 6600 gt , und bin zwar auch noch fast low- highend, aber der preis hat sich verdoppelt
 
Zuletzt bearbeitet:
Zurück
Oben