• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News EA, Sega und Blizzard bringen D3D-10.1-Spiele

bigot schrieb:
Damit hätte sich das Thema Nvidia-Karte restlos erledigt. GTX egal ob +, 260 oder 280, alle bereits veraltet. Gut zu wissen. :)

Und in allen DX10.1-Karten schlummert somit noch Performance die in den nächsten Monaten entfesselt wird. Man kauft Hardware zwar nicht unbedingt für die Zukunft, aber 1-2 Jahre sollte ne aktuelle Performance-Karte schon "haltbar" bleiben. Und nen ne Perfomance-Schub gratis in nächster Zeit, why not!?


Wieso veraltet? Bis solche Spiele auf den Markt kommen und man davon auch spürbar profitiert gibt es schon wieder die nächste oder übernächste GPU-Generation.
Mir wäre ne GTX280 ohne DX10.1 trotzdem lieber als eine HD3870 mit DX10.1 ....
(vom Stromverbrauch mal abgesehen^^)
 
Oh man, hier wird ein sch..ß geschrieben :watt:
Ich empfehle mal:
1. Einmal erkundigen in Google oder Wiki.
2. Verstehen was man liest.
3. Beitrag verfassen.

:schluck:
 
bigot schrieb:
Damit hätte sich das Thema Nvidia-Karte restlos erledigt. GTX egal ob +, 260 oder 280, alle bereits veraltet. Gut zu wissen. :)

Haha dachte ich mir auch gerade :)

Zwirbelkatz schrieb:
Ich kann es mir beim besten Willen nicht vorstellen, dass wenn Diablo 3 hoffentlich im Juni 2009 oder Weihnachten 2009 kommen wird, dann alle Besitzer einer 8800gt u. a. in die Röhre schauen sollten.
Das wäre eigentlich keine Strategie Blizzards, die man nachvollziehen könnte. Jemand der so ein Hack n Slay spielt möchte bestimmt nicht extra großartig dafür aufrüsten müssen.
Für die gebotene Grafik sollte eine x19xx oder 9600gt grundsätzlich von der Rohleistung reichen.

Naja, also die spieler die die veralteten karten haben (nvidia *hust*), werden eben keine dx 10.1 effekte haben und das wars auch. Das heißt nicht gleich, dass da nix laufen wird, nur ati user werden eventuell "mehr" sehen können. Naja, aber am ende: Nvidia käufer sind eben selber schuld - heuliheul :evillol:

Naja so oder so, diablo 3 wird nichtmal physx unterschtützen...

Ich hoffe aber, dass auch SC2 dx 10.1 unterschtützen wird...
 
@H3rby

Und als Splinter Cell: DA kam haben alle X800er-Reihe-Besitzer dumm aus der Wäsche geguckt weil Ubisoft meinte man müsse unbedingt nur SM3 unterstützen, ohne einen SM2-Fallback-Modus!

Damals sah man also schon den massiven Einfluss von Nvidia auf Ubisoft!

Edit: Und jetzt bin ich auf Kommentare gespannt, die diesen Tatsache noch schönreden wollen!
 
Zuletzt bearbeitet:
@ bigot

Gehts noch dramatischer? ... Is ja schoen, dass du dich ATI annäherst, aber die Nvidia-Karten sind nicht tot.
Ich als treuer ATI-Käufer könnte mich jetz schwer entscheiden, die angebote sind alle nicht schlecht :)

@topic

Ich finds gut, dass 10.1 besser mit Spielen versorgt werden soll, aber ich glaub, dass es etwas spät kommt.
Aber wenn man so eine Karte besitzt und es kommen Spiele, wo die Performance oder Bild-quali besser ist, bitteschoen :)


ABER bitte, bitte hört mit euern battles auf, welche Karte, Feature oder sonstwas besser ist ...
 
Das ist wie damals, als Nvidia schon SM3 unterstützt hat, aber ATI nur SM2.0b .
Damals konnte man auch alles mit ATI-Karten spielen, vll nicht ganz so optisch "perfekt", aber es ging.

Und wenn DX10.1 anscheinend nur Geschwindigkeitsvorteile bringt, dann glaube ich nicht, dass man zu große Nachteile erwarten muss.
 
@Radde

Also manche Spiele haben einen mit SM 2.0 ausgesperrt und das Spiel wollte nicht starten. Ich glaub MoH PA hat das gemacht.
 
@douggy63

Ja sorry, bin Dramatiker aus Leidenschaft, dieses Laster habe ich mir durch die Aktivität in diversen HW-Foren zugezogen.

@Topic
Ist eigentlich alles halb so wild, Nvidia bringt Anfang 2009 ebenfalls DX10.1-Karten, wenn also die ersten Spiele erscheinen unterstützen Karten von beiden Herstellern dieses Feature. Nur die GTX nicht ^^ egal welche ^^
 
Muckel1988 schrieb:
:lol:


Ich werde mir wohl auch eine 4870 leisten, wenn sie so bei 180€ angekommen ist. Hauptsache das dauert nicht mehr so lange.

dürftest in spätestens 2 Wochen glück haben, vielleicht auch schon im laufe der nächsten woche.

H3rby schrieb:
Uralt??

Die Diskussionen gibt es doch öfters, ich erinnere an lebhafte "Streitereien" zwischen den Fanlagern der X8x0er Reihe und der 6x00er Reihe. ATi konnte damals nur DX9.0b und Shader 2.0 und Nvidia DX9.0c und Shader 3.0.
Im Endeffekt war/ist's vollkommen bums, welche man genommen hat. Beide sind heute zu langsam für Spiele, die diese Effekte ordentlich nutzen..

Das stimmt nicht ganz, oblivion ohne hdr sieht schon recht mager aus. Man mag über hdr denken was man will aber das hat bei oblivion schon einen großen einfluss. Es war schon ein wichtiges Argument zurecht.

Zero2Cool schrieb:
Wieso veraltet? Bis solche Spiele auf den Markt kommen und man davon auch spürbar profitiert gibt es schon wieder die nächste oder übernächste GPU-Generation.
Mir wäre ne GTX280 ohne DX10.1 trotzdem lieber als eine HD3870 mit DX10.1 ....
(vom Stromverbrauch mal abgesehen^^)

Ja schön das du jetzt eine 100,- karte mit einer für 350,- vergleichst. Vergleich doch mal ne übertaktete hd4870 mit ner standard gtx260 dann kommst umgefähr auf gleiche preis klasse. Da gewinnt Amd schon so locker, wenn dann noch 10% mehr speed wegen dx10.1 drin ist dann ist doch klar welche der karten man kauft. Außer man will mehr ausgeben aber auch da wird die hd4870 x2 gewinnen. 8x aa gratis bei hohen auflösungen. Wenn amd ansonsten schlechter aufgestelt wäre (preis/leistung und leistung) dann würd ich dir vielleicht recht geben das es nicht sooo wichtig ist. Aber so ist es noch das tüpfelchen auf dem i das eigentlich jeden der noch klar bei trost ist oder nicht aus prinzip erfahrung was weiß ich nvidia kaufen will egal wie die karten sind, zu ati treiben sollte.

Radde schrieb:
Das ist wie damals, als Nvidia schon SM3 unterstützt hat, aber ATI nur SM2.0b .
Damals konnte man auch alles mit ATI-Karten spielen, vll nicht ganz so optisch "perfekt", aber es ging.

Und wenn DX10.1 anscheinend nur Geschwindigkeitsvorteile bringt, dann glaube ich nicht, dass man zu große Nachteile erwarten muss.

Ja eure 8800gts werden für die spiele auch tun, aber es ist halt ein vorteil ob groß oder klein und für die leute die jetzt eine karte kaufen ist das zurecht nun auch ein kaufgrund.

übrigends wird es nicht nur geschwindigkeitsvorteile bringen sondern einfach auch ein paar nette effekte mehr.

Physix dagegen ist noch zu wackelig da ist nicht klar was sich durch setzt und ati kann das auch unterstützen wenn sie wollen, von daher seh ich das nicht als kaufgrund für ne nvidia-karte.
 
Zuletzt bearbeitet:
Nene MOH: PA konnte ich auch mit einer X800XT wunderbar spielen.

Ich glaube EA hat so ein Armutszeugnis nicht hingelegt - für solche Sperenzchen ist nur ein Laden bekannt: Ubisoft.

Ubisoft ist billig und willig, wenn es um ein Techtelmechtel mit Nvidia geht. Sieht man doch auch heutzutage wieder an Assassins Creed was da alles weggezaubert wurde.

Aber in der Vergangenheit fing es ja mit den nüchternen Nachfolgern von Splinter Cell an, die eh nicht mehr an den Vorgänger herankamen, aber auch viele GhostRecon und Rainbow Six Parts blieben nicht ungeschoren.
 
"und profitiert dort auch spürbar von der erweiterten Schnittstelle"

Meines Wissens ist für den kleinen Geschwindigkeitsvorteil der Verkaufsversion von Assassins Creed nicht 10.1, sondern einige fehlende Effekte verantwortlich.
 
Noch muß erst mal bewiesen werden, dass DX10.1 schneller ist als DX10. AssasinsCreed alleine ist sicher nichts, woran man sowas festmachen könnte.

Außerdem steht ja DX11 schon in den Startlöchern, das MS ja gnädigerweise auch für Vista anbieten wird. Da ist AFAIK 10.1 enthalten.

Wenn Nvidia also DX11 Karten bringt, können die auch 10.1. Bis die ersten Spiele raus sind, die wirklich 10.1. nutzen könnte Nvidia die Karten schon fertig haben.
 
ww2warlord schrieb:
Aber in der Vergangenheit fing es ja mit den nüchternen Nachfolgern von Splinter Cell an, die eh nicht mehr an den Vorgänger herankamen, aber auch viele GhostRecon und Rainbow Six Parts blieben nicht ungeschoren.
Nicht zu vergessen die Silent Hunter Serie, die unter stiefmütterlichen UbiSoft-Behandlung doch arg gelitten haben...
 
Weil DX11 es aber ermöglicht direkt auf die GPU zuzugreifen und dafür zu programmiere (was CUDA nicht anders macht) wrd Nvidia solange wie es geht auf DX10 zu bleiben, denn DX11 würde die Daseinsberechtigung von CUDA zunichte machen.

Außerdem hat Nvidia noch nichts über einen DX11 Chip verlauten lassen und wieso kommt ihr auf die Idee, dass Nvidia dies als erster und schnellster in Hardwareform veröffentlichen wird?

Durch AMD hat sich das Blatt vielleicht gewendet und will im Frühjahr 2009 mit der RV870 GPU antreten, die neben 40nm auch DX11 unterstützt. So das sollte langen, um den Thread die nötige Würze zu verabreichen ;)
 
Was kann DX 10.1 eigentlich mehr als DX 10.0
Und wer hat DX 10.1 "erfunden"?
 
Warum sollte Blizzard auf so einen Mist setzen, woher kommt das Gerücht? Blizz. Interessen lagen schon immer performancemäßig, siehe all ihre Spiele, WoW, WC3 etc läuft noch aufm P3, genug Ram vorausgesetzt. Ich glaub nicht das sie sich selbst ins Knie schießen und so einen Schwachsinn wie DX10.x Propaganda supporten.
 
Ich glaube, daß noch nichtmal DX9.0c so richtig verwendet wird.
Wer kennt denn schon alle Befehle und deren Anwendungen...

Als ich damals C++ programmierte gab es "erst" ca. 5000 primäre "Befehle".
Trotzdem man schrieb oft seitenlang eine Funktion um irgendwann später drauf zu kommen, daß es dafür was Fertiges gibt....
Oder man schaut gar nicht auf Performance oder konforme Umsetzung und schreibt sich was zurecht, der Compiler wirds schon richten...


Umgelegt auf GPU:
Was wirklich brauchbares und einfacher handhabbares scheint sowieso nur Cuda und DX 11.0 zu sein.
Wobei ich finde, daß es eine Schnittstelle wie DX xx.x der Hardware nicht leicht macht...
Eine Schnittstelle die auf alles passt machts wohl eher langsamer, als wirklich direkt für die Hardware gezimmerte Software.
 
Zuletzt bearbeitet:
oh, ati hat den firmen mehr gezahlt als nvidia? oder wie hat man das zu verstehen? nvidia ist seit der assasins creed geschichte für mich sowas von gestorben, dass ich denen das jetzt mal so richtig gönne.
 
DX10.1 kommt nicht immer auf Leistung an - siehe HD 3870 und dennoch sieht DX10.1 bei Pingpong besser aus als normale DX10.0 Effekte.

Außerdem werden demnächst billig Karten die Leistung einer 3870 ohne Probleme haben und für wenig Geld verfügbar sein.

Darüberhinaus werden diese Blizzard Spiele erst in einem Jahr oder später veröffentlicht und dann werden sehr viele auch mit der HD 4650 und 48x0 up2date sein.
 
Zurück
Oben