• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Assassin's Creed bekommt kein D3D 10.1 mehr

Das ist ja fast schon so schlimm wie bei Microsoft und Intel. Wettbewewerbsverzerrung nennt man das, und das wir dinnerhalb der EU geahndet (allerdings erst in 5 Jahren).

Für mich bestätigt sich dadurch auch die Meldung von vor Monaten, daß Nvidia nie DX10.1 unterstützen wird und gleich zu DX11 übergeht, was angeblich auch Raytracing unterstützten soll. Dazu wiederum paßt der Kauf von Rayscale durch Nvidia.

Meine Schlußßfolgerung:
Es werden vermutlich kaum Spiele mit DX10.1 rauskommen, was ich sehr schade finde. Außerdem ist es unfair gegenüber DAAMIT.
Für mich reiht sich damit auch Nvidia zu den Firmen (neben Intel), die zwar gute Produkte haben von denen ich aber auf grund ihrer Politik keine Produkte kaufen werde. Dabei habe ich damit geliebäugelt mir eine GTX280 zu kaufen. Tja das war's dann wohl.
 
kisser schrieb:
CB sollte mal besser recherchieren, denn der 10.1 Pfad ist definitv fehlerhaft (bei Nutzung von AA), das ist ein Fakt.

Und das wurde mittlerweile auch von ATI bestaetigt:

http://rage3d.com/articles/assassinscreed-addendum/index.php?p=2

Du hast dir das Fazit aber schon durchgelesen, oder?
Falls eine kleine Erklärung nötig ist (auch wenn hier nur die Ansichten der Rage3D-Schreiber stehen):
Der fehlende Staub hat keinen Einfluss auf die Performance und das "hellere HDRR" ist anscheinend so vorgesehen und eher in dem standard DX10-Modus falsch. Bei Benutzung von AA ist der DX10.1-Modus also vorzuziehen. (falls Geschmack: Performance > kaum bemerkbarer Staub)
 
@ kisser
also aus deinem Artikel den du angegeben hast, kann man herauslesen, das die grafik mit 10.1 deutlich besser aussieht als mit 10!!
Guck dir einfach mal die beiden untersten bilder an, das mit "normalen" dx 10 sieht doch sehr bescheiden aus!
 
Wolfgang schrieb:
Warum man (den meistens besser funktionierenden) Pfad nicht weiterhin als optionale Möglichkeit anbietet, weiß wohl nur UbiSoft. Den Verschwöhrungstheoretikern, die bereits seit Wochen eine Verbindung von UbiSoft zu Nvidia suchen, wird diese Aussage wohl neuen Stoff für wilde Spekulationen geben.

Was hat den ein mitdenkender User sonst für eine Wahl?
Es gibt nirgends Screenshots über diese angeblichen Grafikfehler/Qualitätsverluste.

Es ist ja nicht so dass AC ein echtes ÜberGame wie Crysis ist, aber dadurch dass es ein MultiplatformGame ist und auch nen grossen Hype entwickelt hat, haben sich alle dazu gehörigen Nachrichten sehr weit verbreitet. Nun, da man angebliche Grafikfehler entdeckt haben will, ist aber im gesamten Netz nichts HANDFESTES davon zu finden. Das ist doch schon seltsam genug...

Da bleibt uns doch gar keine andre logische Schlussfolgerung in Anbetracht aller Tatsachen und den Hahnenkämpfen unter den Hardwareherstellern.


Wie man so eine Aktion seitens Nvidia händelt? Man kauft einfach 100,000 Exemplare von AC unter dem Mantel einer BriefkastenFirma oder legt AC einfach der kommenden GT-Reihe als GratisGame bei.
 
Zuletzt bearbeitet:
DX10.1 sieht dank des besseren AA deutlich besser aus (welchen Geforce 8 bzw 9 user störte die schlechte Kantenklättung nicht? mich störte es) die Performance ist schneller dadurch komm ich zu dem Fazit dass selbst wenn der DX10.1 Pfad einen fehler haben sollte (vielleicht wirklich ein Rendervorgang fehlt) ich trotzdem DX10.1 verwenden würde, da das bessere AA eindeutig sichtbarer ist als den Fehler der angeblich drin sein soll, aber noch fast keiner Gefunden hat welche auswirkungen er hat.

ps ich versteh echt nicht warum CB in der news nicht darauf hinweist dass AC teil des TWIMTBP ist, muss CB echt angst vor NV haben wenn ihr das schreibt?
 
Zuletzt bearbeitet:
Jerawin schrieb:
Meine Schlußßfolgerung:
Es werden vermutlich kaum Spiele mit DX10.1 rauskommen, was ich sehr schade finde. Außerdem ist es unfair gegenüber DAAMIT.
Für mich reiht sich damit auch Nvidia zu den Firmen (neben Intel), die zwar gute Produkte haben von denen ich aber auf grund ihrer Politik keine Produkte kaufen werde. Dabei habe ich damit geliebäugelt mir eine GTX280 zu kaufen. Tja das war's dann wohl.

Und damit sind wir schon zwei!


Ich glaube auch, daß die Entscheidung von UBI durch finanziellen Druck seitens Nvidia beeinflusst wurde und finde es echt schade, daß solche zweifelhaften Marketing-Methoden den technischen Fortschritt stoppen. Und wem das, wie BloodyHell83 egal ist, der ist meiner Meinung nach nicht in der Lage vorausschauend zu denken, denn im Endeffekt werden solche Methoden allen Usern schaden.
 
Zuletzt bearbeitet:
Also mir persönlich sagt DX9 mit einer 88er und sauberer Kantenglättung wesentlich mehr zu, als dieser möchtegern DX10 Mode. Unter DX10 sind die Kanten selbst unter 1920*1440 so brutal , dass man darauf Holz sägen könnte.
 
general-of-omega schrieb:
DX10.1 sieht dank des besseren AA deutlich besser aus
Das AA sieht aus wie in D3D9 auch. Und das läuft dann auch weitaus runder als dieses 10 Geraffel.

Bei .1 gibts halt bei AC den Vorteil das einige Effekte fehlen.
 
Den Verschwöhrungstheoretikern, die bereits seit Wochen eine Verbindung von UbiSoft zu Nvidia suchen, wird diese Aussage wohl neuen Stoff für wilde Spekulationen geben.
das war hoffentlich nur ein tippfehler ;)
 
Wer so naiv ist und immer noch nicht glaubt, dass da nV dahinter steckt, kann man echt nicht mehr helfen. Es ist das gute Recht von UbiSoft, Bugs zu beseitigen, auch wenn ich die gesamte Entfernung von D3D10.1 als übertrieben halte. Aber dass das jetzt so bleibt, ist doch ein eindeutiges Indiz, dass nicht primär die Bugs gefixt werden sollten, sondern dass man einfach nur D3D10.1 entfernen wollte.
 
roi schrieb:
Vielleicht sollte man noch anmerken das der performance zuwachs maßgelich daher rührt das eine render/filtersequenz übersprungen wurde

selbst wenn,und? mit ati karten läufts besser als normal, es sieht besser aus,und der perfomance verlust,bei besser bildqulität wenn man AA zugibt geht gegen 0.

MasterWinne schrieb:
...ich sag dazu nur einfach...LOL.

vertragsbruch ist das außerdem, den käufer des spieles haben es mit DX10.1 unterstützung gekauft, und nun wird es im nachhinein "beschnitten".

Aus diesem Grund hat Ubisoft nie damit geworben und es "geheimgehalten", evt war das sogar eine gute Geste für AMD, weil Nvidia das sofort verbietet.

kisser schrieb:
CB sollte mal besser recherchieren, denn der 10.1 Pfad ist definitv fehlerhaft (bei Nutzung von AA), das ist ein Fakt.

Und das wurde mittlerweile auch von ATI bestaetigt:

http://rage3d.com/articles/assassinscreed-addendum/index.php?p=2

find ich in dem Artikel auch nicht,und selbst wenn? Bildqualität ist besser,es läuft besser,wo ist da ein Problem? ach ja AA funktioniert auch noch.

BloodyHell83 schrieb:
Selber schuld wenn sich ATI / AMD gegenüber nVidia nicht durchsetzen kann, denn seid mal ehrlich, hinter den Kulissen lief's wahrscheinlich so ab dass nVidia zu UbiSoft gesagt hat "Entfernt die DX10.1 Unterstützung und wir werben euer Produkt (the way it's meant to be played)".
Hätte UbiSoft den DX10.1 CodePath belassen hätt's Zoff mit nVidia gegeben.

Ganz einfach, AMD hat leider nicht so viel Kohle wie Niewida, sie würden ja mehr werben,wenn sie die Kohle hätten. Niewida nutztz hier nur ihre Marktsituation auf eine richtig hinterfotzige weise aus und behindert damit eine freie Konkurenz, schaden tuts damit im Endeffekt nur dem Kunden
Aber auch hierzu : Wayne interessiert's ?
Hab keinen AMD, hab keine ATI graka, ich hab richtige Hardware. :D

aha, was ist es dann? Niewida ist also richtige Hardware?

Shir-Khan schrieb:
Und damit sind wir schon zwei!


Ich glaube auch, daß die Entscheidung von UBI durch finanziellen Druck seitens Nvidia beeinflusst wurde und finde es echt schade, daß solche zweifelhaften Marketing-Methoden den technischen Fortschritt stoppen. Und wem das, wie BloodyHell83 egal ist, der ist meiner Meinung nach nicht in der Lage vorausschauend zu denken, denn im Endeffekt werden solche Methoden allen Usern schaden.

Nummer drei^^


gruß
 
ich bin mir sicher, das es an nvidia liegt ;)


1. der neue g200-chip wird dx10.1 nicht unterstützen und wenn jetzt schon ein spiel mit dx10.1 auf dem markt wäre, würden sehr viele sich auf die ati´s stürzen.

2. ich habe vor einigen tagen von nvidia eine mail bekommen:

"Erleben Sie die Kunst eines Meister-Assassinen und gewinnen Sie
eine GeForce® 9600 GT und eine
GeForce® 9600 GSO Grafikkarte von NVIDIA und XFX.
"

"Die GeForce 9800 GX2 Grafikkarte ist jetzt als Sonderangebot im Doppelpack mit Assassin’s Creed erhältlich!"

die sind partner beim nv "the way its meant to be played"-programm

das stinkt doch gewaltig oder habe ich was übersehen?
ubisoft muss sich jetzt nur noch eine gute ausrede einfallen lassen


mfg
 
@aspro: und wer so naiv ist zu glauben nv sei das absolut böse und ati zu dumm das zu merken dem ist genausowenig zu helfen :rolleyes:
der unrealistische performancegewinn durch dx10.1 ist wohl keinem aufgefallen was? dass das nicht der normalfall sein kann sollte eigentlich klar sein, denn sonst hätte microsoft seit erfindung von dx ja nur geschlafen und schrott produziert, und alle hersteller und programierer die damit gearbeiten haben auch. und wenn nv so massiv den wettbewerb behindern würde, wäre ati wohl der erste der nv vor den kadi schleifen würde... von anderen institutionen und wettbewerbshütern mal ganz zu schweigen.
und das einige wirklich glauben, dass nv milliarden an bestechungsgeldern bezahlt um die eine oder andere karte mehr zu verkaufen... denn angebelich ist ja die gesammte spieleindustrie bestochen, ati zu sabotieren :rolleyes: und ati müsste ja auch schweigegeld bekommen, oder glaubt ihr die haben weniger ahnung was da läuft als ihr?

sry aber die kommentare hier regen mich teilweise echt langsam auf -.- da muss ich dann auch ma n bissel übertrieben kontra geben.

obs von den machern von ac richtig war den patch zurückzuziehn oder nicht ist ne andere frage, aber nv dafür zu verteufeln dass sie gut bei crysis sind und dass sie kein dx10.1 haben und sie darum für alle probleme von ati verantwortlich zu machen ist ja wohl langsam lächerlich...

@cb: habt ihr den patch für 10.1 noch? könnte man den nicht "inoffiziell" hier zum downloadbereitstellen? ;) würden sich sicher einige drüber freuen...
 
Zuletzt bearbeitet:
Ich muss mich hierzu jetzt auch einmal äußern.
Ich habe den verdacht das einige gar nicht wissen was genau im spiel betroffen war, dass UBISOFT sich entschieden hat DX10.1 zu entfernen.
Es ist nämlich so das dass verwendete Depth of Field (Tiefenunschärfe) nicht korrekt funktioniert hat. Die eigentlich von der Kamera erfassten Personen waren überhaupt nicht scharf, sofern man nicht möglichst nah an den Charakter dran stand. Dies hat teilweise eben zu absoluten verwaschenen Cutscenes geführt.
Eine andere Sache ist, die mich ein bisschen verwundert ist, das niemand fragt, ob die Performance auf ATI Karten der 3x00 Generation überhaupt schlechter geworden ist, seitdem der DX 10.1 Renderpath rausgenommen wurde.
Denn wenn die Performance gleich bleibt, wem zur Hölle interessiert dann diese Änderung, sofern es sich sogar um eine visuelle Optimierung handelt!?

Ich denke jedenfalls bevor man sich über diesen Schritt von UBISOFT beschwert, sollte erstenmal ein Benchmarkvergleich zwischen gepatchtem und ungepatchtem Spiel machen. (*hint CB*)

mfG,
Matto
 
wie schon gesagt ...
totaler müll was die da machen...
sie schneiden sich doch ins eigene fleisch , sie hätte Assassin's Creed noch mehr pushen können,
als ersten titel der mit dx10.1 läuft....
das mit der verschleirung oder unschärfe finde ich einfach nur zum lachen
auch wenn es probleme gegeben hat , kann man mir nicht erzählen das man , das nicht wieder mit patches hinbiegen könnte...
man könne ati ja nicht diesen triumph gönnen oder was....

aber naja da kann man mal wieder nix gegen machen....
 
und wieviel entwicklungsarbeit und kosten das bedeutet hätte, die api umzuprogrammieren und wie viele spiele sich ab dem tag der fertigstellung noch verkaufen lassen weist du genau, ja?
wenn sich das wirklich lohnen würde, dann würden die das auch tun. es geht hier um kosten/nutzen abwägungen, nicht darum jemanden einen (sehr kostspieligen) gefallen zu tun...
 
naja aber würdest du dich nicht aufregen wenn nvidea die technik hätte?

;)
 
Es ist nämlich so das dass verwendete Depth of Field (Tiefenunschärfe) nicht korrekt funktioniert hat. Die eigentlich von der Kamera erfassten Personen waren überhaupt nicht scharf, sofern man nicht möglichst nah an den Charakter dran stand. Dies hat teilweise eben zu absoluten verwaschenen Cutscenes geführt.

Solange es davon aber keine Beweisscreenshots gibt wird diese Diskussion endlos weiter gehen.

Eine andere Sache ist, die mich ein bisschen verwundert ist, das niemand fragt, ob die Performance auf ATI Karten der 3x00 Generation überhaupt schlechter geworden ist, seitdem der DX 10.1 Renderpath rausgenommen wurde.

Wäre in der Tat mal interessant zu wissen.

MfG Pantherfibel
 
Die Technik ist ja schon vorhanden, UbiSoft hat's halt versaut und sie nicht richtig implementiert.

Aber zahlt es sich wirklich aus für eine extreme Markt-Minderheit Entwicklungszeit und Kosten in den Wind zu schleudern nur damit ein paar wenige Spieler AC in DX10.1 zocken können ?

Prozentual haben wohl die wenigsten A) einen entsprechend potenten PC, B) Windows Vista, C) Windows Vista SP1, D) DirectX 10.1 kompatible Hardware.

Also aus Sicht der Entwickler bleiben wieviele Prozent der Käufer übrig die damit beglückt werden würden ? 5 % oder weniger ?
Sie würden sich ja quasi selber die Kugel geben, nur um behaupten zu können sie hätten den "ersten DX10.1 Titel".

Also auch wenn nVidia da nicht mit hineinspuckt hätte es keinen Sinn gemacht.
Und was hätte es gebracht ? Ein klein wenig mehr Performance für diese Minderheit, obwohl es auch so schon nicht ruckelt. (keine neuen Technischen oder Grafische Features)

Und nachdem die Mods mein Post gelöscht haben, hier nochmal der Link zum UbiSoft Interview : LINK
 
Stinger schrieb:
[...]aber dadurch dass es ein MultiplatformGame ist und auch nen grossen Hype entwickelt hat[...]
Mit der Aussage, AC sei ein plattformunabhängiges Spiel wäre ich persönlich lieber vorsichtig. DX und plattformunabhängig ist ein Widerspruch in sich ;)


Insgesamt finde ich es immer wieder erschreckend, auf welch einem Niveau hier diskutiert wird. Solch eine Masse an wahrhaft subjektiven posts habe ich lange nicht mehr gesehen.
Desweiteren kann ich dieses ganze "fanboygehabe", wie es hier im board auch genannt wird, absolut nicht nachvollziehen.



Ich kann mich dem Agrument, die meisten wissen nicht viel von Programmierung, nur anschließen. Insgesamt sehe ich die Sache so, dass es dem Anwender vollkommen egal sein kann und sollte, wie ein Spiel programmiert wird. Schließlich interessieren die Anwender diverse andere Dinge, auf die ich jetzt nicht eingehen werde, ebenfalls nicht. Wenn es aber um die Wahl einer bestimmten Schnittstelle geht, ist der Geschrei groß. Es gibt wahrhaft Wichtigeres, über das man diskutieren könnte und erachte diese Nachricht nichteinmal als wichtig genug, sie überhaupt zu veröffentlichen.

Ob mit DX10.1 Neuerungen, Vorteile oder auch Nachteile in die jeweilige Software einfließen, hängt nicht nur von der Wahl einer gewissen Version einer API ab, sondern auch direkt davon, was letztenendes im Quelltext geändert wurde. Die Besonderheiten einer API oder generell von Bibliotheken bringen einem nichts, wenn man diese nicht verwendet. Wir stehen bei AC nun dem Problem gegenüber, dass wir die Quelltexte nicht kennen und somit ist eine absolut objektive Aussage keinesfalls möglich. Es kann bei einem anderen Entwicklungszweig durchaus ein Fehler auftreten, der in anderen Abzweigungen nicht auftritt und somit ungeachtet von verwendeten Schnittstellen gewisse Änderungen schafft. Wenn die Entwickler nun behaupten, solch etwas sei genau vorgekommen, dann klingt das durchaus plausibel und sogar gängig, dass solche Testzweige temporär oder dauerhaft geschlossen werden. Überprüfen können wir es wie gesagt aber nicht, das ist den meisten jedoch sowieso egal. Es geht ihnen nur um ihr "vielgelobtes" DX10.1, um welches sich zur Zeit der ganze Trubel dreht. Dabei sind viele bereit komplett auf Objektivität zu verzichten.
Ich bezweifle außerdem stark, dass die meisten genau wissen, welche Änderungen in DX10.1 Einzug gehalten haben. Ich weiß es ebenfalls nicht, ich arbeite prinzipiell mit OpenGL. Umso erstaunlicher ist es, wie weit sich einige aus dem Fenster lehnen.

Seitens NVidia besteht kein Anlass sich in irgendeiner Weise vor DX10.1 zu fürchten oder dadurch unter Druck zu geraten. Wenn sie wollten, könnten sie DX10.1 unterstützen. Wenn sie es nuneinmal nicht tun, dann können sie sich auch nicht beschweren. Deshalb empfinde ich es als merkwürdig, wenn man bahauptet, Nvidia habe es nötig Entwickler unbedingt davon abzuhalten die neue API zu nutzen.
Man könnte NVidia natürlich vorwerfen, dass sie den "Fortschritt" blockieren, indem sie DX10.1 nicht unterstützen und somit den Entwicklern das Leben dadurch schwer machen, dass sie sowohl eine DX10 als auch eine DX10.1 Variante pflegen müssten, jedoch ist es fraglich, ob man das nun wirklich als großen Fortschritt erachten kann und darüber hinaus wäre das eine ganz andere Diskussion, welche hier nicht hingehört.
 
Zurück
Oben