• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Assassin's Creed bekommt kein D3D 10.1 mehr

cosmicparty du aber auch nicht so ganz^^ denn sowas hätte VOR dem release des spiels geklärt werden müssen wenns ernsthaft beabsichtigt war. und zwar schon monate davor um ne werbewirksame wirkung für den verkaufsstart zu haben...
beweisen kann hier wohl keiner keinem was, da weder die fehler bekannt sind, noch der tatsächliche grund, warum sowas heimlich in dem spiel eingebaut und auch wieder entfernt wurde. fakt ist: es war nicht wirklich fertig. eine weiterentwicklung wäre auf jedenfall nötig gewesen und sowas kostet nunmal. ganz egal wie groß oder klein die auswirkungen auf den rest des programmes gewesen sein mögen. wärs n onlinegame mit monatsbeiträgen wäre das sicher auch wirtschaftlich sinnvoll, aber so nicht...

aber eigentlich find ich die idee gar nicht mal so schlecht... ati sollte wirklich mal in das spiel investieren um n bissel damit werben zu können... denn die wären die einzigen die da noch einen nutzen draus hätten... und wenn sies geschickt anstellen sogar einen ganz ansehnlichen. wenn jede kleine änderung als vergleich 38x0 vs. 9800 auf folien gebannt der öffentlichkeit präsentiert würde... damit könnten die nv ganz schön ärgern :D ich sollte mich vllt ma im marketing von ati bewerben^^ mit der geschichte wäre was zu machen...
andersrum, wenn dx10.1 wirklich so toll wäre, hättens wohl auch andere spieleschmieden für sich entdeckt...
 
Zuletzt bearbeitet:
@unyu: du bist in deiner gesamten argumentation eher infantil und lernresistent.

es langweilt mit solch leuten zu schreiben, du bist keine motivation, weil du unterlegen bist, es aber durch billige polemik übertünchen willst.

das beispiel mit intel war ja mal wieder so dumm.... intel hat diese mechanismen jahrelang durchgehalten und dadurch auf krimineller art und weise so viele vorteile ergaunert. wielange? 10 jahre?
wer sowas duldet oder rechtfertigt hat kein soziales gewissen und outet sich als extrem unkritischer mensch und da hab ich auf gut deutsch keinen nerv drauf.

direkt gesagt, du bist mir in deiner geistigen entwicklung net weit genug... ciao kleiner *g*

/ig unyu
 
Wo auch immer deine Argumente sind.
Bleiben meine Fragen unbeantwortet stehen, finde ich recht traaurig. Naja ziel und planloses bashen macht auch mehr Spass.
Du hast es nicht geschafft auch nur einen einzelnen Punkt zu wiederlegen.

Du wirfst mir nur allerhand vor, starker Auftritt. Aber bitte fühle dich überlegen.
 
@ lübke: deine idee ist gut, nur werden die verträge zwischen ubisoft und nvidia so sein, dass ati da net eingreifen kann.

ich mein, ne andere idee wäre, dass ati ein dx10.1 spiel richtig forciert um die vorteile zu zeigen, da hast du auch recht, nur ich vermute mal, dass ati eben keine sponsoring firma ist. auch aufgrund von fehlenden finanziellen mitteln.

so kann man nur auf MS hoffen, dass die ihren standard durchsetzen.
grade dx10.1 sollte die unterschiede zwischen nvidia und ati in der berechnung aufheben, sprich MS wollte keinen vorteil einer firma.
drum extreme standards bei dx10.1 die nvidia aber nicht will.

warum wohl?
 
da wird auch ms keinen einfluss drauf haben, denn letzten endes entscheiden die programierer mit welcher api sie arbeiten und mit welcher nicht. scheinbar ist 10.1 nicht reizvoll genug für die programierer...
wie schon geschrieben darf man hier nicht von der 20%igen mehrleistung ausgehen, da keine fertige(!) api getestet wurde. auch wenns die ati-fanboys gerne glauben dass es die wunderwaffe gegen nv ist ;)
 
ich zitier nochmal einen ati manager bei golem in bezug auf dx10..... dx10.1 sollte noch verschärft sein

"Unsere Architektur unterscheidet sich ganz deutlich von der von Nvidia. Microsoft wollte diese Unterschiede mit DirectX-10 nahezu auslöschen, weil die Schnittstelle 'Caps free' werden sollte".

caps sind codes die die hersteller selber einbauen, sprich nvidia hat zB bei crysis zig eigene eingebaut um einen vorteil zu erhaschen. dafür waren 4 nvidialeute bei der entwicklung von crysis dabei.

das ist gegen einen gemeinamen standard und ist schädlich für pc games im vergleich zu konsolen.
 
naja dass ms die standarts diktieren will ist ja nicht neu... darum finde ich es auch schade, dass die spiele langsam ganz ab gehn von openGL (ja bin auch n bissel linux-fan^^)
also das ist wieder was, dass mir nv grad sympatisch macht, die lassen sich nicht so leicht was aufzwingen... nicht von intel und nicht von ms. und das sollte ati auch nicht...
wäre schön, wenn openGL mal wieder mehr verbreitung finden würde. ich mag keine monopolisten^^
darum hoffe ich auch dass die hd4k ein renner wird :) mit der 8800gtx hat nv ja massiv das gleichgewicht gestört ;)
 
Schon scharf, hier werden ATi Manager hergezogen, um zu beweisen das Nvidia böse ist.

"Unsere Architektur unterscheidet sich ganz deutlich von der von Nvidia."
Omg lol.
Natürlich tut sie das. MS macht die Api, die IHVs die Architekturen.

Das ist doch einfach nur mieses Kino hier.
 
da bin ich deiner meinung... aber leider gibts bis auf doom und deren engine keinen wirlich neuen spiele mehr.
da war noch prey als sehr sehr schönes game.

wenn opengl verbreiteter wäre, würd ich ja auch meinen windowsrechner verschrotten und apple kaufen =)

naja, wenn sich mal raytracing durchgestzt hat, ist ms macht in der hinsicht auch vorbei.... und übrigens rechnen ati karten dort besser... die rechenleistung an sich ist einfach viel höher ;)
 
nun ja, man wird sehen, sehr wahrscheinlich werden ja mit ray tracing vor allem die muliti cpus gefordert.

intel und amd sprechen ja von bis zu 16 kernen, ich denke dann hat ne gpu nicht mehr wirklich viel zu rechnen, intel meinte ja, die würden überflüssig werden.

man wird sehen, ich glaub eher an nen ausgeglichenen rechner mit cpu und gpu die zusammen passen..... aber auch dort wird nvidia probleme kriegen...

mit larabee wirds intelrechner geben und amd rechner mit nem 4800 x8 oder so.... die zukunft heißt eh multicore.
singlecores sind ziemlich am ende... noch größer kann auch nvidia keinen die machen, das ding würd verglühen *g*
 
naja an der stelle wird cuda interessant. ich denke dass nv nicht um sonst in richtung risk entwickelt, damit würde man der (x86-)cpu ne menge arbeit abnehmen können und diese so auch an gewichtung verlieren. das fehlen einer eigenen x86-cpu ist auf jedenfall ein riesen nachteil für nv... mit intel können sie sich nich so und amd hat durch den kauf von ati ja nu auch etwas geänderte prioritäten in bezug auf nv... hoffe dass keiner dabei auf der strecke bleibt. lieber würde ich auch ne reine nv-plattform sehn um ein dreiergespann in allen bereichen zu haben :) intel vs. amd vs. nv. das wärs doch :)
aber kanns sein dass wir hier grad n bissel vom topic abkommen? :D

eigentlich gings doch hier um ac und die dx10.1 api und der grund warum sie nicht wirklich zum einsatz kommt...^^
hoffe aber dass die verschwörungstheorien gegen nv langsam abnehmen... sind ja jetz ne menge argumente gefallen...
 
es gab mal commodore, 3dfx usw.... es sind viele firmen untergegangen, von denen man es nicht erwartet hätte.
wirtschaft killt ohne mitleid....

und ohne x86 steht nvidia da wie ein ritter ohne schild.... wen interessiert noch in 5 jahren nvidia wenn es intel und amd rechner gibt mit 16 kernen...die raytracing machen... viel besser und schöner als dx.
cuda ist n rettungsring ohne bedeutung
nvidia ist tot, erklärt auch warum deren ceo so mies drauf ist *g*

wenn ich nvidia aktien hätte, würde ich die verkaufen *gg* jetzt wirklich
 
Zuletzt bearbeitet:
GLaubt ihr auch nur ansatzweise das Raytracing durchkommt?

Ich habe da Schweifel.
Bei Raytracing können due Karten bisher nichts beschleunigen, dh es kommt auf pure CPU-Power an.

Nvidia und Ati werden sich die Karten (ha wieder passend!) nicht vom Tisch nehmen lassen.
 
es gab mal commodore, 3dfx usw.... es sind viele firmen untergegangen, von denen man es nicht erwartet hätte.
wirtschaft killt ohne mitleid....

Und wer sich mit der Geschichte beider Unternehmen befasst, wird merken das sich sowohl Commodore als auch 3dfx sauber selbst erhängt haben.

und ohne x86 steht nvidia da wie ein ritter ohne schild.... wen interessiert noch in 5 jahren nvidia wenn es intel und amd rechner gibt mit 16 kernen...die raytracing machen... viel besser und schöner als dx.
cuda ist n rettungsring ohne bedeutung

Reinste Spekulation.

nvidia ist tot, erklärt auch warum deren ceo so mies drauf ist *g*

wenn ich nvidia aktien hätte, würde ich die verkaufen *gg* jetzt wirklich

Dass das extrem weit aus dem Fenster gelehnt ist und mit an Sicherheit grenzender Wahrscheinlichkeit nicht eintreten wird, sollte auch dir klar sein. ;)
 
wow jetzt geht die Fanboy-Diskussion wieder los....

hier gibts nix mehr zu beweisen! Jeder der ein bisschen anständigen Menschenverstand hat, weis das NVIDIA die Finger im Spiel hat!
Ist klar bessere Bildquali + Performance = Fehler... verzählt das eurer Oma....
Das ist ein MTBP-Titel d.h. die haben von Nvidia schön Kohle bekommen und mussten gleichzeitig wohl ein paar Verträge unterschreiben.

Und jetzt nennt mich ATI Fanboy oder wie auch immer aber hier die Leute die ein bisschen weiter denken als Freaks oder sonstiges abzustempeln ist ganz schön arm....
Also, bitte 1+1 zusammenzählen....

Mfg Seb89

schönen Abend noch.
 
Zuletzt bearbeitet:
Lübke schrieb:
und 2. weis ich dass es sehr viel einfacher und billiger ist fehlerhaften code in einem nicht mehr verwendeten programteil einfach zu entfernen (bzw, den teil vom code der nur für die umsetzung der dx10.1-api diente) als dass man den fehler, dessen genaue ursache meist unklar ist in nicht kalkulierbarem programieraufwand zu beheben.
Also ich bin genug Programmierer, um zu wissen, dass beides kritisch sein kann. Und wie du schon sagst, niemand kann von uns nachvollziehen, ob und welche Fehler vorhanden sind. Und so kann auch niemand beurteilen, was letztendlich die bessere Lösung ist. Bleibt also die Frage, warum man zuerst einen D3D10.1 Renderpfad einbaut und später wieder rauswirft. Technische Gründe kann es natürlich immer geben, erscheint hier aber wenig plausibel. Denn sowas wird bereits während der Realisierungs- und Testphase verifiziert, erst recht, wenn es sich um generelle Design Fragen handelt. Dazu muss man das Spiel nicht erst releasen. Zum anderen ist es auch wirtschaftlich und marketingtechnisch unklug. Dann hätte man sich die Arbeit auch gleich sparen können oder hätte DX10.1 werbewirksam hervorgehoben.
Wie auch immer, es sprechen jedenfalls mehr politische Argumente als alles andere für diese Vorgehensweise.

Lübke schrieb:
ac ist viel zu unbedeutend, als dass es nv schaden könnte.
Kann ich nicht nachvollziehen. Wenn ich ein Spiel in den vergangenen Wochen und Monaten bis zum Erbrechen in der Werbung gesehen habe, dann AC.

Lübke schrieb:
mein fazit: bei ac hat man halbherzig versucht dx10.1 zu implementieren. wohl eher für sich selbst um erfahrungen für künftige spiele zu sammeln, denn sonst hätte mans wohl angekündigt, was aber dann auch zum zwang, die dx10.1 wirklich fertigzustellen geworden wäre. den druck wollten sie sich wohl selbst nicht machen, das ja nur ma n experiment war... es hat nicht gleich so hingehaun wie sie wollten, also haben sies wieder rausgenommen.
Man merkt, dass du noch nie kommerzielle Software geschrieben hast. Die Realität sieht nämlich ein bisschen anders aus. "Halbgare" Funktionalität ist zwar in vielen Projekten vorhanden, wird aber zumindest beim Release, oder sei es nur ein Patch, komplett deaktiviert. Bei Multimedia Anwendungen mag sowas vielleicht noch weitestgehend unkritisch sein, in anderen Bereichen, wie zB der Automatisierungstechnik, kann sowas aber tödlich sein. Und das meine ich wörtlich.
Meine Vermutung ist daher, dass die Entwickler D3D10.1 ganz bewusst implementiert haben und dies auch in der finalen Version zum Einsatz kommen sollte. Gut möglich, wie schon angedeutet wurde, dass sie dachten, nVidia hat bis dahin DX10.1 Karten auf dem Markt. Da dies nicht passiert ist, haben sie es aus politischen Gründen wieder gestrichen. Ob ihnen Fehler in der Engine tatsächlich einen guten Grund geliefert haben, oder ob dies letztendlich nichts weiter als eine fadenscheinige Ausrede ist, kann von uns sowieso niemand beurteilen. Am Ende steht jedenfalls eine technisch mehr als zweifelhafte Entscheidung. Sollten die Entwickler tatsächlich die Release Version von AC als "Testumgebung" für eine D3D10.1 Implementation genutzt haben, wäre das jedenfalls äusserst unprofessionell.

bartio schrieb:
GLaubt ihr auch nur ansatzweise das Raytracing durchkommt?

Ich habe da Schweifel.
Bei Raytracing können due Karten bisher nichts beschleunigen, dh es kommt auf pure CPU-Power an.
Ich bin mir ziemlich sicher, dass die Zukunft, nicht nur bei Spielen, Echtzeit-Raytracing sein wird. Vermutlich noch nicht in den nächsten 5 Jahren, aber irgendwann sehr wahrscheinlich.
Dass aktuelle Grafikkarten noch nicht viel damit anfangen können, hat vor allem zwei Gründe. Erstens gibt es zwar Software Schnittstellen, wie OpenRT, aber noch nichts, was man wirklich als standardisiert bezeichnen kann, wie OpenGL oder DirectX Graphics. Und zweitens ist aktuelle Hardware auch auf aktuelle Rasterisierer zugeschnitten. Für RT werden hier neue Ansätze notwendig sein.
 
cosmicparty schrieb:
caps sind codes die die hersteller selber einbauen, sprich nvidia hat zB bei crysis zig eigene eingebaut um einen vorteil zu erhaschen. dafür waren 4 nvidialeute bei der entwicklung von crysis dabei.
wenn man keine ahnung hat worüber man redet sollte man es besser lassen....

directx caps sind device capabilities. damit kann der programmierer die hardware abfragen was die überhaupt kann. hat mit eigenem code nix zutun, schon garnicht mit welchem den nvidia in crysis eingebaut hat.

das hardware hersteller bei spielen mit programmieren ist alltag. auch amd hat für sowas programmierer unter vertrag. am ende können die hersteller schließlich nur dann ihre hardware verkaufen, wenn es auch software gibt die dessen möglichkeiten ausreizt. das crysis bei release nur auf highend hardware ordentlich lief lag also ganz im interesse von nvidia.


cosmicparty schrieb:
@unyu: die wollten nicht für ati optimieren, die wollten sich nur an dx10.1 standards halten um als erstes spiel damit werben zu können.
dx10.1 setzt sehr feste standards, die einem ein optimieren für eine seite eher schwer machen.
entscheide dich: bringt dx10.1 performance vorteile oder kann man bei dx10 besser optimieren. beides geht nicht ;).


klar ist: nvidia hat an dx10.1 kein interesse, da sie bisher kein interesse hatten ihren chip zu überarbeiten. fertige designs in kleineren fertigungstechniken herstellen zu lassen ist nämlich viel günstiger :D.

aber wozu braucht man hier die verschwörungs theorie?

die frage ist doch: warum läuft die directx 10.1 version so viel schneller? die neuerung von dx10.1 ist, das un noch mehr features genauer festgelegt sind. vorallem geht es da um genaueres rechnen. wie soll genaueres rechnen zu mehr performance führen?
es ist also sehr glaubwürdig wenn ubisoft sagt ihr dx10.1 pfad rendert nicht korrekt. irgendwo muss schließlich der performance zuwachs herkommen.

warum ubisoft dann keinen patch bringt ist auch nicht schwer zu erraten: wozu soll man in ein spiel das schon lange auf dem markt ist für eine kleine randgruppe noch geld investieren?


warum wurde dann der verbuggte renderpfad entfernt? bugs lässt man ungern in seiner software, vorallem wenn sie benchmarks so verzerren das einer der sponsoren schlecht dasteht.


ich denke also schon das nvidia da seine finger mit im spiel hat. allerdings nicht um dx10.1 zu schädigen, sondern damit sie in den benchmarks nicht so schlecht dastehen. und das ist völlig in ordnung, denn wo die 20% mehrleistung bei dx10.1 herkommen sollen, ist mir schleierhaft. sollange mir das keiner erklären kann, kann ich die aktion nur unterstützen.
 
@Husky: Dann bitte zeig mir doch mal auf, wo der böseböse DX 10.1-Fehler ist, auf dem hier alle herumreiten. ES GIBT KEINEN, den man dem DX 10.1 zuschreiben kann! AC sieht unter DX 10.1 besser aus und läuft schneller. Ich seh da keinen "Bug". Der von Unyu weiter vorne verlinkte Rage3D-Artikel ist da sehr informativ. Das Fazit hab ich ne Seite oder zwei weiter vorne mal zitiert... ;)
 
Einfach nicht den Patch installieren und die Performance mit DX 10.1 genießen. Was habt ihr alle für Probleme?
 
Zurück
Oben