Nvidia bremst absichtlich PhysX auf der CPU aus

Status
Für weitere Antworten geschlossen.
Die anderen User haben zwar schon alles relevante geschrieben, aber ich will mir nicht nachsagen lassen, ich würde direkte Antworten auf meine Posts ignorieren;

Sontin schrieb:
Interessant. Aber AMD kaufen, die nichts machen - weder CPU noch GPU technisch. Irgendwie ironisch...


Ich schrieb das sie von MIR kein Geld bekommen würden und werden. Was andere tun ist mir egal, kommentieren darf ich das aber schon, ja? Danke.
Im übrigen ist es glatt gelogen das AMD sich nicht engagiert;
"AMD Gaming Evolved"-Kampagne gestartet
Update zu AMDs Open Physics Initiative
AMD setzt auf quelloffene Spielephysik
GDC 2010: AMD will mit Open Stereo 3D eine Alternative zu 3D Vision bieten

Sontin schrieb:
Es ist jedem selbst überlassen, ob er sich zusätzliche Hardware alleine für PhysX kauft oder 2 Jahre wartet und nichts erhält.


Natürlich ist es jedem sein Bier, und auch hier; mein Recht ist es dies zu Kommentieren, und ich halte es für ziemlich Banane, zum Fenster raus geschmissenes Geld.
Nicht erst seit gestern weiß man, das Nvidia mit ihrer Politik die Kunden zu Anschaffungen 'zwingt' die aus technischer überhaupt nicht nötig wären.
Und jeder der wider Wissens das mit sich machen lässt, hat es auch verdient, sollte dann aber bitte mit dieser nicht konstruktiven, unwahren Propaganda aufhören.

Sontin schrieb:
Propritär ist der Türöffner. Das war so und wird auch immer so bleiben: Glide, EAX, Cuda...
Proprietär bringt Konkurrenz, bringt Standards. OpenCL und DC sind von C for Cuda inspiriert.


Für jedes Thema gibt es Beispiele die Ausnahmen darstellen, nur hast du nicht gerade die besten dafür ausgesucht; Glide ist, EAX hat im Grunde keine große Bedeutung mehr und wie sich CUDA mit zwingender Nvidia Hardware Voraussetzung entwickelt ist auch schleierhaft.

Sontin schrieb:
Wie man sich immer selbst ein EI ins Nest legen kann. :evillol:


Ich bringe Genug nachvollziehbare und Belegbare Argumente, du nur 1-Satz-Bullshit. Physix ist für uns Kunden in seiner jetzigen Form die schlechteste aller Alternativen, und bewusst dahin entwickelt worden. Ich wüsste nicht was es da noch zu Diskutieren gibt.

Ich frage ja, wieso sich die Wut der AMD Kunden immer gegen nVidia forciert?

Wieso AMD Kunde? Ich habe ne 8800 GT in meinem Rechner.
Aber du hast es wohl auch insgesammt nicht verstanden: Es geht hier überhaupt nicht um AMD, AMD ist bei diesem Thema größtenteils ohne Belang. Das Problem ist Physx auf Cuda auf Nvidia Only Hardware.
Wenn Havok, Bullet oder sonst wer mit Microsoft oder der Khronos Group eine CPU udn GPU beschleunigte Physik Bibliothek etablieren, und sich die Entwickler nicht weiterhin kaufen lassen, ist das genauso gut, wenn nicht sogar besser, wie wenn AMD da noch die Finger im Spiel hat.

Es ist nicht das Problem das AMD nichts tut (bzw. wenig getan hat), sondern das Nvidia den schlechtesten Weg geht.
Bevor ich üble Brötchen esse, kauf ich lieber Brot.

Sontin schrieb:
Da kündigt AMD vor zwei jahren ein Konkurrenzprodukt zu GPU-PhysX an und liefert nichts, aber es ist nVidia, die "zu lasten des Kunden" arbeiten. Vollkommen unabhängig, dass AMD dank ihrer CPUs eigentlich sehr einfach Physik in Spielen pushen könnten.


Siehe die Links oben. Ich wüsste auch nicht wo AMD vor zwei Jahren ein Konkurrenzprodukt in der Form "ankündigt" das man meinen müßte, morgen gibt es 100 Spiele mit GPU Havok Physik.

Der Witz an der ganzen Sache ist doch, das Nvidia hier einen Bedarf suggeriert, und über ihren großen Marktanteil auch umlegen konnte, der eigentlich gar nicht vorhanden ist! Wo über eine eingekaufte, nicht optimierte Lösung eine technische Gegebenheit (die angebliche Überlegenheit der GPU zur CPU) verbreitet wird, die nach allen Anzeichen nicht stimmt, wird Blind von vielen Leuten einfach so hin genommen, selbst dann wenn sie es besser wissen.

Sontin schrieb:
Da wird sich über eine AA Implementierung in einem Spiel beschwert und "das zu lasten des Kunden" gehen würde, jedoch AMD nach x-monatiger Zusammenarbeit kein Ingame-AA im Spiel haben wollte.


Du tust ja gerade so, als hättest du höchst persönlich die eMail mit Absage an AMD geschickt. Es ist aber nicht nur "eine AA Implementierung", die in ihrer Umsetzung im übrigen mit dem nicht deaktivierten Z-Buffer die Performance von ATI Grafikkarten beeinflusst, und damit quasi manipuliert, sondern das es mal wieder eines von vielen dieser Storys ist, wo Nvidia dem Spieleentwickler in "die Hand arbeiten", und man nicht weiß, ob man als Kunde dadurch wirklich nen Vor- oder nicht doch einen Nachteil hat.
Ich sach nur Assassins Creed.

Aber auch hier hat das nichts mit AMD oder Nvidia im speziellen zu tun, es geht hier ums Prinzip.
Als ich seinerzeit hörte, das Half Life 2 auf ATI Hardware optimiert wäre und besser laufen soll, war ich darüber mit meiner GeForce auch nicht besonders glücklich.

Sontin schrieb:
Dieses Verhalten offenbart eine starke Obrigkeit gegenüber AMD, die nie etwas falsch machen können. Jegliche Kritik wird auf nVidia gelenkt, um den Gesetzen des Sektenführer zu entsprechen.
Traurig, traurig.

AMD / ATI wird zu genüge Kritisiert, dort wo es verdient ist. Das du nicht den Überblick hast, und verkennst das es bei Nvidia die letzten Jahre tatsächlich einige Dutzend große und kleine kritikwürdige Themen gibt und gab, liegt nicht daran das es von irgendwelchen Fanboys aufgebauscht wird, sondern eben nun mal so ist.
Ergänzung ()

silent-efficiency schrieb:
Er "zerredet" den Post von Millamber, weil Millamber schlicht inkonsistent argumentiert. Und die Ironie zeigt diese Inkonsistenz sehr deutlich.

Du schreibst den selben Unsinn, wie eh und je.
Ich weiß schon warum ich in diesem Forum nichts mehr schreibe.
Ergänzung ()

silent-efficiency schrieb:
Natürlich ist Milambers Argumentation schlicht und plump pro AMD. Hätte er sich neutral gehalten und nicht erzählt, dass er AMD Geld in den Rachen stecken wolle, obwohl sie immer noch keine offene Physik so richtig pushen konnten, wie angekündigt, sondern sich einfach mit der Thematik hier ganz normal auseinander gesetzt, hätte keiner was gesagt. Dafür will er aber nvidia bestrafen, weil sie was proprieteres gemacht haben. Es zwingt dich ja keiner im Spiel PhysX zu benutzen. Machst du PhysX aus, hast du bei Nvidia genau das gleiche Packet wie bei AMD. Nämlich kein offenes Physik und kein Gar nichts, nur schlichtes Bildern rendern und das mit möglichst vielen fps.

Du verkennst vollständig die Lage, entweder tust du dies absichtlich in Lüge, um mich zu diskreditieren, oder ...

1. Ich hab nirgends geschrieben das ich AMD kaufe, nur weil ich kein Nvidia kaufen werde in naher Zukunft.
2. Ich bin bei meiner Argumentation neutral, weil es nichts mit AMD zu tun hat.
3. Das AMD Physik nicht in dem Umfang pusht, wie wir es uns wünschen würden, kann nicht die schlussfolgerung sein, das Nvidia mit einer schlechten Lösung auf einmal eine gute Lösung darstellt. Proprietär ist proprietär, und hardwareabhängig ist hardwareabhängig. Völlig egal um welchen Hersteller es geht.
4. Ich will Nvidia nicht bestrafen, ich Untersütze nur nicht Physix in dieser Form; zur Zeit nicht mit dem Kauf einer Nvidia Grafikkarte (und ich hab schon eine von Nv), und schon gar nicht mit dem Kauf von ZWEI Grafikkarten, oder gar dem Schöngerede einer für den Kunden unvorteilhaften Umsetzung und Strategie der Physik Technologie.
 
AMD hat Havok über OpenCL vor zwei Jahren angekündigt und auf der GDC 2009 mit Techdemos gezeigt.
Es ist also mitnichten so, dass das ganze er vor kurzem gestartet wurde.
 
@SE: Natürlich ist Win7 nicht neu, es ist inzwischen ein sattes 3/4 Jahr alt. Aber wie lange glaubst Du braucht eine Spieleentwicklung, wenn sie auf OpenCL, das erstmals auf Win7 mit DX11 für den PC implementiert wurde, eine Physikengine aufsetzt? Na?

Um Missverständnissen vorzubeugen - ich weiß, daß OpenCL schon ein sattes Jahr vor dem Erscheinen von Win7 "entstanden" ist und ich weiß auch, daß es schon im MacOS integriert war, bevor es in Windows7 auftauchte.
 
Zuletzt bearbeitet:
silent-efficiency schrieb:
... obwohl sie immer noch keine offene Physik so richtig pushen konnten, wie angekündigt,...

Du hast es immer noch nicht verstanden, oder?

Erstens hat ATi nie angekündigt irgendwas zu pushen. Warum sollten sie auch? Ist ja nicht ihre Firmenpolitik.

Zum dritten Mal: ATi unterstützt offene Standards. Das heisst, es ist letztendlich SCHEISSEGAL ob die Physik Schnittstelle "PhysX", "Havok" oder "Tante Emma" heißt. ATi bietet via OpenCL ALLEN die Möglichkeit an, Physik auf der GPU zu berechnen.

PhysX ist eine Schnittstelle, die so programmiert ist, dass sie nur auf nVidia Karten funktioniert. Das KANN gar kein Vorteil sein, nichtmal für nVidia Besitzer, weil so die potentiellen Spiele mit PhysX eher weniger werden denn mehr, weil Entwickler eben eher für eine breite Basis entwickeln als nur für einen Teil davon.

silent-efficiency schrieb:
OpenCL hat weder was mit Windows 7 noch mit DirectX11 zu tun.

Funktioniert zwar auch unter Vista, wurde aber trotzdem erst mit Windows 7 zeitgleich eingeführt und ist für DirectX11 zwingende Voraussetzung.

Sontin schrieb:
AMD hat Havok über OpenCL vor zwei Jahren angekündigt und auf der GDC 2009 mit Techdemos gezeigt.
Es ist also mitnichten so, dass das ganze er vor kurzem gestartet wurde.

Das Schöne - wie oben bereits geschrieben - ist ja, dass Havok eben nicht ATi exklusiv ist, sondern auch auf nVidia Karten läuft oder auch nur auf der CPU. Und zwar ohne künstliche Beschränkung.
 
Falcon schrieb:
Du hast es immer noch nicht verstanden, oder?
Erstens hat ATi nie angekündigt irgendwas zu pushen. Warum sollten sie auch? Ist ja nicht ihre Firmenpolitik.

Havok, Bullet. Zwei Beispiel, wo AMD Physik-Engine über eine offene Schnittstelle pushen wollte.

Zum dritten Mal: ATi unterstützt offene Standards. Das heisst, es ist letztendlich SCHEISSEGAL ob die Physik Schnittstelle "PhysX", "Havok" oder "Tante Emma" heißt. ATi bietet via OpenCL ALLEN die Möglichkeit an, Physik auf der GPU zu berechnen.

nVidia unterstützt auch jede offene Schnittstelle. AMD bietet nämlich niemanden etwas an, sondern schließt sich nur einer Firma bzw. einem Konsortium an, eine definierte Schnittstelle zu unterstützen.

PhysX ist eine Schnittstelle, die so programmiert ist, dass sie nur auf nVidia Karten funktioniert. Das KANN gar kein Vorteil sein, nichtmal für nVidia Besitzer, weil so die potentiellen Spiele mit PhysX eher weniger werden denn mehr, weil Entwickler eben eher für eine breite Basis entwickeln als nur für einen Teil davon.

PhysX ist eine Physik-Engine, die über verschiedene Schnittstellen mit Prozessoren kommunizieren kann. PhysX ist die einzige vorhandene Technik, die es heute erlaubt, dass die GPU in Spielen als "Physikprozessor" verwendet werden kann. PhysX behindert überhaupt nichts.

Das Schöne - wie oben bereits geschrieben - ist ja, dass Havok eben nicht ATi exklusiv ist, sondern auch auf nVidia Karten läuft oder auch nur auf der CPU. Und zwar ohne künstliche Beschränkung.

Und es wurde vor zwei jahren angekündigt. Was soll daran schön sein, dass man mindesten 2 jahre nach der Ankündigung benötigt, etwas vorzeigbares zu veröffentlichen?
 
@Falcon: Na, dazu sei aber gesagt, dass auch NVidia OpenCL bietet. GPU-Beschleunigte Physik war mit PhysX einfach vorher da (und wird, meiner Meinung nach, aber auch über kurz oder lang verschwinden bzw. in OpenCL aufgehen). Und nur das zählt. Es ist schön, wenn dies und jenes angekündigt und verfolgt wird, aber am Ende muss man auch ein fertiges Produkt haben - und das hatte NVidia durch den Aufkauf von PhysX.

@Topic:
Ich sag es mal so: wenn PhysX total unnütz wäre, würde es nicht genutzt. Natürlich hat da auch NVidia die Finger im Spiel, aber so einfach aufzwingen können sie den Leuten das auch nicht. Da muss es schon Anreize geben, die von anderen Technologien nicht gegeben sind. Im Falle von PhysX ist dies wohl die mittlerweile recht ausgereifte SDK.

@Grabenkrieg:
Ich möchte an dieser Stelle noch mal darauf hinweisen: jeder hat seine Meinung und man kann jedes Ding auf dieser Welt von 2 Seiten sehen, deshalb kann es hier ewig so weitergehen. Solange auch alle über der Gürtellinie bleiben, bleibt auch der Thread offen.
 
Zuletzt bearbeitet:
AndrewPoison schrieb:
@Topic:
Ich sag es mal so: wenn PhysX total unnütz wäre, würde es nicht genutzt. Natürlich hat da auch NVidia die Finger im Spiel, aber so einfach aufzwingen können sie den Leuten das auch nicht. Da muss es schon Anreize geben, die von anderen Technologien nicht gegeben sind. Im Falle von PhysX ist dies wohl die mittlerweile recht ausgereifte SDK.

...finanzielle Anreize vielleicht? Entwicklungshilfe von Seiten nVidia vielleicht? Extra abgestellte nVidia Programmierer?

Bei allem Respekt, an der "ausgereiften Schnittstelle" lag es da wohl nie.
 
NVidia betreibt höchstens noch das TWIMTBP-Programm, das hat aber nichts mit PhysX zu tun. Und auch dort gibt es keine finanziellen Anreize (im Sinne einer "Bestechung") sondern die von dir erwähnten abgestellten Programmierer zur Optimierung des Codes und den kostenfreien Zugang zu allen Arten von NVidia-Karten.

Die PhysX-SDK hat mittlerweile durchaus eine Reife erfahren, wie du dir durch den Download selbiger vlt. auch selbst ansehen kannst, sofern du mit der Materie und Geschichte vertraut bist.

/edit: im übrigen zählt auch der Support zu Vorteilen von Technologie A, wenn Technologie B diese nicht in diesem Umfang (oder überhaupt) bietet ;)
 
Zuletzt bearbeitet:
FortissimoIV schrieb:
@Topic:
Ich sag es mal so: wenn PhysX total unnütz wäre, würde es nicht genutzt.

Solange es NVIDIA als Werbegag nutzen kann, ist es eigentlich völlig egal, ob es was bringt oder nicht.

Als es rauskam, brachte es einige Spiele wie Risen, wie auch Mirrors Edge bloß zum ruckeln, also war der Nachteil dadurch ja mal eindeutig größer als der Vorteil, womit deine Aussage teils wiederlegt ist. Auch in Metro 2033 gibt es Partikeleffekte, die wieder unmengen an Reserven fressen aber kaum sichtbar sind.

Da soll PhysX sich durchsetzen und ein sinnvolles feature sein.
 
Falcon schrieb:
Erstens hat ATi nie angekündigt irgendwas zu pushen.
http://www.hardware-infos.com/bild....l.jpg&bild_name=AMD+wirbt+mit+OpenCL-Partnern
Ich zitiere mal aus der Folie: AMD engaged with key devlepoers to deliver OpenCL-based compute capability
Toll, dass die sich Engagieren, nur bringt reine capability dem Kunden nichts. Außer der Stream SDK mit OpenCL Unterstützung bisher nichts zu sehen.
übrigens hier auch noch eine News: http://www.bit-tech.net/news/hardware/2009/03/20/amd-to-demo-gpu-physics-at-gdc/1

Falcon schrieb:
Warum sollten sie auch? Ist ja nicht ihre Firmenpolitik.
Um dem Kunden was bieten zu können?! Aber gut, wenn es nicht ihre Firmenpolitik ist, dann werden die ganzen Rufe nach offener Physik wohl weiterhin unerhört bleiben und nvidias propritäre Physik weiterhin das einzige sein, was man kriegt, wenn man GPU-beschleunigtes Physik haben will.

Falcon schrieb:
Zum dritten Mal: ATi unterstützt offene Standards. Das heisst, es ist letztendlich SCHEISSEGAL ob die Physik Schnittstelle "PhysX", "Havok" oder "Tante Emma" heißt. ATi bietet via OpenCL ALLEN die Möglichkeit an, Physik auf der GPU zu berechnen.
Hat jemand etwas anderes behauptet oder gesagt das er/sie es nicht weiß? Genau so ist es nämlich auch bei nVidia. Nvidia unterstütz auch offene Standards wie OpenCL und auch proprietäre wie DirectCompute von Microsoft. Letzten Endes ist hier AMD und nvidia also gleich.

Falcon schrieb:
PhysX ist eine Schnittstelle, die so programmiert ist, dass sie nur auf nVidia Karten funktioniert. Das KANN gar kein Vorteil sein, nichtmal für nVidia Besitzer, weil so die potentiellen Spiele mit PhysX eher weniger werden denn mehr, weil Entwickler eben eher für eine breite Basis entwickeln als nur für einen Teil davon.
Ich hab es schon im hartware.de-Forum erklärt. PhysX ist keine Schnittstelle, sondern CUDA. PhysX kann genau so auf OpenCL (auch eine Schnittstelle wie CUDA, nur offen) portiert werden. Das Nvidia dies nicht tut, liegt wohl vor allem daran, dass es keine weiteren offenen Konkurrenzprodukte gibt, die PhysX irgendwie bedrohen würden. Es gibt zwar welche, wie die bullet, aber aus irgend einem Grund kommen die nicht zu potte, was doch sehr schade ist, aber leider so ist.

Falcon schrieb:
Funktioniert zwar auch unter Vista, wurde aber trotzdem erst mit Windows 7 zeitgleich eingeführt und ist für DirectX11 zwingende Voraussetzung.
Und noch mal. DirectX11 hat mit OpenCL absolut nichts zu tun. Das eine ist von MS, das andere ein offener Standard.

Falcon schrieb:
Das Schöne - wie oben bereits geschrieben - ist ja, dass Havok eben nicht ATi exklusiv ist, sondern auch auf nVidia Karten läuft oder auch nur auf der CPU. Und zwar ohne künstliche Beschränkung.
Woher willst du wissen, ob es ohne künstliche Beschränkung läuft? Schließlich wird es von Intel bearbeitet und dann von Intel-Mitarbeitern auf eine offene API gesetzt.

milamber! schrieb:
1. Ich hab nirgends geschrieben das ich AMD kaufe, nur weil ich kein Nvidia kaufen werde in naher Zukunft.
Ach so. Du kaufst dir weder nvidia noch AMD, weil es für beides kein OpenPhysik gibt? Gut, dann ist es Konsequent. Dann schreib das doch das nächste mal gleich hin, dass du beides nicht käufst. Wenn du sagst, dass du nVidia nicht käufst, geht man davon aus, dass du dann zur Konkurrenz läufst. In Wirklichkeit willst du aber das Spielen über kurz oder lang komplett aufgeben. Ist auch eine Idee, hast du mehr Zeit zum posten.
 
Zuletzt bearbeitet:
conehead7 schrieb:
Als es rauskam, brachte es einige Spiele wie Risen, wie auch Mirrors Edge bloß zum ruckeln, also war der Nachteil dadurch ja mal eindeutig größer als der Vorteil, womit deine Aussage teils wiederlegt ist.

Also Mirrors Edge lief auf meiner damaligen 8800GT bestens, nichts von Ruckeln zu spüren. Zu Risen kann ich nichts sagen. Und ruckeln hin oder her, man muss es ja nicht nutzen wenn es ruckelt. Ist ja nicht so, als dass man PhysX nutzen muss wenn es einem nicht passt. Es ist ein Zusatzfeature, dass man nutzen kann wenn es einem passt. Ich habe keine Nachteile davon, wenn es vorhanden ist.
 
AndrewPoison schrieb:
Also Mirrors Edge lief auf meiner damaligen 8800GT bestens, nichts von Ruckeln zu spüren. .

Also komm, wenn die Scheiben bersten, geht das Spiel auf 5-10 FPS runter.. Das hast du nicht gemerkt?

Ich hatte damals auch ne 9800GT.
 
Auch in Metro 2033 gibt es Partikeleffekte, die wieder unmengen an Reserven fressen aber kaum sichtbar sind.
Nöö da gibt es viel mehr Sachen in Metro die deutlich merh limitieren.
Davon abgesehen besteht rein von den FPS kaum ein UNterschied bei Metro, ob PhysX nun per GPU oder CPU ausgeführt wird.
 
conehead7 schrieb:
Also komm, wenn die Scheiben bersten, geht das Spiel auf 5-10 FPS runter.. Das hast du nicht gemerkt? Ich hatte damals auch ne 9800GT.

Dass soll wohl nur bei der Raubkopie geschehen sein *hust* - oder du hast den Patch nicht installiert (oder er hat nichts gebracht). Wie gesagt... das Ding lief bestens.
 
Airbag schrieb:
Nöö da gibt es viel mehr Sachen in Metro die deutlich merh limitieren.
Davon abgesehen besteht rein von den FPS kaum ein UNterschied bei Metro, ob PhysX nun per GPU oder CPU ausgeführt wird.

Das stimmt schlichtweg nicht. Wenn ich etwas mit Granaten ohne PhysX zerstöre, bleiben die FPS kosntant. Mit PhysX geht der Rechner gerne mal auf 15 FPS runter, ist aber allgemein bekannt

@ AndrewPoison

Kann sein das sie es mittlerweile gefixt haben. Ich hatte es mir zum Release von nem Freund ausgeliehen.
 
Ich habe auch nich behauptet, dass es keine Leistungs kostet. ;)
Es gibt aber Sachen wie SSAO(wir reden hier von 40-50%) oder DOF, die deutlich mehr Leistung ziehen.
 
@Airbag

Ja klar, auf Very High und mit DOF wirds eh schön ruckelig. Gibt aktuell glaube ich keine Single GPU die das packt.
 
Zuletzt bearbeitet:
imo hat nv mit physX nur einen großen fehler begangen. sie hätten es so gestalten sollen, das egal ist, was als hauptkarte verwendet wird, so lange man ne nv karte für physX drin hat. das hätte ihnen tür und tor geöffnet. wetten?
 
Das hab ich schon immer gesagt, @Neo. Sie hätten problemlos reine PhysX-Karten mit z.B. nem G94 drauf ohne Monitoranschluss herausbringen können für die, die sonst keine GeForce verbaut haben / verbauen wollen. Das war verschenktes Potenzial. Jetzt wird PhysX als relativ unbedeutende Fußnote in die Geschichte eingehen - wie Glide.
 
@Neo_Xsendra
Ich verstehe auch nicht, warum sie nach so viel Arbeit, nicht auch noch das bisschen an Arbeit investieren um eine dedizierte PhysX-GPU-Karte mit einer anderen Hardware betreiben zu können, sie bräuchten ja dann nur kurz die Kompatibilität prüfen und fertig, und es war ja kompatibel, es lief schließlich und läuft immernoch über ein hack...

Oder haben die etwa Angst, dass AMD irgendwie an ihrem Treiber rumfuscht, und damit die Kompatibilität wieder irgendwie gefährdet wird und dann die Kunden auf Nvidia böse sind, weil die zusätzlich gekaufte Karte nicht so funktioniert wie sie soll? Ich kenne mich leider mit der Treiberproblematik hier zu wenig aus, um diese Frage beantworten zu können.
 
Status
Für weitere Antworten geschlossen.
Sapphire Forum
Zurück
Oben