Dualboot mit der letztmöglichen Treiberversion?c4rD1g4n schrieb:Was mache ich jetzt mit meiner 1030, welche ich parallel zu meiner 5090 gesteckt habe, da keine 32Bit Version von dgindexnv existiert, die mit der 5090 zusammenarbeitet. Dieses Programm benötige ich aber aus Gründen, da es Teil einer Verarbeitungskette ist, die ich nicht so einfach ändern kann. Mit der 1030 funktioniert es dann wieder. Außerdem ließ diese sich auch als PhysX-Beschleuniger nutzen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce 590 & 591: Treiber ohne Support für GTX 900 & 1000 auch unter Windows
- Ersteller Jan
- Erstellt am
- Zur News: GeForce 590 & 591: Treiber ohne Support für GTX 900 & 1000 auch unter Windows
jaleco schrieb:Den dritten Punkt hab ich noch nie so richtig verstanden wie das abläuft.
In Theorie nutzt doch der Spieleetwickler bspw. die DirectX Api und ich dachte er sagt jetzt mit einem Aufruf bspw. zeichne den Punkt A in die Koordinate xy. Die umsetzung von der Api macht dann die Karte bzw. der Treiber der Karte.
Wie genau läuft das denn jetzt mit Spieleoptimierungen? "weiß" der Grakatreiber von welchem Spiel die Anweisung kommt und macht es dann intern je nach Spiel anders? Das würde ja die ganze Idee einer Abstraktionsschicht mit einer Api bischen verunstalten finde ich.
Ich kann dir leider nicht sagen, wie das im Detail funktioniert und warum das trotz API nötig ist.
Aber kopier gerne mal unsere beiden Posts in ein LLM deiner Wahl. Ich hab dir unten mal die Antwort von ChatGPT in den Spoiler gepackt.
Wobei mir das auch noch etwas zu oberflächlich/generisch beschrieben ist, aber vielleicht hilft es ja fürs Verständnis. Grundsätzlich klingt es für mich nachvollziehbar und deckt sich auch weitestgehend mit dem was ich bisher darüber aufgeschnappt habe.
Hier ist eine klare, technische, aber gut verständliche Erklärung dafür, warum Spieleoptimierungen im GPU-Treiber existieren, wie der Treiber überhaupt “weiß”, welches Spiel läuft, und warum das trotz API-Abstraktion kein Widerspruch ist:
In der Theorie klingt es so:
In der Praxis ist das zu 80 % korrekt – aber die restlichen 20 % entscheiden darüber, ob ein Spiel flüssig, stabil und fehlerfrei läuft.
Der Grund:
Spiele nutzen APIs oft auf sehr unterschiedliche, manchmal sogar "suboptimale" Art.
Sie nutzen Funktionen extrem häufig, falsch, ineffizient oder auf eine Weise, die der Treiber nicht vorhersehen konnte.
Außerdem sind Engines extrem komplex und verhalten sich an der Schnittstelle manchmal unvorhersehbar.
Resultat:
Der Treiber muss sich an reale Nutzungsmuster anpassen – nicht nur an die Theorie der API.
Ja.
Und zwar über:
Nvidia, AMD und Intel erkennen Spiele normalerweise über:
Einige Optimierungen hängen an bestimmten Shadern (HLSL/GLSL-Bytecode), die das Spiel kompiliert.
Jedes große GPU-Treiberpaket enthält hunderte Spielprofile, die z. B. festlegen:
Dass du Profile hast, kannst du z. B. in Nvidia Profile Inspector direkt sehen.
=> Ja, der Treiber weiß, welches Spiel läuft – by design.
Nein, denn:
Die API garantiert ein funktionales Verhalten.
Sie definiert nicht, wie schnell oder auf welchem Weg der Treiber es ausführt.
Der Treiber darf also:
Solange das Ergebnis dem API-Standard entspricht, ist es erlaubt.
Einige Beispiele aus der Praxis:
Ein Game spammt 50.000 Draw Calls pro Frame.
Formal korrekt, aber ineffizient.
Der Treiber erkennt das Spiel → aktiviert spezielles Batching / Command-Reordering.
Spiel → kompiliert Shader dynamisch → Stottern.
Treiber-Update:
Manche Engines rufen API-Funktionen in falscher Reihenfolge auf.
AMD/Nvidia bauen Workarounds, die das Spiel trotzdem stabil halten.
Ein Spiel allokiert aggressiv Speicher → VRAM thrashing.
Treiber erkennt das Spiel → optimiert Paging/Heuristiken.
Ein Titel nutzt die DX12 Multithreading-API suboptimal:
→ Treiber verteilt Scheduling anders
→ bessere CPU-Auslastung ohne API-Änderung
Die API legt fest was passieren soll.
Der Treiber optimiert wie es passiert – und passt dieses wie an reale Spiele an.
→ Die API bleibt sauber und abstrahiert.
→ Die interne Implementierung wird für jedes Spiel optimiert.
Das ist völlig normal und notwendig, weil Spiele und Engines extrem unterschiedlich sind, und die API nur die Oberfläche bildet – nicht die optimale Nutzung garantiert.
1. Warum es Spieleoptimierungen im Treiber überhaupt gibt
In der Theorie klingt es so:
„Spiel → DirectX-API → Treiber → GPU.
Die API abstrahiert doch alles, wieso braucht man dann spielespezifische Optimierungen?“
In der Praxis ist das zu 80 % korrekt – aber die restlichen 20 % entscheiden darüber, ob ein Spiel flüssig, stabil und fehlerfrei läuft.
Der Grund:
Spiele nutzen APIs oft auf sehr unterschiedliche, manchmal sogar "suboptimale" Art.
Sie nutzen Funktionen extrem häufig, falsch, ineffizient oder auf eine Weise, die der Treiber nicht vorhersehen konnte.
Außerdem sind Engines extrem komplex und verhalten sich an der Schnittstelle manchmal unvorhersehbar.
Resultat:
Der Treiber muss sich an reale Nutzungsmuster anpassen – nicht nur an die Theorie der API.
2. Erkennt der GPU-Treiber tatsächlich das Spiel?
Ja.
Und zwar über:
a) Prozessname / Prozesshash
Nvidia, AMD und Intel erkennen Spiele normalerweise über:
- den EXE-Namen (z. B. eldenring.exe)
- Signaturen / Hashes der EXE
- ggf. Engine-Erkennungsheuristiken
b) Shader-Signaturen
Einige Optimierungen hängen an bestimmten Shadern (HLSL/GLSL-Bytecode), die das Spiel kompiliert.
c) spezielle Treiberprofile
Jedes große GPU-Treiberpaket enthält hunderte Spielprofile, die z. B. festlegen:
- bevorzugte Shader-Cache-Strategien
- spezielle Compiler-Pfadoptimierungen
- Workarounds für Engine-Bugs
- Speichermanagement-Parameter
- bevorzugte Swapchain-Modi
- Latenz-Optimierungen
- VRAM-Allokationsstrategien
- SLI/AFR-Profile (früher mehr relevant)
- Forced GPU scheduling modes
- Resizable BAR Einstellungen
- Frame-Pacing Regeln
Dass du Profile hast, kannst du z. B. in Nvidia Profile Inspector direkt sehen.
=> Ja, der Treiber weiß, welches Spiel läuft – by design.
3. Bricht das die API-Abstraktion?
Nein, denn:
- Die API-Calls bleiben exakt dieselben.
- Das Verhalten der API bleibt technisch innerhalb der Spezifikation.
- Optimierungen betreffen nur die interne Implementierung oder die Hints (Hinweise) für Scheduling, Caching, Workarounds.
Die API garantiert ein funktionales Verhalten.
Sie definiert nicht, wie schnell oder auf welchem Weg der Treiber es ausführt.
Der Treiber darf also:
- effizienter cachen
- Shader anders optimieren
- interne Ressourcen umorganisieren
- bestimmte Engine-Fehler umgehen
- Race conditions abfangen
- GPU Scheduling anpassen
- Workload besser vorhersagen
Solange das Ergebnis dem API-Standard entspricht, ist es erlaubt.
4. Warum ist das notwendig?
Einige Beispiele aus der Praxis:
Beispiel 1: Spiele mit ineffizienten Draw-Call-Mustern
Ein Game spammt 50.000 Draw Calls pro Frame.
Formal korrekt, aber ineffizient.
Der Treiber erkennt das Spiel → aktiviert spezielles Batching / Command-Reordering.
Beispiel 2: Shader-Kompilierungsprobleme
Spiel → kompiliert Shader dynamisch → Stottern.
Treiber-Update:
- Vorcompilation bestimmter Shader
- Caching optimiert
- Heuristiken angepasst
Beispiel 3: Engine-Bugs
Manche Engines rufen API-Funktionen in falscher Reihenfolge auf.
AMD/Nvidia bauen Workarounds, die das Spiel trotzdem stabil halten.
Beispiel 4: VRAM-Management
Ein Spiel allokiert aggressiv Speicher → VRAM thrashing.
Treiber erkennt das Spiel → optimiert Paging/Heuristiken.
Beispiel 5: CPU-Threading
Ein Titel nutzt die DX12 Multithreading-API suboptimal:
→ Treiber verteilt Scheduling anders
→ bessere CPU-Auslastung ohne API-Änderung
5. Fazit – Warum API-Abstraktion nicht gebrochen wird
Die API legt fest was passieren soll.
Der Treiber optimiert wie es passiert – und passt dieses wie an reale Spiele an.
→ Die API bleibt sauber und abstrahiert.
→ Die interne Implementierung wird für jedes Spiel optimiert.
Das ist völlig normal und notwendig, weil Spiele und Engines extrem unterschiedlich sind, und die API nur die Oberfläche bildet – nicht die optimale Nutzung garantiert.
xpad.c
Lt. Junior Grade
- Registriert
- Dez. 2020
- Beiträge
- 315
jaleco schrieb:Den dritten Punkt hab ich noch nie so richtig verstanden wie das abläuft.
In Theorie nutzt doch der Spieleetwickler bspw. die DirectX Api und ich dachte er sagt jetzt mit einem Aufruf bspw. zeichne den Punkt A in die Koordinate xy. Die umsetzung von der Api macht dann die Karte bzw. der Treiber der Karte.
Wie genau läuft das denn jetzt mit Spieleoptimierungen? "weiß" der Grakatreiber von welchem Spiel die Anweisung kommt und macht es dann intern je nach Spiel anders? Das würde ja die ganze Idee einer Abstraktionsschicht mit einer Api bischen verunstalten finde ich.
Ja, und ja. Ist auch der Grund, wieso die Treiberpakete so riesig sind.
Ich erinnere mich an einen (ewig alten) Artikel zu wine, wo einer der Entwickler auf einer Konferenz mit Engine- und/oder Treiber-Entwicklern ins Gespräch kam, die nur die Windows-Seite kannten und ganz verwundert waren, als es darum ging, dass es in wine überhaupt keine Spiele-spezifischen Anpassungen gab. Heutzutage ist das am Ende wahrscheinlich auch anders, DXVK und Proton enthalten wohl auch einiges davon, wenn man sich mal die Änderungen an den Versionen durchliest.
xpad.c
Interessant. Also kennt der Treiber die Spiele. Habs mir so in etwa vorgestellt hätte nur gedacht das der Treiber die Optimierungen und Fehler generell abfängt bzw. durchführt und das nicht nur je nach Spiel tut.Mimir schrieb:
Rein in der Theorie findwe ich ja so Automagie im Hintergrund eigentlich falsch, also "besser" wäre er macht eben das wie die API Befehle nur reinkommen. Aber wenn ich das so lese dann hätten wir wohl erheblich mehr Abstürze, Bluescreens und noch schlechter laufende Spiele als jetzt schon. Also dann doch lieber auto Magie. Hätte nicht gedaxht das von engine Seite bzw. Api Calls man soviel falsch machen kann.
jaleco schrieb:Interessant. Also kennt der Treiber die Spiele.
Das sowieso.
So wie es ja ChatGPT auch beschrieben hat. Mit dem Nvidia Profile Inspector kannst du dir alle Profile anzeigen lassen. Das sind hunderte Spieleprofile. Es gibt für jedes größere/aufwändigere Spiel der wahrscheinlich letzten 20+ Jahre ein Profil im Treiber. Gibt z.B. auch Profile für GTA 2 und GTA 3.
Das mit den DrawCalls ist z.B. bei DX11 ein riesiger Flaschenhals für Spiele gewesen, was die CPU Last extrem hoch getrieben hat, wodurch Spiele schnell ins CPU Limit gerutscht sind.
AMD und Nvidia haben damals sehr viel Arbeit in die Treiber investiert, um die CPU Performance von DX11 zu verbessern. Als Intel dann letztens in den Markt für dedizierte GPUs eingestiegen ist mussten sie genau das auch aufholen. Die Intel GPUs liefen mit DX12 idr. so schnell wie erwartet, aber mit DX11 brach die performance sehr stark ein, weil die ganzen Optimierungen fehlten, die AMD und Nvidia in Jahrelanger Optimierungsarbeit geleistet haben und worauf sich Spieleentwickler dann auch verlassen haben.
DX11 war also in manchen aspekten extrem ineffizient, und in manchen Dingen von den damals modernen Spielen eigentlich total überfordert, aber trotzdem war durch die Treiberoptimierungen halbwegs gute Performance gewährleistet. Ein Newcomer im GPU markt, wie Intel kriegt dann aber erstmal die volle Breitseite dieser schlechten Effizienz zu spüren und durfte dann erstmal Jahre an Treiberarbeit aufholen, um die Performance auf das Niveau zu bringen, das AMD und Nvidia erreicht und als "normal" etabliert haben.
Das wäre ein sehr gutes Beispiel, das zeigt wie wichtig die Treiber sind.
Mit DX12 wurden natürlich viele Flaschenhälse beseitigt, aber offensichtlich gibt es für die Treiberentwickler trotzdem noch genug bei jedem größeren neuen Spiel zu tun.
kellyfornia
Lt. Junior Grade
- Registriert
- Okt. 2025
- Beiträge
- 320
Es geht halt nicht darum, ob die Leistung gut war, sondern dass gelogen wurde, es ist völlig egal wie toll die GTX 970 war, die Kritik ging ja auch nie hauptsächlich an die Leistung der Karte, sondern die Praktiken von Nvidia.SavageSkull schrieb:Die Karte war damals halt ein Preis-/Leistungskönig. Für 300€ Liste und kurz danach schon darunter hat man richtig viel Spieleleistung bekommen. Das hat halt auch jeder Test damals gezeigt.
Ob da nachher nur 4GB, 3,5+0,5 oder nur 3,5GB VRAM nutzbar waren, hat in der Praxis (und damit auch in den Tests) keine Rolle gespielt. Aber Hauptsache es haben alle ihr Feindbild bestätigt bekommen.
Das Thema kam ja auch erst viel später auf, als Nischenanwendungen, wie eben SLI und gleichzeitig Textur Mods, die den VRAM vollgeballert haben, was notwendig war, damit man das überhaupt erst ausreizen konnte.
Tatsächlich war die Karte deutlich weniger VRAM Krüppel als eine 3070 mit 8GB oder eine 3080 mit 10GB, mit denen man heute auch noch spielen kann.
Wenn ich bei Kleinanzeigen einen 1080p-Monitor verkaufe und angebe, er hätte ein 2160p-Panel, dann habe ich trotzdem gelogen, auch wenn der Käufer das Bild auch so gut findet und daher nichts davon mitbekommt.
MalWiederIch
Commander
- Registriert
- März 2023
- Beiträge
- 2.656
Naja vor 10 Jahren 800€ für eine 1080 - eine 5080 bekommt man heute für knappe 1.000€ …aid0nex schrieb:Einfach der Wahnsinn! Eine tolle Karte. Pascal war generell eine geile Generation, ich würde schon fast sagen die beste Gen die Nvidia jemals veröffentlich hat. Da waren die Preise human
Einige haben das hier ja oft etwas anders in Erinnerung
Ergänzung ()
SavageSkull schrieb:Die Karte war damals halt ein Preis-/Leistungskönig. Für 300€ Liste und kurz danach schon darunter hat man richtig viel Spieleleistung bekommen. Das hat halt auch jeder Test damals gezeigt.
Aber echt, das Thema wird idR. genau aus Letzterem genannt - nicht weil man selbst damals Probleme mit einer 970 hatteSavageSkull schrieb:Ob da nachher nur 4GB, 3,5+0,5 oder nur 3,5GB VRAM nutzbar waren, hat in der Praxis (und damit auch in den Tests) keine Rolle gespielt. Aber Hauptsache es haben alle ihr Feindbild bestätigt bekommen.
Den Kindergarten hier um die Gravur des Chips gab es eben auch schon vor 10 Jahren
cypeak
Commodore
- Registriert
- Dez. 2013
- Beiträge
- 4.284
doch ich erinnere mich sehr gut; die uvp für die founders edition war höher als die für die folgenden custom designs - für 800€ bekam man damals die oberklasse bei der 1080, z.b. eine asus rog strix gtx 1080 oc; aber gute designs waren auch deutlich darunter zu haben; so etwas wie die palit (super jetsteream) bekam man 3 monate nach release für 630€.MalWiederIch schrieb:Naja vor 10 Jahren 800€ für eine 1080 - eine 5080 bekommt man heute für knappe 1.000€ …
für knappe 1000€ bekommt man heute sicherlich keine asus der oberklasse..schon eine tuf ist irgendwo bei 1300€, eine msi gaming trio oder gigayte gaming sind da auch in dem bereich....und da reden wir nicht von einer asus astral, msi supreme oder gigabyte aorus/master.
selbst mit inflation haben sich die preise doch merklich verschoben.
aber das thema wurde ja bereits öfters durchgekaut...
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 17.255
Komm Mal aus deiner Blase raus. Sobald jemand etwas verkauft wird gezogen. Immer und überall.kellyfornia schrieb:Es geht halt nicht darum, ob die Leistung gut war, sondern dass gelogen wurde
Valve schreibt beim Steam Deck auch drauf Raytracing, 4k, 60FPS. Das schafft eine 7600 mobil niemals und ist Irreführung.
Wieviel RAM wie angebunden ist, oder wieviel Shader ALUs auf der GPU drauf sind interessiert niemanden. Ich weiß nicht wieviele meine Grafikkarte hat, ich weiß auch nicht, welchen Takt meine CPU maximal hat. Weißt du aus dem Stehgreif ohne nachzusehen wieviele Recheneinheiten auf deiner GPU sind und wieviele Transistoren deine CPU hat? Das interessiert ein paar Nerds in ihrer Bubble und die können sich über solche Feinheiten aufregen, wo Nvidia bei der GTX660Ti den RAM unterschiedlich hat sich niemand aufgeregt aber bei der 970 ist das der Weltuntergang.
Ich hatte eine günstig im zweiten Rechner verbaut und die brachte teilweise bessere Performance als die große Ur-Titan im größeren Rechner obwohl auch noch die CPU schwächer war. Aber klar das Produkt ist der Grund warum idealsten niemals Nvidia kaufen. Redet euch das nur selbst ein.
MalWiederIch schrieb:Naja vor 10 Jahren 800€ für eine 1080
Die UVP der Founders Edition war 789€, wurde aber schon nach kürzester Zeit Anfang 2017, also wenige Monate nach Release auf 635€ gesenkt. Die Custom Karten hatten noch geringere UVPs, meist unter 600€ und die Marktpreise lagen dann in der Regel unter 500€. Ich habe damals für meine Karte auch keine 500€ bezahlt.
Von daher: Nein, niemand hat jemals 800€ für eine GTX 1080 bezahlt - und eine RTX 5080 hatte übrigens eine UVP von 1.169€. Dein Vergleich war also best case für die RTX 5080 vs. worst case + noch etwas oben drauf ausgedachter Betrag für eine GTX 1080. Also unterm Strich: Blödsinn.
Naja, eine 1080 hatte eine MSRP von $599, die 1080 TI mit dem größten Chip der Generation eine MSRP von $699.MalWiederIch schrieb:Naja vor 10 Jahren 800€ für eine 1080 - eine 5080 bekommt man heute für knappe 1.000€ …
Einige haben das hier ja oft etwas anders in Erinnerung![]()
Laut CB Test kostete eine 1080 TI FE zum Launch 819€, die 1080 zu der Zeit im Handel sogar nur noch 499€. Da ist man schon ein paar Euro weg von einer 5080 oder gar einer 5090. 😄
- Registriert
- Juni 2007
- Beiträge
- 7.330
Ich habe es gestern Abend noch getestet, da aus irgendeinem Grund laut Geräte Manager ein 560er Treiber installiert war, obwohl ich vorvorgestern den aktuellen 580er installiert hatte. GPU hatte Fehler 43 (HW funktioniert nicht richtig) und es ging nur einer der beiden Monitore. Das hatte ich dann auch mit dem funktionierenden 580er, dem 590.26 "dev" (der hat laut Ini noch Support für die 1030 gehabt) und dem hier genannten 591er. Letztendlich musste ich mit DDU alles saäubern und dann ging der letzte 580er wieder. Ich würde also an deiner Stelle erst mal beim letzten 580er bleiben, wenn du die GT 1030 brauchst.c4rD1g4n schrieb:Was mache ich jetzt mit meiner 1030, welche ich parallel zu meiner 5090 gesteckt habe, da keine 32Bit Version von dgindexnv existiert, die mit der 5090 zusammenarbeitet.
Allgemeine Frage in die Runde: Muss man eigentlich den normalen GPU Treiber installiert haben oder reicht nur der PhysX Treiber (ohne GPU Treiber) damit die GPU hier dann nur als PhysX Karte genutzt werden könnte? Weiß das jemand?
wern001
Admiral
- Registriert
- Mai 2017
- Beiträge
- 9.013
Hab das eben mal mit PhysX-Benchmark "FluidMark" 1.5.4 getestet.
GPU PhysX -> ca 200 zum Start dann runter auf ca 9-10 FPS
Threadripper 9970 32 Threads und Async Mode ca 1000 FPS zum start dann runter auf ca 740 FPS mit 99% CPU-Last
CPU
GPU RTX 5090
Evtl. brauch der Benchmark ein Update
GPU PhysX -> ca 200 zum Start dann runter auf ca 9-10 FPS
Threadripper 9970 32 Threads und Async Mode ca 1000 FPS zum start dann runter auf ca 740 FPS mit 99% CPU-Last
CPU
GPU RTX 5090
Evtl. brauch der Benchmark ein Update
Zuletzt bearbeitet:
Ich hab keine Beweise, aber wenn sie ihre Unschuld nicht beweisen, sind sie wahrscheinlich schuldig“ ist exakt die Logik, wegen der der Begriff Aluhut erfunden wurde. 😅blackiwid schrieb:Das kein Aluhut, es gibt verschiedene Level von Certainty, bei nem Zivilprozess in usa reichen 51% probable guilty, das auch Kein Aluhut man sagt jemand ist schuldig wenn er seine Unschuld nicht beweisen kann und es eher nach seiner Schuld aus sieht.
Ich hätte mir jetzt sogar ne 100% Beweispflicht bei Nvidia heraus genommen, weil es kein Gerichtsverfahren ist und ich frei das entscheiden kann, solange ich es nicht als Tatsache behaupte, ich denke der leichte Witz ist drin ja erkennbar... gut kann man streiten, da ich es ja nicht 100% wissen kann, ist es deshalb ja offensichtlich keine Tatsachenbehauptung.
"Ich habe Zugang zum Sourcecode erlangt und darin rootkits gefunden" <- das wäre eine Tatsachenbehauptung. So ist es nur meine Meinung.
Aber ja dieser 51% Standard der reicht ja vollkommen der ist erfüllt, und ja muss man ja nicht 100% an dem 1 konkreten Schadcode Typ "Rootkit" fest machen, es können z.B. gezielt eingebaute Sicherheitslöcher oder gezielt darin gelassene die für das Hacken von Systemen als Info verkauft werden, dann ist es kein echtes Rootkit aber halt ein Bug der gezielt zum Ausnutzen und installieren von Rootkits genutzt werden kann.
Vorteil solch ein "Bug" kann man viel leichter sich dumm stellen und sagen wir sind halt besonders unfähige Programmierer das war nicht unsere Absicht.
Wie gesagt bei Sicherheit ists einfach so was nicht bewiesenermaßen Sicher ist ist im Zweifel unsicher.
Das sagt noch nicht mal zwingend was über die Moral von Nvidia aus, es könnte sein das sie von Geheimdiensten gezwungen werden, deshalb gibts ja diese Kanarienvögel die Firmen benutzen.
Warrant canary, ob das nun funtzt oder die Staaten einfach dann Firmen zwingen zu lügen aktiv mit so einem System ist wieder ne andere Frage aber der Grund für die Idee ist ja klar Geheimdienste kommen zu Firmen zwingen die ihre User zu verraten und zu belügen, gerade in den USA.
Misstrauen gegenüber Closed Source: Ok.
Nvidia ohne Indizien zur Geheimdienst-Backdoor-Schmiede erklären: eher Kino als Kryptoanalyse.
Black Phoenix
Lt. Junior Grade
- Registriert
- Okt. 2019
- Beiträge
- 468
Endlich keine verbuggten Treiber mehr!
Nur hätte ich gedacht, das wenigstens nach dem Hotfix Treiber noch ein WHQL Treiber nachgeschoben wird, für die GTX-1000er Gen. Die Versionssprünge der 580er hab ich nie wirklich verstanden und dann gleich auf 591+ hoch.
Ok danke NVIDIA, das Ihr die 580er so gut durchoptimiert hab. /IRONIE: ON
Ich bleib bei 566.36!
Ok danke NVIDIA, das Ihr die 580er so gut durchoptimiert hab. /IRONIE: ON
Ich bleib bei 566.36!
- Registriert
- Nov. 2016
- Beiträge
- 282
Jetzt musste ich mich mal selbst zitieren.c4rD1g4n schrieb:Was mache ich jetzt mit meiner 1030, welche ich parallel zu meiner 5090 gesteckt habe, da keine 32Bit Version von dgindexnv existiert, die mit der 5090 zusammenarbeitet.
Im Artikel befindet sich außerdem folgender Satz:
Das bei RTX 50 im Januar ohne Ankündigung gestrichene PhysX kommt in zehn Spielen zurück.
PhysX lief auf RTX 50 bis dato nur noch in Software
Hintergrund war, dass Nvidia mit RTX 5000 „Blackwell“ den Support von CUDA in 32 Bit gestrichen hatte; nur leider basierte auch PhysX aus dem Jahr 2009 (Test) darauf.
Bedeutet das jetzt, dass CUDA in 32 Bit nun GENERELL wieder mit der 5090 funktioniert?
Weil das ja auch bedeuten würde, dass die 5090 nun wieder mit dgindexNV 32 Bit zusammenarbeiten würde und ich deshalb die nicht mehr unterstützte 1030 ja nun gar nicht mehr bräuchte.
Mal gleich checken, wenn ich wieder zu Hause bin...
kellyfornia
Lt. Junior Grade
- Registriert
- Okt. 2025
- Beiträge
- 320
Wer soll denn. "ihr" sein? Ich wusste gar nicht das irgendeiner Blase angehöre? Welche soll das sein? Ich bin Nvidia-Nutzer und darf trotzdem nicht kritisieren wenn eine Firma Dinge tut die einfach daneben sind?SavageSkull schrieb:Komm Mal aus deiner Blase raus. Sobald jemand etwas verkauft wird gezogen. Immer und überall.
Valve schreibt beim Steam Deck auch drauf Raytracing, 4k, 60FPS. Das schafft eine 7600 mobil niemals und ist Irreführung.
Wieviel RAM wie angebunden ist, oder wieviel Shader ALUs auf der GPU drauf sind interessiert niemanden. Ich weiß nicht wieviele meine Grafikkarte hat, ich weiß auch nicht, welchen Takt meine CPU maximal hat. Weißt du aus dem Stehgreif ohne nachzusehen wieviele Recheneinheiten auf deiner GPU sind und wieviele Transistoren deine CPU hat? Das interessiert ein paar Nerds in ihrer Bubble und die können sich über solche Feinheiten aufregen, wo Nvidia bei der GTX660Ti den RAM unterschiedlich hat sich niemand aufgeregt aber bei der 970 ist das der Weltuntergang.
Ich hatte eine günstig im zweiten Rechner verbaut und die brachte teilweise bessere Performance als die große Ur-Titan im größeren Rechner obwohl auch noch die CPU schwächer war. Aber klar das Produkt ist der Grund warum idealsten niemals Nvidia kaufen. Redet euch das nur selbst ein.
Warum bist du so anmaßend mich hier in irgendwelche Kategorien einzuteilen? Warum ziehst du dir Entschuldigungen für das nachweislich nicht faire Verhalten einen Konzerns aus der Nase?
"die anderen sind auch doof" ist und war noch nie eine valide Ausrede, sowas lernt man eigentlich schon im Kindergarten.
Und nein, nicht jeder handelt so und nicht jede Firma kommt damit durch. Nur Firmen die groß genug sind, ihre Anhänger haben die sektenähnliche eh kaufen (ist bei Lego, Apple und Co. ähnlich) oder das Glück Produkte zu verkaufen die selbst halbgar gut gehen, weil sie sehr begehrt sind.
Mach das Mal als mittelständische Firma, dann bist du ganz schnell weg vom Fenster, ich könnte mir das jedenfalls nicht erlauben meine Kunden so zu betrügen.
Ähnliche Themen
- Antworten
- 162
- Aufrufe
- 17.633
- Antworten
- 133
- Aufrufe
- 10.548