longusnickus schrieb:
DLSS ist viel weiter verbreitet als FSR4. das muss man in vielen fällen nicht nachbessern. für 4.5 wird es updates geben. ansonsten ist sogar DLSS4 besser als FSR4
Na ja...
Ich habe selbst ja eine 4080 und zwei 4090 im Einsatz, und aus Erfahrung kann ich sagen, dass man natürlich bei alten Spielen "nachbessert", weil auch DLSS eine Entwicklung hingelegt hat. Das Ghosting in alten DLSS-Versionen geht mir persönlich nämlich mehr auf den Zeiger als manche FSR-Schwäche.
Und wie macht man das?
Man muss ebenfalls zu externen Tools greifen, sei es DLSS-Swapper oder die Nvidia-App.
longusnickus schrieb:
wir reden schon noch von linux
du scheinst dir keine benchmarks angesehen zu haben wie viel verlust man da im vergleich zu windows heute noch hat. selbst mit dem neuen UE update in mesa ist man auf windows noch immer schneller
Meine Frage war ganz unabhängig vom Betriebssystem gestellt. Es wäre schön, wenn Du sie beantworten könntest.
Daher nochmal: Zeig mir die Nvidia-Karte, die für unter 700€ 16GB RAM mitbringt und die RX 9070 XT im Raytracing nass macht.
Ansonsten kenne ich Benchmarks durchaus, ich bin ja nicht so blöd wie ich aussehe. Beispielhaft sei der kürzlich veröffentlichte
Vergleich auf dieser Seite genannt. Da sieht man in Sachen Performance ein gemischtes Bild, wobei es meistens auf einen eher dezenten Vorsprung von Windows hinausläuft mit ein paar Ausreißern.
Das Bild, das Nvidia hinsichtlich der Stabilität abgibt, ist aber eher abschreckend. In diversen Linux-Threads in allerlei Foren habe ich sowohl in Postings als auch in persönlichen Gesprächen mehrfach Umsteiger von Nvidia auf AMD getroffen, weil die Linux-Treiber von Nvidia einfach scheiße sind. Das kann man ja auch
im Fazit des genannten Vergleiches lesen.
Die Leistung ist schlussendlich aber das kleinste Problem, denn GeForce-Grafikkarten haben im Test unter Linux zahlreiche Probleme gezeigt. Vor allem die Stabilität mit aktiviertem Raytracing ist ein Problem, viele Spiele stürzen sang- und klanglos ab. Oder starten gar nicht erst. Oder haben große Grafikfehler. Oben drauf kommt dann noch das je nach Spiel auch schon einmal 15 bis 20 Minuten lange kompilieren der Shader beim Spielstart – auf einer Radeon dauert das wenige Sekunden. Die Spielerfahrung mit einer GeForce unter Linux war schlecht.
Warum sollte man sich das jetzt antun, wenn man einen neuen Linux-PC für Gaming aufsetzt, außer man ist ein masochistisch veranlagter Vollidiot? Ich bin zwar ein Vollidiot, aber kein Masochist!
longusnickus schrieb:
aha und was sagt uns das jetzt? so ziemlich gar nichts. das meiste davon wird für server sein. AMD will seine epyc CPUs verhökern
intel hat mehr als doppelt so viel
AMD schafft es bis heute nicht, dass man unter linux bei ZEN CPUs die WATT auslesen kann. das hat linus vor ein paar jahren rausgenommen, weil AMD das nicht mehr gepflegt hat und seitdem geht es einfach nicht mehr, ohne 3rd party kernel module. warum schafft intel das und AMD nicht?
also dir da auf diese bild jetzt irgendwas zusammen zu reimen ist schon stark
Ich kenne das Problem mit dem Auslesen der CPU-Leistung nur indirekt über eine Einstellung in MangoHUD. Dort steht im Tooltip allerdings, dass die entsprechende Datei unter /dev absichtlich gegen Zugriff geschützt ist, aufgrund eines Sicherheitlecks bei Intel-Prozessoren. Man kann dann die Rechte über ManoHUD gewähren, dann funktioniert es auch bis zum nächsten Reboot.
Woher kommt Deine Info?
Ansonsten flatulierst Du hier ohne jeden Beleg etwas heraus, und sagst dann aufgrund Deiner vollkommen willkürlichen Behauptung, ich würde mir etwas zusammenreimen.
Man kann das ja mal hinterfragen, z. B. mit KI, das habe ich getan. Meine Frage war, wie die Anteil der Commits pro Firma auf die verschiedene Bereiche verteilt sind. Die Antwort ist ziemlich eindeutig und zeigt, wer sich hier etwas zusammenreimt.
Die Aufgliederung der Commits (Beiträge) ist ein hervorragendes Mittel, um die wahre Strategie hinter den Millionen Codezeilen zu sehen. Da der Linux-Kernel über das Versionsverwaltungssystem
Git dokumentiert wird, lassen sich die Beiträge von AMD und Nvidia sehr genau verschiedenen "Subsystemen" (Bereichen) zuordnen.
Hier ist die Verteilung, wie sie sich aus aktuellen Statistiken (Stand 2025/2026, z. B. via
LFX Insights und
LWN) ergibt:
1. AMD
Bei AMD teilen sich die Commits fast wie bei einem spezialisierten Mischkonzern auf.
- Grafik-Subsystem (DRM/AMDGPU): ca. 60–70% der Commits
- Das ist der Bereich, den wir besprochen haben. Hier fließen die meisten Änderungen ein, oft getrieben durch Hardware-Enablement für neue Generationen (RDNA 4/5) und vor allem die Instinct-Beschleuniger (MI300/400) für den KI-Markt.
- Wichtig: Ein großer Teil dieser Commits stammt von spezialisierten Grafik-Ingenieuren (wie Alex Deucher).
- Prozessor & Plattform (x86/CPU/Power): ca. 20–25% der Commits
- Hier geht es um die EPYC- und Ryzen-Unterstützung. Dazu gehören CPU-Features, Cache-Optimierungen und das Powermanagement.
- In den letzten zwei Jahren gab es hier einen massiven Anstieg durch "Confidential Computing" (SEV-SNP), damit AMD-Prozessoren in der Cloud (Azure/AWS) Daten verschlüsselt verarbeiten können.
- Rest (Audio, USB, Netzwerk): ca. 10%
- Unterstützung für Chipsätze und integrierte Komponenten auf Mainboards und in Laptops.
2. Nvidia
Bei Nvidia sieht das Bild völlig anders aus. Da Nvidia keine x86-Prozessoren (wie Ryzen) herstellt, konzentrieren sie sich fast ausschließlich auf die Schnittstellen ihrer GPUs.
- Grafik & Compute (DRM/Nvidia-Open): ca. 85% der Commits
- Fast alle Kernel-Beiträge von Nvidia fließen in das neue Open-Source-Kernel-Modul. Hier geht es darum, die Kommunikation zwischen dem Linux-Kernel und der geschlossenen GSP-Firmware auf den RTX- und Hopper/Blackwell-Karten stabil zu halten.
- ARM-Architektur (Tegra): ca. 10% der Commits
- Nvidia ist im Bereich ARM (z.B. für Jetson-Module in Robotern oder Autos) sehr aktiv. Hier fließen Commits in die Unterstützung ihrer ARM-basierten SOCs ein.
- Netzwerk (Mellanox): Massive separate Beiträge
- Nvidia hat den Netzwerkspezialisten Mellanox gekauft. Wenn man diese Commits mitzählt, ist Nvidia im Bereich InfiniBand und High-Speed-Networking einer der größten Beitrager im gesamten Kernel – das hat aber nichts mit Grafikkarten zu tun, sondern mit der Vernetzung von Supercomputern.
Zusammenfassender Vergleich (Anteil der Commits)
| Bereich | AMD | Nvidia |
|---|
| GPU (Gaming & KI) | Hoch (sehr aktiv in Mesa & Kernel) | Hoch (Fokus auf Kernel-Interface & Netzwerk) |
| CPU (x86 / Kerne) | Hoch (EPYC/Ryzen Optimierung) | Fast Null (keine x86 CPUs) |
| Sicherheit / Virtualisierung | Sehr Hoch (SEV-Technologie) | Mittel (Fokus auf ARM/Tegra Sicherheit) |
| Strategie | Breit: "Wir bauen das ganze System." | Spitz: "Wir beherrschen die Beschleunigung." |
Wie Du siehst, ist Deine Aussage "
das meiste davon wird für server sein" einfach nur: Unsinn!
Aufgrund der absoluten Anzahl der Commits, die bei AMD eben ca. die dreifache Menge gegenüber Nvidia in den letzten 5 Jahren betragen, kann man schon ein paar Rückschlüsse über das Engagement ziehen. Und die sind anders als der Unsinn, den Du behauptet hast!
longusnickus schrieb:
NEIN KANNST DU NICHT!!!!
zum 1000x die INT8 version bekommt keine updates! sie ist unfertig.
Ja, und?
Wie sagt ein Forist in einem anderen Zusammenhang: "
das muss man in vielen fällen nicht nachbessern."
Spässle! Es ist natürlich scheiße, was AMD da mit INT8 macht, aber die Art und Weise, wie Du darüber herziehst, ist einfach ein paar Level drüber!
longusnickus schrieb:
ich glaube ich habe es hier eher mit AMD fanboys zu tun. eben weil ich keiner marke treu bin kritisiere ich doch das vorgehen von AMD, obwohl ich es selber nutze!
Wie gesagt: von meinen 6 Grafikkarten sind 3 von Nvidia und 3 von AMD. Ich habe schon mehr Sympathie für AMD, weil die Firma auf der nach oben offenen Arschlochskala noch weit von der in dieser Hinsicht wirklich unübertroffenen Firma Nvidia entfernt ist, und deutlich näher am Open-Source-Gedanken ist als Nvidia.
Aber als Fanboy sehe ich mich wahrlich nicht!
longusnickus schrieb:
dieses verhalten werde ich auf jeden fall in meine nächste kaufüberlegung mit einbeziehen! ein AMD fanboy tut das natürlich nicht, aber ich habe auch kein problem damit bei der nächsten GPU zu nvidia, oder sogar intel zu greifen.
Natürlich sollte man bei jeder Kaufentscheidung alle möglichen Parameter mit einbeziehen, und den Markt mit offenen Augen betrachten. Vielleicht hilfst Du mir ja dabei, und beantwortest mir ja doch noch, welche Nvidia-Karte für unter 700€ 16GB RAM mitbringt und die RX 9070 XT im Raytracing nass macht.