Notiz AMD Radeon: Mehr Personal für optimierte Treiber und Spiele

Und das ist ausgemachter Unsinn. Aber das hatten wir schon so oft in verschiedensten Threads. AMDs Treiber sind genauso gut oder schlecht wie die nVidia Treiber.
Diese ganzen Aussagen immer das Treiber XY schlecht ist und es ja beim Konkurrenten besser ist, zeugen nur von einem. Der eigenen nicht vorhandenen Fähigkeit mit dem Treiber um zu gehen.
 
@Duskstalker: Die Aussage Polaris ist konkurrenzfähig gegen eine GTX 1060 stimmt, das sehe ich auch so. Einem Freund habe ich direkt nach RX580 und Ryzen Release einen PC mit R5 1600, RX 580 Red Devil (280€) und FreeSync Monitor gekauft und der ist im großen und ganzen zufrieden - auch wenn es doch ordentliche Treiberprobleme gegeben hat. So lief Overwatch auf niedrigen Settings sehr bescheiden mit FrameDrops auf teilweise unter 100FPS (FHD, alles Low), weil die Leistung nicht auf die Straße kam. Im eSport spielt man auf Low mit konstanten FPS und FrameLimit, sodass die FPS gleichmäßig bleiben und die GPU im Durchschnitt nur 50-75% Auslastung hat, damit in absoluten Peaks noch das FPS-Limit gehalten werden kann. Obendrein ist jeder zusätzliche Grafikeffekt nur eine Ablenkung. Die RX 580 hat aber bei niedriger Auslastung durch das FPS Limit und niedrige Einstellung permanent heruntergetaktet und dann bei Leistungspeaks nicht das FPS-Limit gehalten, sondern ist von 140FPS auf 60-100FPS gefallen. Eine Geforce hat dieses Problem nicht, da kann man das runtertakten während Games auch bei niedrigerer Auslastung mit 2 Klicks im Treiber abstellen (Power management Mode: Prefer maximum performance), bei AMD musste ich ewig rumfummeln und letztlich eine Bastelsoftware ClockBlocker installieren. Auch die "prerendered" Frames lassen sich bei AMD nicht im Treiber einstellen, man hat im eSport unnötige zusätzliche Latenz, die man nicht abstellen kann. Und so sind meine Erfahrungen leider durch die Bank mit AMD, man hat Probleme, die man von Intel / Nvidia einfach nicht kennt, weil softwareseitig sehr große Unterschiede da sind. So wie du es gesagt hast, die GeForce Karten werden von Nvidia optimiert, während AMD gefühlt "out of the box" läuft.

Aber auch wenn man dafür die bessere Rohleistung gegenrechnet und mein Beispiel als Exot abstempelt, Nvidia könnte auch eine 1070 für 300€ verkaufen, wenn sie nur möchten. Polaris ist nur deshalb theoretisch gegen eine GTX 1060 konkurrenzfähig, weil Nvidia keinen Grund sieht, etwas am Preis zu drehen, Polaris ist ja nicht erhältlich. Bei gleichem Preis würde ich eine RX 580-8G definitiv der GTX 1060-6G vorziehen, vor allem die Red Devil mit dem Silent Mode war wirklich sehr gut gelungen.

Das AMD jetzt aber mit Vega nackig dasteht, dafür kann nur AMD allein was dafür, weil sie jahrelang versagt haben. Vega ist ein Desaster, selbst in Konkurrenz zu Polaris.
- Die mehr als doppelt so groß
- Experimenteller HBM2 Speicher (exorbitant teuer, schlecht lieferbar)
- 112 Watt höhere Leistungsaufnahme
- doppelte UVP

Das alles Resultiert laut Computerbase in 51% (FHD) bzw. 56% (WQHD) mehr Leistung in Spielen. Auch ganz ohne Miner würde AMD hier nackig dastehen.

AMD hat ein rießiges Softwareproblem, die Leistung kommt de facto nicht auf die Straße und man hat bisher versucht die gesamte Verantwortung dafür auf die Spieleentwickler zu schieben, indem man mit DX12, Mantle und Vulkan auf hardwarenahe Schnittstellen setzt. In der Entwicklung ist aber eine hardwarenahe Programmierung überhaupt nicht gewünscht, dafür gibt es doch die "universelle Gaming Schnittstelle" DirectX, damit ich Game/Engine auf dessen Basis programmiere und es mit jeder DirectX fähigen Grafikkarten lauffähig ist. Nvidia hat den richtigen Weg eingeschlagen und den DirectX 11 Scheduler teilweise in die Treibersoftware verlegt und optimiert, so wie sich das für eine "universelle Schnittstelle" auch gehört. Verbesserungen müssen vom Grafikkartenhersteller transparent für DirectX eingepflegt werden und nicht dem Entwickler selbst mit irgendwelchen hardwarenahen Anpassungen versehen werden. Wir reden hier ja nicht von einer handvoll Parameter in einer Ini-Datei konfigurieren, sondern von hoch komplexen Anpassungen an tausenden von Stellen im Code, ein normaler Game Designer kann das überhaupt nicht, da braucht man seltene Spezialisten. AMD hat sowohl seitens Softwareoptimierung (hardwarenahe Schnittstellen), als auch seitens Hardware (HBM2) eine Sackgasse betreten.

Miner hin oder her, das Vega zu Ampere nackig dasteht, hat rein gar nichts mit Minern zu tun, sondern mit jahrelangen Fehlentscheidungen. Rein Gaming-technisch dürfte eine RX Vega 64 maximal für 500€ verkauft werden und auch zu diesem Preis wäre die Vega eher ein Produkt für Liebhaber, weil bei selber Leistung der Verbrauch um 70% höher ist (vgl. GTX 1080).

Und nochmal zum Thema, softwareseitige Anpassungen sind zweifelsohne der richtige Weg, aber eine reine Stellenausschreibung hat 0,0000 Aussagekraft, weil es möglich ist, dass schlichtweg Fluktuation ausgeglichen wird und Abgänge neu besetzt werden.
 
Zuletzt bearbeitet:
Nein, mit dem Geforce Treiber hat man dafür ganz andere Probleme. Wie lang haben sie gebraucht um den Fehler zu beheben das man beim Scrollen im Browser Schwarze Balken kriegt, welche erst nach Browser-Neustart wieder weg waren? Ich glaube fast 2 Jahre.

Und das HBM2 eine Sackgasse ist, da wirst du dich noch wundern. Denn auch nVidia will auf HBM2 setzen und bei geringer Verfügbarkeit einfach die UVP Preise weiter erhöhen. Man hört ja schon die ersten Gerüchte das nVidia mit der nächsten Generation (wenn sie denn wirklich dieses Jahr noch kommt) die UVP in jeder Preisklasse um 100€ erhöhen möchte. Damit wären wir bei der 1170 bei 600 € UVP.

Das Vega keine reine Gaming-GPU ist möchte ich natürlich nicht bestreiten. Das ist im Grunde eine Compute-Karte für den eher professionellen Einsatz, auch zu Lasten der Effizienz, aber sie wird ja mittlerweile von den Minern eigentlich restlos aufgekauft.

Die Frage ist eher wann wir Navi sehen, denn dort soll es ja dann auch durch den modularen Aufbau reine Gaming Karten geben, in Verbindung mit dem 7nm Prozess mit Sicherheit schon interessant.

Daher ist es umso verständlicher wenn man seine Software-Teams aufstockt, auch um den Entwicklern unter die Arme zu greifen, denn bis Navi kommt muss der Grundstein auf Software-Seite gelegt sein. Sonst stehen wir auch dort vor dem Problem das wir vielleicht wirklich eine Top-GPU kriegen, die aber auch in einigen Bereichen die Leistung nicht ausfahren kann, weil die Software-Basis nicht funktioniert.

Denn auch wenn ich eine nVidia 1070 momentan im System habe, ich möchte kein Monopol von nVidia im Gaming-Bereich sehen, sonst zahlen wir bald in der Mittelklasse 600-800 € (auch ohne Miner).
 
Zuletzt bearbeitet:
@Stunrise
Öhm....dein eSport Beispiel mit den genannten Anforderungen betrachte ich mal als die Niesche der Niesche und mit der Preis Argumentation läufst du angesichts der gestiegenen Preise bei den Produkten beider Hersteller komplett gegen die Wand.
Auch deine Argumentation zur Vega, wäre es zutreffend gewesen dann wäre die Verfügbarkeit nicht so schlecht und der Preis nicht in den Himmel gestiegen.
 
FreeSync wurde natürlich genutzt, sonst wäre es ja sinnlos - deshalb ja das FPS Limit von 140 ingame (144Hz), bei mehr als 144Hz spürt man eine deutliche Verschlechterung, FreeSync funktioniert selbst ja einwandfrei. Es wurde das gesamte Radeon Crimson (zu dieser Zeit aktuellste) Treiberpaket installiert, welche Option in Radeon Chill kann ich denn setzen, dass er nicht runtertaktet bei niedrigerer Auslastung? Stromsparen ist dort egal, es geht um 100% stabile 140FPS und die hab ich nur mit ClockBlocker bekommen. Diesen Fehler bemängeln hunderte andere eSport Forenuser auch, weshalb ja ein Fan dieses ClockBlocker überhaupt programmiert hat. Chill ist doch fürs Stromsparen gedacht, genau das soll ja verhindert werden im eSport... Aber zeig mir doch die Option, die du meinst, dann kann ich es ausprobieren, ob es die 140FPS damit 100% stabil hält.
 
Zuletzt bearbeitet:
duskstalker schrieb:
bei den derzeitigen marktanteilen von amd und dem zustand des gpu markts eigentlich komplett verschwendetes budget. seit einem jahr kann man keine amd karte mehr kaufen (mining); die nächste gaming gpu kommt 2019 und wenn nvidia in den nächsten monaten ampere launcht fallen die marktanteile von amd auf unter 10% ... anfang vom nvidia monopol.

Schau 'mal hier, laut Jon Peddie Research hat AMD richtig viele GPUs bei den Krypto-Minern abgesetzt im Quartal 4, 2017, während nVidias Zahlen im diskreten GPU Markt angeblich in dem Quartal rückläufig gewesen sein sollen ;).

JPR-GPU-Market-Share-Q4-2017.png

Allerdings sind die Aussichten nach wie vor düster für Gamer und sollen es wohl auch erst einmal bleiben, wenn man den Analysten glaubt:

Gamers can offset those costs by mining when not gaming, but prices will not drop in the near future.
 
Zuletzt bearbeitet:
@Stunrise:

Das klingt für mich eher so, als ob dein Kollege ein anderes Problem mit dem PC hat was noch nicht klar ist, der AMD Treiber ist es sicher nicht.

Ich spiele schließlich Overwatch in WQHD auf meiner RX 480 und so ziemlich alles auf Hoch mit +100 FPS ohne je Drops unter die 100 FPS Marke zu haben.

Mit allem auf Low in WQHD hatte ich auch immer +144 FPS um in der Freesync Range zu bleiben.

Den FPS Limiter in Overwatch würde ich eher meiden, wenn ich maximale FPS haben will.
 
@aivazi: Spiel du ruhig auf hoch, du hast absolut nicht verstanden, in was es bei competitive Overwatch geht. Du hast ja noch nichtmal verstanden, was FreeSync macht, sonst würdest du nicht irgendwas von 144+ FPS schreiben.

Welches Rating hast du denn, 2800? Wir spielen alle auf 4k GM und bei top 1% kann man nicht sinnfreie Nachteile in Kauf nehmen.
 
dr. lele schrieb:
Vulkan ist bei Weitem kein Ersatz für OpenGL. Die Khronos Group hat selber bestätigt, dass beide Varianten parallel zueinander existieren werden. Kleine Entwicklerteams können unmöglich den Mehraufwand stemmen, den Vulkan mit sich bringt ... kann von Nvidia auch halten was man will, aber bezüglich Vulkan/OpenGL verhalten sie sich größtenteils in Ordnung. Hier ein kleiner Eintrag dazu: https://developer.nvidia.com/transitioning-opengl-vulkan. Natürlich ist Vulkan toll, aber nicht jedes Studio kann und muss das bieten um adäquate Performance abzuliefern.

Gewiss ist OpenGL einfacher zu implementieren als Vulkan (wie auch richtigerweise in dem von Dir verlinkten Artikel beschrieben), aber innovativ und zukunftsweisend ist etwas anderes und ein Grund für OpenGL könnte auch das Festhalten an OpenGL einiger Konsortium-Mitglieder sein und damit verbunden die eher träge Umsetzung/Etablierung von Vulkan bei den meisten großen Entwicklern.

Da nVidia im OpenGL Bereich dominiert (auch mehr Ressourcen hinein investiert hat und treibertechnisch AMD überlegen ist und immer noch investiert, ist es doch klar, dass sie diese Dominanz - die letztendlich auf Kosten der Weiterentwicklung von Vulkan geht - nicht verlieren wollen) sieht man dort wohl keinen Handlungsbedarf und in Vulkan macht sich ja bisher AMD besser als nVidia.

Meines Erachtens ist es überfällig, dass die alten High Level API Zöpfe (OpenGL und DX11) einmal abgeschnitten werden - zumindest bei den finanzstarken AAA Studios/Publishern - und man mehr in DX12 und vor allem in Vulkan Erlernung, Implementierung und Optimierung investiert.

nVidia hätte ja auch genügend Mittel um die Vulkan Anwendung und Verbreitung bei kleineren, nicht so finanzstarken Entwicklern zu fördern, anstatt immer noch in die altbackerne/angestaubte OpenGL API zu investieren, aber damit würde man sich ja ins eigene Fleisch schneiden und es rentiert sich noch nicht bzw. man ist dazu bisher nicht gezwungen auf Low Level APIs umzusteigen ... die Zahlen an neuen OpenGL Titeln dürften zudem eher verschwindend gering sein (wie viele kleine Entwicklerteams nutzen denn noch OpenGL aktuell?) und die wichtigen Entwickler - allen voran Bethesda - sind schon lange auf (den leistungsfähigeren Nachfolger) Vulkan umgestiegen ;).
 
Zuletzt bearbeitet:
Stunrise schrieb:
@aivazi: Spiel du ruhig auf hoch, du hast absolut nicht verstanden, in was es bei competitive Overwatch geht. Du hast ja noch nichtmal verstanden, was FreeSync macht, sonst würdest du nicht irgendwas von 144+ FPS schreiben.

Nicht dein ernst oder ??

Ich hab selber einen Freesync Monitor mit einer Range von 40-144 Hz gehabt und weiß sehr wohl worum es sich hierbei handelt.

Ebenso, stellt man bei Freesync den Framelimiter auf die maximal Frequenz (-2 Hz) für den minimalen Input Lag ein.


Der Treiber stellt bei AMD mit FRTC auch eine Möglichkeit dar die FPS auf mit minimalem Inputlag zu Begrenzen.




Das mit dem FPS soll nur zeigen, dass dein Kollege ein Problem mit seinem System hat und nicht mit AMD Allgemein in Verbindung gebracht werden kann.

Meine Karte lief damals nicht einmal voll ausgelastet, als ich unter WQHD für Freesync die 144 FPS erreichen wollte, eher hat meine CPU den Bottleneck dargestellt und die GPU nicht füttern können.....
 
Sehe es ähnlich wie duskstalker. Polaris war das was Amd gebraucht hat, eine Performante Karte im TDP Bereich unter 200W.
Zur besten Polariszeit vor dem Minigboom hat sich die 1060 zwar trotz allem besser verkauft als die 480 (etwa 6:1), momentan sind wir aber bei desaströsen 60:1 (laut Steam, also nicht wirklich genau)
Das ist ein Marktanteil von noch etwa 2% im Gamingmarkt. Wenn sich da nicht bald was ändert wirds schwer für Amd
 
Es gibt allerdings keine sinnfreie Nachteile.

Wenn man das "runtertakten" unterbinden will, regelt man die FPS über den Treiber für Overwatch. Overwatchs eigener Regler ist mehr Schein als Sein, diese Problematik wie du sie beschreibst hat nämlich auch ein Freund mit seiner 1060. Die Karte takt in manchen Szenarien runter und taktet dann nicht schnell genug wieder hoch -> FPS Drop.

Und Leute, hört doch auf immer so viel auf die Steam Surveys zu geben. Die sind unbrauchbar, man muss dazu eingeladen werden und muss dies auch erst bestätigen, dass überhaupt irgendwelche Daten erhoben werden. In über 10 Jahren Steam-Nutzung wurde ich selbst nur einmal eingeladen in den Survey.

Zudem sind dort auch tonnenweise Notebooks vertreten, die eigentlich weniger von Interesse sind.
 
Zuletzt bearbeitet:
Chismon schrieb:
Was will man mit den Zahlen anfangen? Hier geht es rein um shipped units. Für AMD könnte hier bereits Raven Ridge hineinspielen, Nvidia könnte schon die Auslieferungen redzuieren um Lagerbestände von Pascal vor dem Ampere Launch zu räumen. Obendrein hat Nvidia gegenüber AMD im Year to Year Vergleich ausgebaut.

Interessieret mich der Marktanteil am Gaming Markt muss man auf die Steam Survey zurückgreifen. Laut https://www.statista.com/statistics...aphics-card-shipments-since-3rd-quarter-2010/ hatte AMD in Q3 noch 27% Markanteil. Das war wohl noch vor dem PUBG "Debakel". Es ist nicht unrealistisch dass der Marktanteil nun Richtung 20% geht. Pessimistisch sogar unter 20%.

Demnach ist zwar die Steam Survey etwas pro Nvidia, aber bezogen auf den Gaming Markt wäre es naiv zu glauben AMD steht gut da, nur weil man in Summe viele GPUs absetzen kann.
Verglichen mit den Zahlen hier
4q09-3q17_gpu_market_share.png
könnte AMD damit sogar einen Negativrekord aufstellen.

Hinzu kommt die Aussicht, dass AMD mit Pech heuer noch nicht mal eine neue Consumergrafikkarte rausbringt.

Als Gamer finde ich an AMDs aktueller Grafiksparte nur sehr wenig optimistisch.

PS: Wenn ich noch etwas mit den Zahlen von JPR jongliere. 776mio$ wurden 2017 mit Minern umgesetzt. AMD hat davon größtenteils profitiert. Aus der Luft gegriffen sagen wir mal, AMD macht mit den Minern 500mio$, Nvidia 270mio$. AMDs Computing und Graphics Sparte machte 2017 958mio$ Umsatz. Nvidias Gaming Sparte machte 2017 1739mio$. Verhältnismäßig wurde ich nun glatt behaupten, die Miner sind für AMD bedeutend wichtiger als für Nvidia.
 
Stunrise schrieb:
Es wurde das gesamte Radeon Crimson (zu dieser Zeit aktuellste) Treiberpaket installiert, welche Option in Radeon Chill kann ich denn setzen, dass er nicht runtertaktet bei niedrigerer Auslastung?

Für deinen Einsatzzweck benötigst du kein Chill. Nur FRTC und in Wattman die Karte in den höchsten DPM State locken (Linksklick auf das Label ermöglicht es, einen DPM State als Minimum zu setzen). Das kannst du direkt im Wattman Profil für Overwatch machen und muss nicht global sein. Falls du dennoch Chill anstatt/mit FRTC verwenden willst, dann setze min. und max. FPS auf denselben Wert.

Wattman.png
 
Zuletzt bearbeitet: (Bild hinzugefügt)
Rambo5018 schrieb:
Ich muss sagen dass ich die ganze Situation wie duskstalker sehe, der Gamingmarkt wird sich in Richtung Monopol NV entwickeln und es wird dauern bzw. ist es fraglich ob sich das wieder ändert. Jeder Entwickler wird sich aktuell schon und in Zukunft sowieso fragen, ob es sich lohnt Zeit und damit Geld in die Optimierung auf AMD-Karten zu stecken, ...

Wird nicht passieren, so lange AMD Hardware in den Konsolen steckt.

DAS ist nun mal DER Gaming Markt. Und Spiele werden ja meist eh Plattformübergreifend entwickelt.
Also müssen die Entwickler den zweigleisigen Weg gehen.

Das AMD jetzt mal an Personal aufstocken kann, zeigt das wieder Geld in die Kassen gespült wird.
Auch nV hatte in der Vergangenheit schon grenzwertige GPU Generationen, ... wer sagt das Ampere wieder ein Top statt ein Flop wird?

Nur schade, das AMD dies scheinbar nicht ausnutzen kann.

Bis Navi wird es noch eine Weile dauern. Und VEGA so hoch zu jubeln wird kaum möglich sein.
 
@Inxession sehe ich auch so. Ich halte es sogar für sehr wahrscheinlich, dass Ampere keinen so großen Leistungssprung (Glaskugel sagt 10-15% max.) bringen wird, da Nvidia nicht unter Druck gesetzt ist, großartig was zu verbessern. Als gewinnorientierter Konzern machen die nur das mindeste, um das meiste Geld mit dem geringsten Aufwand zu bekommen.
 
kiffmet schrieb:
da Nvidia nicht unter Druck gesetzt ist, großartig was zu verbessern. Als gewinnorientierter Konzern machen die nur das mindeste, um das meiste Geld mit dem geringsten Aufwand zu bekommen.

Nvidia ist zur Zeit nicht mit Intel zu vergleichen. Nvidia kann durch seinen Technologischen Vorsprung Margen fahren, die nur möglich sind, WEIL sie so weit vorne sind. Nvidia will nicht wenig Aufwand, sie wollen mit allen Mitteln die beste Marge!

Klar, Nvidia wird weit mehr strategisch vorgehen als bisher, aber nicht lethargisch.
 
Ich werde mir mal trotzdem keine Hoffnung machen auf VSR Unterstützung bei 21:9.
Ich habe zwar keine Treiberprobleme mit AMD, aber es fehlen einfach Features bzw einige Features sind nur halbherzig eingebaut worden.
Nvidia bringt zumindest immer wieder Features, die einen Mehrwert darstellen. AMD zieht irgendwann nach, aber meist ist es dann schlechter umgesetzt.
Aktuell finde ich das Freestyle von Nvidia sehr interessant....wann und ob AMD da nachzieht und wie der Funktionsumfang dann ausfällt...
Wenn der Vega Refresh nichts wird und sich Navi ebenso lange hinzieht wie Vega, muss ich wohl, trotz Freesync Monitor, auf Nvidia wechseln, wenn sich die Grafikkartenpreise wieder einpendeln.
 
Zurück
Oben