Bericht 15 Jahre Radeon: Ein Rückblick auf Grafikkarten von ATi und AMD

Selektives Lesen in Reinform
- bitte was? Erläuterung...


Die Möglichkeit 2 gilt für fehlende DP Performance und ist genau das was Star Citizen macht. Hier ist ein beginnen der Nutzung klar zu verzeichnen bei kommenden Spielen die offene Welten nutzen was ich auch genau so schrieb. Jetzt wurdest du informiert...

Gibt es für die Behauptung auch echte Belege? Weder scheint das Star Citizen zu machen noch kann man irgendwo ein "Beginnen der Nutzung" verzeichnen. Im Gegenteil wär es für mein (begrenztes) Verständnis höchst ineffizient sämtliche Berechnungen in der Form auszuführen wo das auch anderweitig gelöst werden kann.

Gegenteilige Nachweise bleibst Du leider schuldig... und auf die Tatsache, dass Du den -von Dir selbst verlinkten- Forenthread völlig falsch interpretiert und offenbar ungenügend gelesen hast, bist Du nichtmal eingegangen.

Ich war und bin selber eigentlich großer Fan von AMD und deren Grafik-Hardware, aber ist die Verzweiflung inzwischen wirklich so groß dass man vermeintliche "Vorteile" derer Architekturen dermaßen an den Haaren herbeiziehen muss? :freak:
Und um nichts Anderes geht es Dir hier regelmäßig, Daedal... das erkennt jeder der Deine Post-Historie näher ansieht.
 
Zuletzt bearbeitet:
Also wenn ich von Chris Roberts höre, dass DP Precision derzeit eingebaut wird in einen Spielecode der noch nicht veröffentlicht ist, dann kann ich dem zunächst einmal eine vertrauenswürdige Basis entnehmen. Auch andere Entwickler FORDERN diese Precision und sie wird ihnen gegeben mit Mantle, Vulkan und DX 12.

Also welche Quelle brauch ich dann noch um zu meiner Meinung zu gelangen, dass jemand der behauptet DP sei für Games irrelevant auf der GPU und nicht nötig einfach falsch informiert sei?

Ich habe hier weder veröffentlichte Spiele genannt die das Nutzen noch habe ich gesagt dass jeder diese Informationen schon kennen muss.

Soll ich jetzt DX12 Spiele auflisten die es nutzen? Ich wüsste auch nicht warum es hierbei relevant ist, dass AMD dies schon lange bietet während Nvidia die Zeit mit Pascal als gekommen sieht. Wo siehst du hier irgendeinen Hersteller von GPU als relevant für diese Diskussion?

Auch Tesselation hat AMD schon Generationen zuvor geboten und DX hat es nicht integriert. Genutzt hat es AMD auch nicht diese zusätzlichen Transistoren zu verbauen...doch so blauäugig zu sein und zu behaupten das sei kein Problem für die Titan weil ja noch keine DX12 Spiele da sind kann ja keiner sein.

Auch habe ich nicht behauptet DP würde mehr Performance bringen bei Spielen. Das ist auch nicht das Einsazzgebiet von DP. Doch fehlende Hardwareeinheiten können durchaus zu einem Nadelöhr werden...bekannt ist auch das nicht. Aber was nicht da ist kann auch nicht benutzt werden. Ob sich dies in realen Workloads auswirken wird, werden Tests zeigen. Jeder entscheidet selber ob er vorher kauft oder darauf wartet bis er Gewissheit hat.
 
Zuletzt bearbeitet:
Ich denke einfach, Du bist was DP Berechnungen auf GPUs in Spiele-PCs betrifft auch für die Zukunft eher auf dem Holzweg.
Auch Chris Roberts hat es ja angeblich -laut Deiner "Quelle"- ausdrücklich NICHT auf GPU Aufgaben bezogen...

Aber um den Bogen zum Thema vielleicht mal wieder zu schlagen:

AMD war definitiv technisch schon immer engagiert. Weil Du gerade aber das Thema Tesselation ansprichst...
ich weiß nicht ob sie das schon so früh verbaut hatten als es noch kaum ein anderer hatte.
Was ich aber weiß, ist dass die Tesselationsleistung der Karten dann wo sie tatsächlich gebraucht wurde eher unterdurchschnittlich und (v.a. gegenüber der Konkurrenz NVidia) nicht konkurrenzfähig war. Ich hatte noch eine HD6970 und dort waren die Einbrüche bei Tesselation extrem spürbar. Bei den 5000er Serie ja angeblich sogar noch schlimmer.
Erst mit der 7000er Reihe hat sich das dann etwas gewandelt.

Ideen und Ansätze hatte AMD also über Jahre hinweg immer gute... nur wie sagt man leider so schön?
"Gut gemeint" ist das Gegenteil von "gut gemacht"

Also Pionierbewusstsein in allen Ehren, ich muss Features aber dann bringen und unterstützen wenn sie gebraucht werden und kann auch nicht immer nur am Markt oder dem Bedarf vorbeientwickeln.
 
Der Tessellator bei der HD5000 war tatsächlich eine Lachnummer. Es gab nur einen. Nvidia hatte das deutlich besser hingekriegt beim Schwenk auf DX11.

Bei der HD6000 wurden neben der VLIW4-Architektur auch die Hardware-Tessellator verdoppelt.

Bei Hawaii & Tonga (bei anderen GCN-Chips weiß ich es gerade nicht) ist man inzwischen bei 4 Tessellatoren angekommen... seitdem meckert auch keiner mehr für deren Performance.
 
Der Tesselator der HD5000 war aber schon die vierte Generation. Das hies zuvor TruForm.
Auch ACE hat bisher keine Software benötigt. Das kommt mit DX12.
Ebenso hat bisher kein Entwickler von gemeinsamen Speicherbereichen profitiert die mit DX12/Vulkan kommen.
Wenn CPU und GPU preemptive Context Switching bieten wollen und auch lediglich Pointerübergaben für Zerocopy Situationen nutzen wollen, dann kommt man nicht drum herum beide in der selben Präzision rechnen zu lassen. AMD hat nicht umsonst wieder FP16 Hardwareeinheiten verbaut, damit die Singleprecision besser ausgelastet wird. Ebenso sind DP Einheiten erforderlich wenn man im selben Speicherbereich mit Pointerübergabe arbeiten will.

Das muss man natürlich alles nicht in Hardware bieten, da ja FP16 und FP64 mit der normalen Hardware simuliert werden kann, wie es ja Maxwell macht. Doch wird das alles Performance kosten - die Frage ist nur wann? Kommt ein Spiele-Kracher der solche Technik nutzt vor oder nach Pascal raus? Aus Nvidias Sicht ist dieses Gambit mit den fehlenden DP Einheiten bei Titan durchaus nachvollziehbar und ich schätze auch, dass es wohl aufgehen wird. Ich erwarte keine nennenswerten AAA Titel vor Ende 2016 mit DX12. Dann kräht kein Hahn mehr nach DP Einheiten in der Titan X, ausser natürlich die glücklichen Käufer die sie vielleicht gerade FÜR DX12 gekauft haben. Nvidia wird sich freuen Ihnen eine auf Pascal basierende nagelneue GPU anbieten zu können inkl. DP für die ganz neuen Spiele die gerade erscheinen. Wahrscheinlich mit 6x mal so vielen DP Einheiten als je ein Spiel brauchen wird, aber jeden Unigine Benchmark in den Boden stampfen.

Edit:Man sollte dabei nur nicht vergessen wo Nvidias Effizienz landet wenn sie Hardware integriert die AMD zuvor schon hatte: Siehe Fermi und DX11.
 
Zuletzt bearbeitet: (Typo)
Daedal schrieb:
Auch ACE hat bisher keine Software benötigt. Das kommt mit DX12.

Da bin ich mir weiterhin etwas unschlüssig, was ich von der ACE-Geschichte halten soll. So wie ich es verstanden habe, sind die ACEs nicht von außen (über die API) zugänglich, sondern eine Art internes Load-Balancing auf der Grafikkarte. Deshalb sind diese auch im Blockschaltbild der GCN-basiderten Grafikkarten in der Nähe des Frontends zu finden und nicht Teil der ComputeUnits. Die ACEs werden jedoch offensichtlich erst dann aktiv, wenn die Grafikkarte über Queues befüttert wird, wie es in Zukunft mit DX12 / Vulkan der Fall sein wird.

Andererseits bedeutet das aber auch, dass diese Einheiten bereits bei Mantle aktiv waren, denn diese API verwendet ebenfalls den Queue-basierten Ansatz, um Daten/Befehle auf die Grafikkarte zu übertragen. Demnach sollten Games, die mit Mantle realisiert worden sind, nicht nur im CPU-Limit besser aufgestellt sein (Stichwort: DrawCall-Performance), sondern auch im GPU-Limit (Sichtwort: Asynchronous Shader / Load-Balancing per ACE-Einheiten).

Wie seht Ihr das?
 
Da bin ich mir weiterhin etwas unschlüssig, was ich von der ACE-Geschichte halten soll. So wie ich es verstanden habe, sind die ACEs nicht von außen (über die API) zugänglich, sondern eine Art internes Load-Balancing auf der Grafikkarte.

Ich weiß nur wie es bei NVIDIA abläuft:
CUDA streams are automatically mapped onto Hyper-Q's multiple hardware work queues via connections to the hardware allocated by the CUDA Driver. While it is possible to allocate more CUDA streams than there are connections, this simply implies that the driver will alias several streams onto some or all of those connections. The CUDA_DEVICE_MAX_CONNECTIONS environment variable can be used to specify the preferred number of connections to be allocated to the driver. The default is 8 (or fewer if CUDA Multi-Process Service is in use); the architectural maximum for GK110 is 32.
Bei AMD wird es *wahrscheinlich* analog funktionieren.


Die ACEs werden jedoch offensichtlich erst dann aktiv, wenn die Grafikkarte über Queues befüttert wird, wie es in Zukunft mit DX12 / Vulkan der Fall sein wird.

DirectX 11 und OpenGL besitzen eine einzige implizite Queue per Kontext. In dieser API-Queue kann der Graphikkartentreiber beliebig optimieren, sofern es die Datenabhängigkeiten erlauben. Mich würde es überraschen, wenn AMD dies bislang noch nicht ausgenutzt hätte und die einzige API-Queue dementsprechend noch nicht auf seine GPU-Scheduler verteilt hätte.
 
Zu Deiner zitierten Nvidia-Beschreibung: wie erfolgt dann in diesem Kontext die Priorisierung der Streams? Kann man das auch per API beeinflussen? Ist die Prio dann an der Queue (--> grob-granular) oder an den Paketen in einer Queue (--> fein-granular)?
 
Die ganzen Artikel kratzen (aus meiner Sicht) leider alle nur an der Oberfläche. Ich würde gerne mal kurze Code-Snippets oder Auszüge aus der API sehen... das ist jedoch (leider) nicht die Zielgruppe der entsprechenden Websites.
 
Zu Deiner zitierten Nvidia-Beschreibung: wie erfolgt dann in diesem Kontext die Priorisierung der Streams? Kann man das auch per API beeinflussen? Ist die Prio dann an der Queue (--> grob-granular) oder an den Paketen in einer Queue (--> fein-granular)?
Es gibt keine Priorisierung in CUDA.
 
Der Artikel hat besonders in den Anfängen viele Fehler.

Die Radeon 9000 basiert nicht auf dem R200 (4pipe, 4ps x2 tmu, 2vs) sondern dem RV250 und dem RV280 (2pipe, 4ps x2 TMU, 1vs), der eine ganz andere Konfiguration hatte und auch ein anderes Featureset (z.B. AGP8x ab RV280).

Die Radeon 9000 und 9000pro kam weit vor der 9700 heraus. Die Bezeichnung 9000er serie für R300 basierte karten ist also irreführend.

Der R200 hatte übrigens die (später überlegene) Multisamplingengine der Radeon 9700 bereits integriert, durch einen chipfehler war sie aber defekt und musste durch supersampling in software ersetzt werden, bei dem rv250 hat man sie gleich weggelassen da in dem Marktsegment FSAA nicht so wichtig war.

Die Radeon 7500 ist nicht etwa der Vorgänger der 8500 sondern wurde parallel gelauncht. Der Vorgänger war die retrospektiv Radeon 7200 genannte Ur-radeon.
 
Flowerpower77 schrieb:
Früher war ATI noch wettbewerbsfähig. Ich hatte eine 9800 Pro. Truform war Sahne. Heute ist AMD/ATI leider nur am Ende. Schaurig was aus beiden Sparten CPU/GPU geworden ist. Missmanagement und Entlassungen trugen dazu bei. Auch der Verkauf der Fabs (Real Men have Fabs) trugen dazu bei.

Flowerpower77 schrieb:
Ist doch wahr. Die Gestalten die bei AMD das Sagen haben sind lächerlich. Die Su tut mir einfach nur leid. AMD, ich bin gespannt wie lange es die noch gibt.

Flowerpower77 schrieb:
Ich flame nicht ich sage die Wahrheit. Ich habe selbst AMD gekauft. Aber leider wurde der Laden mit dem Read endgültig zu Grabe getragen.

Flowerpower77 schrieb:
Wieso? Weil ich keinen Unsinn poste? Ich habe recht. Ich verpacke die Kritik aber nicht in Blumen. Leider geht es mit AMD abwärts. Ich hatte wie gesagt selbst genug AMD/ATI Produkte.

Zum Beispiel die XP Prozessoren. Das waren noch Zeiten. Oder wie gesagt 9800 Pro. Innovation und zuverlässig.

Flowerpower77 schrieb:
ATI war bevor AMD die aufkaufte auf Augenhöhe mit nVidia. Da war der Marktanteil 50/50. Hab hier noch alte Gamestar Zeitschriften rumliegen. Heute sieht das ganz anders aus.

Da gabs sogar noch 3DFX. Das waren noch Zeiten!

Die 9800 Pro war ne geile Karte.

Flowerpower77 schrieb:
Ich spreche nur die Probleme an. Vielleicht zu hart aber es ist so. ATI stand früher schonmal besser da. Nicht mehr, nicht weniger. Die Leute die denken AMD wird schon nVidia und Intel schlagen stören mich. Ich glaube nicht dran.

Und ich hab da Ahnung. Es müsste ein Wunder geschehen. Und der PC Absatz ist rückläufig. Gerade das wird AMD treffen.

Flowerpower77 schrieb:
Ich wünsche AMD viel Erfolg! Ich glaube nicht dran. Und sollten die den Top Dog (Einzelkarte) mit 4 Gigabyte ausliefern ist das ein weiterer fail! Das ist schlechtes Management. Und das ist die Wahrheit!

Flowerpower77 schrieb:
6 Gigabyte sind höher als 4. Ich sage nur das 4 Gigabyte einfach zuwenig sind! Shadows of Mordor Watch Dogs und GTA 5 sprechen da eine Sprache. Es ist nicht schwer zu verstehen. Wer käuft sich eine High End Karte die ein Vram Krüppel ist? Ich sage nur Getöse um die 970.

Flowerpower77 schrieb:
AMD muss jetzt den Konter bringen und das mit 8 Gigabyte. Da käme nVidia ins schwitzen. Es wäre gut für uns Kunden. Ich bin kein nVidia Fanatiker. Nur mal so.

Flowerpower77 schrieb:
Es ist so. Witcher 3 wird das Nächste Game sein wo 4 Gigabyte zuwenig sind. GTA5 ausgefahren sieht einfach nur geiler aus.

Flowerpower77 schrieb:
Früher war ATI noch wettbewerbsfähig. Ich hatte eine 9800 Pro. Truform war Sahne. Heute ist AMD/ATI leider nur am Ende. Schaurig was aus beiden Sparten CPU/GPU geworden ist. Missmanagement und Entlassungen trugen dazu bei. Auch der Verkauf der Fabs (Real Men have Fabs) trugen dazu bei.

Flowerpower77 schrieb:
Ist doch wahr. Die Gestalten die bei AMD das Sagen haben sind lächerlich. Die Su tut mir einfach nur leid. AMD, ich bin gespannt wie lange es die noch gibt.

sry aber da fällt mir echt nur noch Dieter Nuhr zu ein.....


Zum Thema:

Kann mich noch gut erinnern wie es früher war, und es war eigentlich nicht wirklich schwer besser zu sein al andere da die limits halt noch weit weit entfernt lagen.
Heute ist das anders da arbeite amd /nv /intel ständig am limit des machbaren.
War ne coole zeit damals meine erste Graka war damals eine S3 die ich aber dan gegen eine voodoo rush getauscht habe(später gegen voodo 2 sli)


gruss Digger
 
Es bringt wirklich wenig einen User auf die Ignoreliste zu setzen, wenn ein anderer den ganzen Schrott dann als Zitatsammlung in den Thread erneut einbringt. :(
 
Alter, mußt du jetzt die Best-Ofs des Hippies auch noch sammlen und nochmals posten, damit wir uns abermals daran...erfreuen können?!... :freaky:
Mit 77 meint der wohl nicht sein eigenes Geburtsjahr, sondern das seiner Eltern... Ein dummes kid eben, don´t feed...
 
Ich habe lange Zeit über eine Radeon 7500 und dann 9000 Pro All-in-Wonder Fernsehen geguckt und als Ein-/Ausgang für Videorekorder genutzt. Die Karten waren sehr beliebt und wurden in dem Artikel vergessen.
Damit hat sich ATI einen Namen gemacht. Treiberprobleme hatte ich nie, wie sie bei normalen TV-Karten eher die Regel waren.
 
Zurück
Oben