News Nvidia Tesla P100: GP100 als großer Pascal soll „All In“ für HPC-Markt gehen

:lol: Falschaussage?
Es steht eindeutig
"erneute Rückfrage bei Nvidia Deutschland ergab. Die GTX-9-Serie unterstütze zwar Async Compute, das sei aber "derzeit nicht im Treiber implementiert", so Nvidia gegenüber PC Games Hardware."
Daran man nichts falsch interpretieren, es wurde extra nochmal nachgefragt daher -> "erneute Rückfrage".

Dein Zitat ist die Meinung von dem CB Autor, wie man später im Absatz lesen kann äußerte sich nvidia auf Anfrage nicht.
PCGH Hardware hat ~ 3 Wochen nach dem CB Test auf erneute Rückfrage die oben zitierte Antwort von nvidia erhalten.
Die Antwort ist eindeutig. Stand 08.03.2016
Nvidia sagt das die 900er Serie Async Compute unterstützt, aber es derzeit nicht im Treiber implementiert wäre.

Wäre dies eine Falschaussage, wäre es falsch interpretiert so hätte nvidia ggü pcgh schon längst eine Korrektur eingefordert.
 
Da du offenbar faktenresistent bist und auf Argumente überhaupt nicht eingehst: EOD.
 
Es ist unglaublich. Deine sogenannten Fakten vom 24.02 auf CB wurden am 08.03. durch nvidias Antwort an PCGH widerlegt.

Dann versuchst du das ganze zu relativieren indem du behauptest es sei eine Falschaussage... "falsch interpretiert"... und PCGH unterstellst du nvidia Deutschland nicht verstanden zu haben oder gar falsche Informationen zu verbreiten.

Da muss man nicht lange überlegen wer hier faktenresistent ist. Du lebst wohl eher nach Pippi Langstrumpfs Motto.
 
Pssst mein lieber Conceptions, kisser hat doch auch "Insiderwissen", dass AMD Mantle insgeheim von MS DX12 geklaut hat. Selbst zu den Zeiten, wo DX12 noch nicht mal angekündigt (geschweige denn in Arbeit) war haben sie ganz hinterhältigen Wissensdiebstahl begangen, schliesslich muss in seinem Weltbild AMD ja immer Fehler machen oder "das Böse" sein ;)

Auf meine Nachfrage von einer kohärenten Quellengrundlage für diese Aussage, verbunden mit einer Drohung diesen Schmarn sonst an die Moderation zu melden kam nichts mehr (außer der zweite Hinweis auf sein Insiderwissen, dass er durch nichts stützen kann). Wenn man mit Argumenten nicht mehr weiter weiß, dann beleidigt man sein Gegenüber als stur und schreibt EOD um einer weiteren Blamage aus dem Weg zu gehen (oder um sein Weltbild nicht abändern zu müssen).

Bereits vor mehr als 6 Monaten (https://www.computerbase.de/2015-09/directx-12-nvidia-treiber-soll-async-compute-nachreichen/)
hat nVidia angekündigt, dass sie einen Treiber bringen, der Async-Shader-Unterstützung bringt. Da dies immer noch nicht geschehen ist, wird für mich deutlich, dass Maxwell einfach nicht die Hardware-Voraussetzungen mit sich bringt.

Dennoch wird von manchen das Erscheinen dieses Treibers immer noch angepriesen, selbst nachdem Experten wie Nai gemeint haben, dass eine Unterstützung nicht sonderlich aufwendig zu implementieren wäre.

Im selben Atemzug wird aber immer noch der häufig erscheinende nVidia-Treiber über alle Stränge gelobt, da erkennt man, wie manche Leute doch auf dem "grünen Auge blind sind" ;)
 
Zuletzt bearbeitet:
kisser schrieb:
Eine Falschaussage oder fehlerhafte Interpretation der Aussage.
Sehr unwahrscheinlich. Dein Beispiel belegt doch wunderbar, dass das offenbar nicht parallel geht. Wieso sollte sonst nVidia mit Async Compute langsamer werden? ;-)
Grafikkarten von Nvidia werden durch Async Compute dagegen durchweg langsamer.
 
@kisser
Um es mal in deinen Worten auszudrücken

Eine Falschaussage oder fehlerhafte Interpretation der Aussage.
Die Aussage von nvidia Deutschland vom 08.03.2016 belegt eindeutig, dass AC nicht implementiert ist.

Da ich jetzt bereits das Dritte mal versuche dir das zu erklären scheint lesen nicht deine Stärke zu sein.
 
@Roi-Danton

Performance ist doch hier gar nicht das Thema.

Thema ist, ob Async vom Treiber unterstützt wird oder nicht und da ist die Antwort definitiv JA, der Treiber kann mit Async Compute Shadern umgehen. Das muss er ja auch können, weil es integraler Bestandteil von DX12 ist.
 
Aber Quagmire hat doch recht.
Alles ander ist Spekulatius. Sollange die das weder bestätigt haben noch das andere sich den Chip mal geschnappt habe und ihn sich angeschaut haben ist noch nix bewiesen.
 
kisser schrieb:

Und genau hier liegt der Hase im Pfeffer: AMDs Hardware beherrscht Asynchronous Shader rein praktisch unter DirectX 12, nVidias Hardware nur theoretisch – ohne die Möglichkeit der schnellen Aufgabenwechsel für die verschiedenen Datenströme verliert man eher an Performance als daß man welche hinzugewinnen würde. Aus diesem Grunde haben die Programmierer von Ashes of the Singularity in ihrem Spiel auch das Asynchronous-Shader-Feature für nVidia-Grafikkarten (auf Anraten nVidias selber) gleich lieber komplett deaktiviert – was letztendlich die Erklärung für die zu sehende Benchmark-Situation ergibt, wo unter DirectX 12 nVidia nur mager und AMD hingegen herausragend hinzugewinnt. Wie sich inzwischen zudem herauskristallisiert, erreicht nVidia die grundsätzliche Eigung seiner Hardware zu Asynchronous Shader durch eine platte Emulation unter Hinzuziehung der CPU – was dann auch erklärt, warum damit (bei nVidia) keine Performance gewonnen wird. Da der ganze Zweck des Features ausschließlich in einem Performancegewinn besteht und es hierbei nicht um irgendeinen Bildqualitätseffekt geht, reicht diese rein Checklisten-technisch vorhandene Unterstützung aber nicht aus – Asynchronous Shader sind faktisch fehlend bei nVidia.
http://m.3dcenter.org/artikel/die-fehlenden-asynchronous-shader-bei-nvidia
Stand September 2015

Stand 08.03.2016
Nvidia sagt das Asynchronous Shader nicht im Treiber implementiert ist.
Was ist daran nicht zu verstehen?

Kann man dir auch ein grünes Auto auch als rotes Auto verkaufen, weil auf der Rechnung/Checkliste "Farbe: rot" drauf steht und erzählst allen das du ein rotes Auto hast? :rolleyes:
 
Mittlerweile ist ja doch etwas mehr bekannt. Es sieht so aus, als wäre der GP100 speziell auf Deep Learning Anwendungen abgestimmt. Ein Produkt für den wissenschaftlichen HPC Bereich eben. Das wird jetzt vermutlich viele Spieler enttäuschen, aber ich denke Pascal wird "nur" GDDR5X erhalten. (Vorerst) Kein HBM2.
 
Mr.Seymour Buds schrieb:
... aber ich denke Pascal wird "nur" GDDR5X erhalten. (Vorerst) Kein HBM2.

Die zuerst erscheinenden kleineren Versionen sicher, für das Topmodell gehe ich schon von HBM2 aus, das wird aber wohl erst nächstes Jahr auf dem Markt aufschlagen.
 
kisser schrieb:
Performance ist doch hier gar nicht das Thema.

Thema ist, ob Async vom Treiber unterstützt wird oder nicht und da ist die Antwort definitiv JA, der Treiber kann mit Async Compute Shadern umgehen. Das muss er ja auch können, weil es integraler Bestandteil von DX12 ist.
Doch, weil die hiesigen Spekulationen auf Aussagen (von Firmenmitarbeitern!) und Indizien aufbauen und die schlechte Performance ist ein starkes Indiz (gegen die sinnvolle/funktionierende Async Implementation). Es geht ja nicht darum, ob man den Treiber damit ansprechen kann, sondern ob Async Compute Shader durch die Grafikkarte auch unterstützt wird (= Performancesteigerung). Steht ja auch schon oben: Emulation ist halt Kacke! ;-)
 
Zuletzt bearbeitet:
Der Vorschlag von Conceptions gefällt mir. Hier gibt es ein Thema bei dem ein Hersteller sehr wechselnde und damit diffuse Aussagen getroffen hat. Es wäre wirklich genial wenn die CB-Redaktion da mal ordentlich nachhaken würde und im gleichen Atemzug das Thema mal ein wenig aufarbeiten würde. (Mich interessiert hauptsächlich ersteres aber das dürfte ohne Erläuterungen ein etwas trockener Artikel werden :))
 
Roi-Danton schrieb:
Es geht ja nicht darum, ob man den Treiber damit ansprechen kann,

Doch, genau darum geht es. Dass NV keine performance-Vorteile daraus ziehen kann liegt einfach daran, dass deren HW auch ohne Async Compute voll ausgelastet werden kann.
 
Steht ja auch schon oben: Emulation ist halt Kacke! ;-)
Die Emulation von Async-Compute auf der CPU ist auch so ein Gerücht, was sich extrem lange hält. . . .

Doch, genau darum geht es. Dass NV keine performance-Vorteile daraus ziehen kann liegt einfach daran, dass deren HW auch ohne Async Compute voll ausgelastet werden kann.
So würde ich es nicht sehen. Es kommt eher stark drauf an was man so auf GPU berechnen lässt, einige Algorithmen profitieren mehr, andere weniger. Zum Beispiel ist die GPU beim Zeichnen von einfachen Shadow-Maps nur aber auch nur durch die Pixel-Füllrate oder den Polygondurchsatz limitiert - die Rechenkerne sind fast komplett untätig.
 
Es hängt natürlich vom konkreten Anwendungsfall ab. Ein 100%ige Auslastung aller Funktionseinheiten einer GPU ist praktisch nie zu erreichen.
 
kisser schrieb:
Doch, genau darum geht es. Dass NV keine performance-Vorteile daraus ziehen kann liegt einfach daran, dass deren HW auch ohne Async Compute voll ausgelastet werden kann.
Ahja... und weshalb unterstützt dann nvidia - laut deiner Aussage - Asynchronous Shader wenn sie eh nichts bringen? :rolleyes:
Dann könnte nvidia ja auch ggü PCGH Hardware sagen das sie das nicht brauchen. Haben sie aber nicht.
 
Zurück
Oben