News Nvidias Volta-GPU mit bis zu 60 GByte Grafikspeicher

Miuwa schrieb:
Ich bin da noch sehr skeptisch. Das einzige mir bekannte Spiel, das SFR unterstützt ist Civilization und da lassen ich die Frames prinzipbedingt sehr gut aufteilen.

Das war auch erst der Anfang:
http://www.pcgameshardware.de/Civil...arth-Demo-verfuegbar-Infos-zu-Mantle-1140449/
"Wir glauben nicht, dass Civilization: Beyond Earth über eine perfekte Multi-GPU-Lösung verfügt, unsere aktuelle Implementierung ist im Funktionsumfang noch limitiert. Unsere SFR-Technik wird nicht so hohe Bildraten wie die AFR-Technik liefern, außerdem funktioniert unser System aktuell nur mit zwei GPUs. [...] Trotzdem glauben wir, dass es an der Zeit ist, dass Multi-GPU-Lösungen ein ähnliches Spielerlebnis wie Single-GPU-System liefern können. In Kombination mit AMD Mantle haben wir begonnen, das in die Realität umzusetzen."
 
"Ceo Math" die 10x schneller sind mal wieder NVdia typisch zusammengeschustert worden, bisschen Bandbreite mal Compute Leistung mal das und schon hast laut NVdia 10 mal mehr! Also hätte ich das mit äpfel und birnen in der schule gemacht, schlagstock!

Und PS es sind Marketingtechnisch 16nm ++ AMD wird 14nm Marketingtechnisch nutzen, wir wollen hier Nvidia nicht besser darstehenlassen als notwendig, Nv zahlt ja schließlich keine prämien für gute berichtserstattung. ;)
Ergänzung ()

Smagjus schrieb:
Die ständige Wiederholung der Aussage ist nichts anderes als Spam. Und den mögen wir alle nicht...hoffe ich zumindest.

Doch ES IST WICHTIG! Ich bin froh darüber, das jemand mit dem Finger auf diese "Unsere kunden sind Deppen, die merkens eh nicht" firmen zeigen, jetzt sind sie zuweit gegangen. Es nervt nur die NV Fanboys, die entweder genervt sind, oder es runterspielen. Das ist als, ob man ein auto mit Beschleunigungslöchern gekauft hat, und es dann aufgrund von peinlichkeit schönreden will. AMEN
Ergänzung ()

Smagjus schrieb:
Die ständige Wiederholung der Aussage ist nichts anderes als Spam. Und den mögen wir alle nicht...hoffe ich zumindest.

Shinigami1 schrieb:
Du weist schon das du selber ne Karte von NVIDIA hast? Falls deine Sig noch aktuell ist. Also manche Leute muss man echt nicht verstehen :rolleyes:. Und das Thema GTX 970 is doch schon Schnee von Gestern. Glaub mir eins, aus dem Fehler haben sie gelernt. Abgesehen davon, machen die Leute es viel schlimmer als es tatsächlich ist. Ist aber typisch das viele dann daraus den "Skandal des Jahrhunderts" machen. Leute die absolut zufrieden mit der Karte waren, fühlen sich nach der Meldung plötzlich betrogen oder haben nur noch Probleme, ja ne ist klar :D. Mit den AMD Liebhabern will ich überhaupt nicht erst anfangen. Für die ist/war sone Meldung ja gefundenes Fressen um auf NVIDIA rumzuhacken.

Schnee von Gestern heißt noch lange nicht verjährt, ich hoffe das NVidia ihren Frefel am Kunden noch sehr teuer Bezahlen muss. Was sollen die Leute machen? Es gibt kaum ne alternative, sowas kommt zustande, wenn man den Markt manipuliert. Wie der Mustang 500 oder wie der heißt, hat nichtmal 500 ps aber wird, suggestiert das er welche hat, und das kommt auch nur durch Messungen ans licht. Wo sind nur die Schönen 8800 GTX zeiten hin?
 
SGS2/3Fanboy schrieb:
Ramdisk in der Grafikkarte ist dann möglich :D

Das ist doch bereits möglich: Klick. Der Flaschenhals ist hier dann eben der PCIe Bus, der das schnelle VRAM ausbremst.
 
@Daedal: Und inwiefern widerspricht dieses Geschwafel jetzt meiner Aussage?
 
Zuletzt bearbeitet:
eruanno schrieb:
Hört sich an, als gäbe es technische Beschränkung, was faktisch aber natürlich nicht der Fall ist. Mit dem 384 Bit SI und 8 Gb GDDR5 Chips wären bei der Titan X auch 24 GiB möglich gewesen. Wäre GM200 kein reiner Gaming-Chip würde es bestimmt ein derartiges Modell (natürlich dann keine GeForce sondern Tesla oder Quadro) geben.

Wieso "Wäre...Würde..."? wohl schon lange keine News mehr gelesen außerhalb der Deutschen Websites?

TESLA K80 24GiB

17.11.2014: http://www.pcworld.com/article/2848...h-on-graphics-performance-with-tesla-k80.html

tesla-k80-100531023-large.png
 
Smagjus schrieb:
Die ständige Wiederholung der Aussage ist nichts anderes als Spam. Und den mögen wir alle nicht...hoffe ich zumindest.

Und wie erachtest du die Aussage, laut der AMD Treiber nur schlecht sind, obwohl das seit sehr vielen Jahren nicht mehr stimmt (die GPU Treiber wurden besser, zwitgleich wurden Nvidia Treiber aber auch etwas schlechter *bei meiner letzten Nvidia Karte ging mit jedem neuen Treiber die Bluescreen Rate hoch, bis dann die Karte durch den Treiber gerichtet wurde...*)
 
nur ein Mensch schrieb:
Und wie erachtest du die Aussage, laut der AMD Treiber nur schlecht sind, obwohl das seit sehr vielen Jahren nicht mehr stimmt
Es ist ja nicht so, dass sich man sich gegen Unwahrheiten, die über AMD verbeitet werden, wehren müsste. Niemand greift dich persönlich an, es ist kein Krieg, bei dem am Ende jemand als Gewinner darsteht. Sich dann dazu gezwungen zu fühlen, mit entsprechend negativer Presse zu Nvidia zu kontern führt dazu, dass die Qualität des jeweiligen Threads darunter leidet.

Wenn es denn tatsächlich relevant ist, habe ich kein Problem damit. Wenn zum Beispiel jemand in einem seperaten Thema nach Meinungen zum Hersteller fragt oder ob es hier Probleme gibt. Aber wenn jemand "Nvidia" und "Speicher" im Titel ließt und dann anfängt über eine GTX 970 zu schreiben?
 
Miuwa schrieb:
@Daedal: Und inwiefern widerspricht dieses Geschwafel jetzt meiner Aussage?

Es widerspricht deinem Geschwafel Civ wäre der Optimal-Fall. Es ist nicht der Optimalfall und nur wenig mögliche Features wurde genutzt. Das sagt der Entwickler selber, daher glaube ich seinem Geschwafel mehr als deinem oder meinem. Solltest du es nicht in Englisch lesen können, bin ich immer gerne bereit die Quellen auch in Deutsch zu übersetzen damit auch du dem Thema folgen kannst - das mache ich gerne.
 
@Daedal: Ich habe nie behauptet, dass das Ergebnis optimal wäre, sondern dass es vergleichsweise einfach ist SFR effizient für Civ zu implementieren.
Das Spielfeld ist ohnehin in einzelne weitgehend unabhängige Kacheln unterteilt, weshalb die Daten vermutlich auch relativ effizient auf zwei unabhängige Speicher aufgeteilt werden können. Außerdem weist die Szenerie eine sehr gleichmäßige Komplexität auf. Wenn man also den Bildschirm einfach in der Mitte teil hat man bereits eine relativ gute Aufteilung der Arbeitslast (und ja, mir ist bewusst, dass die Aufteilung etwas intelligenter geschieht). Und zum Schluss ändern sich die dargestellten Bildschirminhalte auch noch vergleichsweise langsam.

Daedal schrieb:
Solltest du es nicht in Englisch lesen können, bin ich immer gerne bereit die Quellen auch in Deutsch zu übersetzen damit auch du dem Thema folgen kannst - das mache ich gerne.
Was mich wirklich interessieren würde wäre eine Quelle, die ZEIGT (nicht nur behauptet) wie hoch der Gesamtspeicherverbrauch bei einer Dual-GPU im vergleich zur Singel-GPU Lösung ist (bzw. SFR vs. AFR). Darüber verliert der PCGH-Artikel nämlich kein Wort, genauso wie die meisten anderen Artikel die ich zu dem Thema gelesen habe (egal in welcher Sprache).
Ich kann mich nur an die Aussage eines AMD-Mitarbeiters erinnern, der darauf hingewiesen hat, dass man bei Mantel direkten Zugriff auf die Speicher beider Grakas hat und damit nichtmehr AUTOMATISCH in beiden Speichern die gleichen Daten vorliegen. Darüber, ob es auch in der Praxis möglich ist die Daten sinnvoll zu trennen hat er aber nichts gesagt.
 
Das Bild wird halbiert und jede GPU rechnet an der Hälfte. Das nennt sich Splitframe und entsprechend ist auch keine Kopie in der jeweils zweiten GPU vorhanden. Wenn beide Hälften fertig gestellt sind wird das Bild komplett ausgegeben. Beschrieben ist das hier:
http://www.firaxis.com/?/blog/single/mantle-multi-gpu-for-civilization-beyond-earth
Sind mehr GPUs vorhanden werden entsprechend viele Teilbilder berechnet und wird somit auch jeweils schneller fertig gestellt.

Vor allem im Hinblick auf den kürzlich verabschiedeten eDP 1.4 Standard denke ich dass dies die Zukunft bei Displays sein wird und endlich die Skalierungen ermöglicht, die sich alle wünschen.
https://www.computerbase.de/2015-02/edp-1.4a-unterteilt-display-panels-in-segmente/

Mit den unterteilten Segmenten und der Möglichkeit diese unterschiedlich zu refreshen kommt so etwas wie Local Dimming für das Gesamte Bild. Somit könnte jede verbaute GPU die für ihre Leistung passende Anzahl an Pixeln bekommen und daran arbeiten. Der Treiber liest aus welche GPU wie schnell arbeitet und Weisst entsprechende Panel-Ressourcen zu. Das ganze mit Adaptive Sync für jedes Segment. So müssen schnelle Bewegungen vielleicht nicht mehr für das gesamte Display in 4K berechnet werden, sondern nur 70% der Pixel oder gar weniger. Und um diese Rate steigt die FPS.
 
up.link schrieb:
Wieso "Wäre...Würde..."? wohl schon lange keine News mehr gelesen außerhalb der Deutschen Websites?

TESLA K80 24GiB

17.11.2014: http://www.pcworld.com/article/2848...h-on-graphics-performance-with-tesla-k80.html

Anhang anzeigen 482121

Du bist ja ein Witzbold! Wäre' weil es so ist, 'würde', weil mir zum Zeitpunkt nichts anderes bekannt war.

Die K80 ist übrigens 2x die K40, letztere wäre hier deine richtige Wahl für ein passendes Pendant gewesen, hat aber leider auch nur 12 GiB Speicher.

Dass du mir zu allem noch eine PN mit Link zu dem Post schicken musst, um deine überlegenen Kenntnisse zu demonstrieren ist nichts anderes als lächerlich
 
@Daedal: Natürlich lässt sich die Arbeit aufteilen, nur eben je nach Spielinhalt unterschiedlich gut. Es ging aber auch nie um die Frage, wie gut sich die eigentliche Arbeit aufteilen lässt, sondern darum, wieviel weniger Speicher SFR gegenüber AFR benötigt und ich warte immer noch auf Tests/Berichte, die die diesen Unterschied mal quantifizieren oder überhaupt untersuchen (denn das wurde auch in deinem neuesten Link wieder nicht angesprochen).

Aber gut, vielleicht kennst du dich ja aus: Was genau wird denn alles im Grafikkartenspeicher abgelegt? Texturen und Framebuffer sind offensichtliche Dinge, die aber z.B. nicht erklären, warum der Speicherbedarf bei höheren Auflösungen oder AA-Techniken so enorm in die Höhe geht und sind darüber hinaus genau die Dinge, die ohnehin in beiden Grafikkarten vorgehalten werden müssen - unabhängig von AFR/SFR.

Ach ja, hier noch ein Zitat aus dem von dir verlinkten Artikel:
As you might expect, SFR has very different characteristics than AFR, and our choice was heavily motivated by our design of the Civilization rendering engine, which fits the more demanding requirements of SFR well.
Wie ich schon gesagt hatte: Civ5 hat sich sehr gut für SFR geeignet.
 
Weil die Engine es gut unterstützt. Die kann jeder andere auch benutzen.

Und den andren GPU Offtopic solltest du bei den entsprechenden Quellen recherchieren. Den darauf gibt es keine korrekte Antwort ohne es auch selber zu recherchieren. Nicht alles hat man im Kopf. Aber das Internet ist voll mit Threads die sich genau mit deinem Thema befassen.

Nur eines:
AFR benutzt 2x4 GB der selben Daten un Kopie. SFR hat den kompletten 8GB Speicher zur Verfügung als gemeinsamen Speicher. Wie willst da sinnvoll RAM Verbrauch vergleichen. Das wäre ja schon bei 4 vs 8 GB Systemram unsinnig.
 
Zuletzt bearbeitet:
Miuwa schrieb:
Was genau wird denn alles im Grafikkartenspeicher abgelegt? Texturen und Framebuffer sind offensichtliche Dinge, die aber z.B. nicht erklären, warum der Speicherbedarf bei höheren Auflösungen oder AA-Techniken so enorm in die Höhe geht

Wie gut kannst Du englisch? Hier werden ein paar ganz gute Aspekte aufgezeigt zum Thema VRAM-Verbrauch.
 
@Faust2011: Danke für den Link, aber Google, TH und Anandtech hab ich (zumindest Obeflächlich) schon ziemlich abgesucht. Leider wird da auch nicht wirklich erklärt, was denn jetzt genau so viel Speicher verbraucht. Texturen sind nicht auflösungsabhängig und der Framebuffer braucht nur ein paar MB. Auf den Memory-Impact von Z-Buffer und Shadowmaps wird ja leider nicht weiter eingegangen.
 
Da hast du vielleicht recht, ich war aber nicht der, der mit gemeinsamen Speicher bei Mantel-CF angefangen hat ;)
Außerdem finde ich es zur Bewertung von Speichermengen nicht unwichtig, zu wissen, wofür dieser Speicher denn gebraucht wird. Aber gut, bevor ich mich da jetzt in was reinsteigere und das hier in nen Streit ausartet: das war mein letzter Post zu dem Thema. ;)
CU
 
Zurück
Oben