News Next-Gen-GPUs: Grafikkarten überspringen 20 nm für 14/16 nm

Was mir hier bei der ganzen Diskussion auffällt: die GPUs unterscheiden sich hier nicht von den CPUs. Gerade bei den Memory-Zugriffen müssen sowohl bestimmte Datenmengen übertragen werden als auch das Alignment (die Ausrichtung an Speichergrößen/Adressen) muss stimmen, sonst kann die Peak-Performance nicht erreicht werden. Gerade die Vektorbefehle (MMX / SSE / AVX ) sind da sehr sensibel. (Andererseits: warum sollten sich GPU und CPU auch in diesem Punkt unterscheiden... ist ja beides quasi dasselbe von den architektonischen Gedanken).
 
Nai schrieb:
@ Daedel: Was du schreibst ergibt m.E. keinen Sinn, sei es weil mir das nötige Fachwissen fehlt oder weil es tatsächlich sinnlos ist.
Wäre ja glaubwürdig wenn du es nicht im selben Beitrag doch noch begriffen hättest. Nur weil jemand technische Nebelkerzen erkennt passt er dir nicht...soso...
Nai schrieb:
@ Selbstverbesserung, da meine Berechnung der Transaktionsgröße wahrscheinlich doch falsch war: .
Kaum ein Grund so herablassend zu sein für dich nach der Vorstellung hier im Thread.

Einfach technische Dokus die man selber verlinkt besser lesen.
 
(Andererseits: warum sollten sich GPU und CPU auch in diesem Punkt unterscheiden... ist ja beides quasi dasselbe von den architektonischen Gedanken).
Interessanterweise gibt es mit dem AVX2-Befehlssatz eine sogenannte Gather-Instruktion, die nicht wie die übrigen SIMD-Speicherinstruktionen sequentiell einen Speicherbereich ausliest, sondern von mehreren unterschiedlichen Stellen aus dem Speicher gemäß eines Vektor-Addressregisters jeweils N-Bytes lädt und in die entsprechende Stelle in ein weiteres Vektorregister schreibt. Diese Art Gatherinstruktion verhält sich vom Konzept und der Abarbeitung her wie ein GPU-Speicherzugriff, den die GPU ja auch analog auf Warp-Basis vektorisiert abarbeitet. Da merkt man wieder, dass die Unterschiede zwischen GPU und CPU-Vektorisierung nicht einmal so groß sind. :)
 
Faust2011 schrieb:
Dann erklär mir mal bitte wie es Nvidia meint und wie sich das zu Datenbank-Transaktionen (wo sich das Wort vermutlich herleitet) abgrenzt.

Datenbanken haben keine exklusiven Rechte an dem Wort "Transaktion", und einige Dinge die im Kontext von Datenbanken sinnvoll sind müssen in anderen Kontexten nicht sinnvoll sein und vice versa.

Die Einheit in Bezug auf RAM ist eine aufeinander folgende Reihe von Bytes, und nicht wie in Datenbankbereich eine Reihe von Daten die bestimmte (definierte und komplexe) Integritätsbedingungen erfüllen müssen.

A = Der Zyklus läuft durch und wird abgeschlossen, und wird nicht unterbrochen.
C = Der Block wird komplett rausgeschrieben oder gelesen bis die Cacheline voll ist.
I = Die Integrität ist erfüllt wenn komplette Blöcke geschrieben oder gelesen wurden.
D = Das Universum "RAM" lebt bis zum Stromausfall. Das Universum "DB" oder "NV-Speicher" lebt bis zur Zündung des Doomsdaydevice.

Stell dir einfach eine abstrakte Datenbank vor die konsistent ist wenn die o.g. Bedingungen erfüllt sind. Selbst komplexe Constrains mit Triggern und stored Procedures sind nur im jeweiligen Universum sinnvoll oder gültig wofür diese geschaffen wurden.

Sowas ist auch eine einfache Transaktion: http://de.wikipedia.org/wiki/RMW-Befehl
 
Danke für die Erklärung, aber das bringt mich nicht weiter. Warum? Das, was Du schreibst ist richtig, allerdings keine neue Erkenntnis für mich zum Transaktionsbegriff, wie es Nvidia versteht. Genau das war jedoch meine Frage.

Das ACID-Paradigma? Nein, das ist hier nicht gemeint. Was soll das in diesem Kontext?

Der RMW-Befehl? Darum geht es hier doch auch nicht.

Schau Dir doch mal an, was weiter oben aus der Nvidia-Doku zitiert wurde: "Global memory resides in device memory and device memory is accessed via 32-, 64-, or 128-byte memory transactions." Da ist keine Rede von komibinierten Schreib-/Lesezugriffen, einer Forderung nach Isolation oder Integrität (warum auch...) oder ähnliches. Und darüber hinaus: in welchem Algorithmus der Computergrafik hast Du denn überhaupt die Situation, wo Du einen Speicherbereich ein einer Transaktion (!) liest, veränderst und wieder zurückschreibst?

Ersetze jetzt im Zitat das Wort transactions durch reads oder writes. Ich hoffe, der Groschen fällt jetzt, was ich meine bzw. was ich nicht verstehe.

Ich bin weiterhin der Meinung, dass der Begriff transaction hier irreführend ist und Nvidias Terminologie einfach nur aufgeblasen wirkt.
 
Nai schrieb:
@ Terminologie: Es gibt leider im (GP)-GPU-Bereich extrem viele unterschiedliche Terminologien, wie zum Beispiel...

Das ist richtig. Und es hat sich sogar mal jemand die Mühe gemacht, die wichtigsten Begriff zu systematisieren. Siehe zB Patterson und Hennessy: Computer Architecture - A Quantitative Approach...Kapitel 4: Data Level Parallelism in Vector, SIMD and GPU Architectures. Ist eines der besten Bücher, das ich kenne.
Ergänzung ()

Faust2011 schrieb:
Was mir hier bei der ganzen Diskussion auffällt: die GPUs unterscheiden sich hier nicht von den CPUs. Gerade bei den Memory-Zugriffen müssen sowohl bestimmte Datenmengen übertragen werden als auch das Alignment (die Ausrichtung an Speichergrößen/Adressen) muss stimmen, sonst kann die Peak-Performance nicht erreicht werden. Gerade die Vektorbefehle (MMX / SSE / AVX ) sind da sehr sensibel. (Andererseits: warum sollten sich GPU und CPU auch in diesem Punkt unterscheiden... ist ja beides quasi dasselbe von den architektonischen Gedanken).

Jo. Das wird gerne vergessen. Auch für den DDR3/4 gilt: Geordnete Daten sind sehr viel schneller, als Chaos.
 
Faust2011 schrieb:
Danke für die Erklärung, aber das bringt mich nicht weiter. Warum? Das, was Du schreibst ist richtig, allerdings keine neue Erkenntnis für mich zum Transaktionsbegriff, wie es Nvidia versteht. Genau das war jedoch meine Frage.

Das ACID-Paradigma? Nein, das ist hier nicht gemeint. Was soll das in diesem Kontext?
Faust2011 schrieb:
Habe ich oben ausgeführt, löse dich aus deiner Datenbankwelt.

Faust2011 schrieb:
Schau Dir doch mal an, was weiter oben aus der Nvidia-Doku zitiert wurde: "Global memory resides in device memory and device memory is accessed via 32-, 64-, or 128-byte memory transactions." Da ist keine Rede von komibinierten Schreib-/Lesezugriffen, einer Forderung nach Isolation oder Integrität (warum auch...) oder ähnliches.

Eine Transaktion im Datenbankkontext setzt nicht zwingend Isolation voraus. Und die Integritätsforderung ist in diesem Kontext das zwingend *alle* Bytes rausgeschrieben werden oder es einen Fehler gibt.


Faust2011 schrieb:
Und darüber hinaus: in welchem Algorithmus der Computergrafik hast Du denn überhaupt die Situation, wo Du einen Speicherbereich ein einer Transaktion (!) liest, veränderst und wieder zurückschreibst?

In solchen hoch parallelen Umgebung wie einer GPU wird es ein Bedürfnis nach atomaren Locks geben, dort wird es mit Sicherheit atomare RMW und BitTestAndSet Instructionen geben.

Faust2011 schrieb:
Ersetze jetzt im Zitat das Wort transactions durch reads oder writes. Ich hoffe, der Groschen fällt jetzt, was ich meine bzw. was ich nicht verstehe.

Ich bin weiterhin der Meinung, dass der Begriff transaction hier irreführend ist und Nvidias Terminologie einfach nur aufgeblasen wirkt.
 
Gut, belassen wir es dabei mit den Transaktionen. Ich habe keine Lust da länger drauf rumzureiten. Vielleicht durchsuche ich mal bei Gelegenheit mit Googles Hilfe die Domain nvidia.com nach 'transaction' ;)

Noch eins zum eigentlichen Thema: es ist hier die Rede von der Lithografie im 14/16nm Bereich. Im ursprünglichen Sinn hat man damit mal die Größe (Breite) des Gate eines Transistors ausgedrückt. Angeblich ist dem nicht mehr so. Stattdessen nimmt man nun als Referenz eine Speicherzelle, die sich aus 6 Transistoren (?) zusammensetzt und misst deren Größe? Ist das so richtig?
 
Das ist richtig. Und es hat sich sogar mal jemand die Mühe gemacht, die wichtigsten Begriff zu systematisieren. Siehe zB Patterson und Hennessy: Computer Architecture - A Quantitative Approach...Kapitel 4: Data Level Parallelism in Vector, SIMD and GPU Architectures. Ist eines der besten Bücher, das ich kenne.
Danke für den Hinweis. Eben gezogen :)
 
;) Keine Ursache. Es lohnt sich, ist ein wirklich guter Wälzer!
 
Hat keiner eine Meinung zur von mir aufgeworfenen Lithografie-Diskussion... oder ist das so uninteressant für Euch?
 
Zuletzt bearbeitet:
Ich bin kein Experte, deswegen eine simple Frage: Was bedeutet die News für mich als Endverbraucher? Werden die Grafikkarten sehr viel leistungsfähiger für den selben Preis? Doppelt so leistungsstark? Wäre nett, wenn jemand kurz darauf antworten könnte.
 
Kurz zusammengefasst: Es ist weiterhin in Zukunft möglich, die Chips kleiner zu machen und damit mehr Transistoren (das sind die wichtigsten Elemente eines Chips, mit denen man Rechenlogik aufbauen kann) unterzubringen. Dementsprechend werden Grafikkarten in den nächsten Jahren weiterhin leistungsfähiger.
 
wenn keine 960ti kommt werde ich maxwell 28nm auch überspringen oder warten bis die 970 mini etwa 250€ kostet.
von amd gibt es im moment nichts, gar nichts. und die R300 soll erst ende 2015 kommen.
die aktuellen heizmonster von amd kommen ja mal überhaupt nicht in frage.
400 watt verlustleistung mit einer 290x... danke nein :lol:

also im moment kann ich meine gpu nicht upgraden weil es nichts brauchbares gibt bis auf die 970 und die ist mir zu teuer.
 
Zuletzt bearbeitet:
olalaaa schrieb:
die aktuellen heizmonster von amd kommen ja mal überhaupt nicht in frage.
400 watt verlustleistung mit einer 290x... danke nein :lol:

Und genau deshalb ist die Darstellung der Verbrauchswerte bei CB-Tests so schlecht - da meckert jemand über 400 W Verlustleistung eines Gaming-Gesamtsystems.

Hier wird mit 750 W Natzteil getestet, nimmt man ein 400W Netzteil sinkt der Systemverbrauch auch nochmals um locker 50W.
Nimm ein anderes Mainboard und es werden nochmals 15 W weniger. Nimm von den 16 GB RAM 8 aus dem System und du findest dich immer näher an der 300 W Marke wo du gerade einen unfassbaren 400W-Vulkanofen stehen hattest
 
Bisher nur die Details zu ZEN... Fiji steht noch aus.
 
Zurück
Oben