News AMD Radeon Pro SSG: Grafikkarte mit Onboard-SSDs für große Datensätze

Sehr guter und im entsprechenden Segment wohl überzeugender Ansatz.

Aber....wie paßt das denn zu HSA? Sollte nicht ursprünglich die CPU die Daten von der SSD in ihren (ohnehin größeren) Hauptspeicher holen und die GPU von dort direkt zugreifen?
 
Nai schrieb:
Wegen CUDA:
In der Wissenschaftlicehn Gemeinde ist es auch sehr weit davon entfernt tot zu sein. Da ist eher fast alles andere tot. Ich kenne an der Uni hier fast niemanden mehr der noch etwas mit OpenCL und Konsorten macht.
Schon schlimm wie sich Universitäten von proprietärer Software einspannen und auch einschränken lassen.
Anstatt also selber Lösungen zu entwickeln, zu forschen werden einfach von der Industrie vorgekaute Lösungen genommen, und man bindet sich.
 
Was haben die denn groß für eine Wahl? Die öffentlichen Einrichtungen haben meist sehr begrenzte Mittel, da greift man ganz schnell mal zur Unterstützung bei der Entwicklung, auch wenn man sich dadurch an proprietäre Lösungen bindet.
 
@ Conceptions

Es geht ja darum möglichst effizient zu forschen. Dafür benötigt man die richtigen Werkzeuge. Die Werkzeuge herzustellen an sich ist keine Forschung. Deshalb verwendet man den Hersteller, der die effizientesten Werkzeuge liefert. Dementsprechend ist es m.E. auch eine effizientere Nutzung der Forschungsgelder, sich den Hersteller auszusuchen der die besten Werkzeuge für die Forschung liefert, und nicht einen schlechteren aus irgendwelchen ideologischen Gründen. Und die Werkzeuge selbst zu programmieren ist auch Geldverschwendung, falls sie es irgendwo bereits gibt.

Vielleicht noch eine Anekdote dazu: Ein Lehrstuhl hier hat mal aus ideologischen Gründen ein paar AMD Karten gekauft. Alle machten an den Lehrstuhl aber nur etwas mit CUDA und niemand hatte damals Lust bzw es für sinnvoll erachtet etwas mit OpenCL zu machen. Deshalb lagen die Karten jahrelang ungenützt herum. Mittlerweile kaufen sie deshalb auch nur noch NVIDIA Karten. . .
 
Zuletzt bearbeitet:
Mr.Kaijudo schrieb:
Das hat nichts mit Rückständig zu tun es gibt absolut keine Beweise für das Heliozentrische Weltbild.

Nach "aktueller" Wissenschaft ist die Sonne definitiv nicht der Mittelpunkt des Universums. Das weiß man aber schon seit mehreren Jahrzehnten.
 
Erstaunlich dass sich hier niemand darüber wundert, dass AMD 8K Material genommen hat. Mit einigen Ausnahmen ist 4k heute der Stand der Dinge und wird es wohl noch eine Weile bleiben. Nur wird der Vorteil des Speichers bei 4k wohl sehr viel geringer ausfallen und bei 1080p wohl kaum noch vorhanden sein.
Nach Release werde da bestimmt ein paar Benches auftauchen, aber bis dahin hält sich meine Begeisterung ehrlich gesagt in Grenzen.
 
Nai schrieb:
Dementsprechend ist es m.E. auch eine effizientere Nutzung der Forschungsgelder, sich den Hersteller auszusuchen der die besten Werkzeuge für die Forschung liefert, und nicht einen schlechteren aus irgendwelchen ideologischen Gründen. Und die Werkzeuge selbst zu programmieren ist auch Geldverschwendung, falls sie es irgendwo bereits gibt.

Ist bloß die Frage wie effizient die Nutzung ist, wenn
doch umgestellt werden muss weil der Hersteller doch endlich eingesehen hat/musste, dass die Freie Lösung langfristig die bessere Lösung ist, weil sie z.B. dadurch nicht mehr genug Kunden binden können und der Support zu teuer ist.
oder
die Preise der Grafikkarten der Firma in die Höhe schnellen, weil alle nur ihre Technologie nutzen und sie ein Quasi-Monopol haben...
 
@ S.Kara
Ich bezweifle stark, dass dies einen Unterschied ausmachen würde. Denn es geht bei dem Speedup nur um die Datenmengen (sind sie größer als der DRAM der GPU?) und zudem um die arithmetische Intensität (Operationen pro Byte). Die Auflösung fließt hier nicht mit ein.

@ jonderson
Wenn ich mir ein Werkzeug aussuche, dann spielt aber nur rein, was für mich jetzt und wahrscheinlich während des Projektzeitraums die beste Lösung sein wird. Denn niemand dankt es einem bei einer wissenschaftlichen Arbeit, dass man sich aus ideologischen Gründen für eine schlechtere Lösung für ein Werkzeug entschieden hat oder ein vorhandenes Werkzeug erst entwickeln musste. Dementsprechen sind Überlegungen der Art wie "was wäre wenn, vielleicht unter Umständen, wenn es mehr machen würden, dann . . . . " komplett fehl am Platz. Das einzige was mich interessiert ist der Ist-Zustand und die nahe Zukunft des Werkzeugs.
 
Zuletzt bearbeitet:
S.Kara schrieb:
Erstaunlich dass sich hier niemand darüber wundert, dass AMD 8K Material genommen hat. Mit einigen Ausnahmen ist 4k heute der Stand der Dinge und wird es wohl noch eine Weile bleiben. Nur wird der Vorteil des Speichers bei 4k wohl sehr viel geringer ausfallen und bei 1080p wohl kaum noch vorhanden sein.
Nach Release werde da bestimmt ein paar Benches auftauchen, aber bis dahin hält sich meine Begeisterung ehrlich gesagt in Grenzen.
Wer hat denn 4K Monitore?
Die 8k Geräte stehen schon vor der Tür und die 4K setzen sich nur mühsam durch.
Ich glaube, dass die meisten wohl von 1080p auf 8k umsteigen werden...

BTW hab ich gehört, dass man Grafikkarten auch noch zu was anderem Nutzen als Videos konvertieren und Spiele spielen.
Ist eben EIN Beispiel seitens AMD.
 
Krautmaster schrieb:
mal ne Frage an die Experten. In wie fern ist die Lösung von einer PCIe SSD Lösung zu unterschieden? Hängt doch beides an PCIe.

Einer der wichtigsten Unterschiede ist, dass die GPU die SSD selbst direkt ansprechen kann ohne den Umweg CPU.
 
Hallo @ all,

ich weiß nicht ob jemand schon die obligatorische Frage gestellt hat: "Kann man damit auch Crysis zocken?", aber analog dazu:

Kann man damit auch Photoshopen?

Ja ich weiß, klingt lustig, aber ist vielleicht gar nicht so abwegig. Ich hatte kürzlich erst den Fall, daß bei mir die 1TB SSD vollgelaufen ist, weil ich ein 8K Bild bearbeitet habe und zu viele Protokollobjekte eingestellt waren. Ich liebäugele schon mit 4TB SSDs. Und NVMe ist mit Sicherheit etwas, daß bei Photoshop hilft.
 
Da ist AMD mal wieder der innovationsträger der Branche was
 
Nai schrieb:
@ Conceptions

Es geht ja darum möglichst effizient zu forschen. Dafür benötigt man die richtigen Werkzeuge. Die Werkzeuge herzustellen an sich ist keine Forschung. Deshalb verwendet man den Hersteller, der die effizientesten Werkzeuge liefert. Dementsprechend ist es m.E. auch eine effizientere Nutzung der Forschungsgelder, sich den Hersteller auszusuchen der die besten Werkzeuge für die Forschung liefert, und nicht einen schlechteren aus irgendwelchen ideologischen Gründen. Und die Werkzeuge selbst zu programmieren ist auch Geldverschwendung, falls sie es irgendwo bereits gibt.

Vielleicht noch eine Anekdote dazu: Ein Lehrstuhl hier hat mal aus ideologischen Gründen ein paar AMD Karten gekauft. Alle machten an den Lehrstuhl aber nur etwas mit CUDA und niemand hatte damals Lust bzw es für sinnvoll erachtet etwas mit OpenCL zu machen. Deshalb lagen die Karten jahrelang ungenützt herum. Mittlerweile kaufen sie deshalb auch nur noch NVIDIA Karten. . .
. Man bindet sich an leistungsschwache karten, an einen hersteller, der noch iwie geld macht damit. Es sind vlt NVidia Mitarbeiter daran beteiligt. Es wäre interessant zu erfahre. Wo sich diese Einrichtung befindet. Mal ne Überprüfung bei diesen zuständgen Amt wieviel steuergeld darin versinkt.
Ergänzung ()

Patentieren und lizensieren.
 
Abseits der neuen Karte, die AMD Aktien hat ja in den letzten paar Tagen nochmal ordentlich an Wert zugelegt. Was schätzt ihr, wie lang hier die Kurve noch nach oben geht?
 
@ Luffy
In vielen Fällen geht es in der Wissenschaft darum, seine Forschungsprojekte nur konzeptionell umzusetzen. Auf die absolute Performance kommt es da meist nicht an. Ein Mathematiker hat dementsprechend mal sinngemäß zu mir gemeint, ihm ist es jetzt egal ob seine Simulationen jetzt wie bislang 4 Tage laufen oder eben nur 3 Tage. Ihm sei es vor allem wichtig gewesen, dass sie nicht ein paar Monate dauern, was bereits erfüllt ist. Denn dann würde sein sein Vertrag auslaufen. . . . Aus dem Grund sei es ihm aktuell nur wichtig, dass er seine Ideen mit möglichst wenig Aufwand und elegant am Computer umsetzen kann. Deshalb hatte er auch nur sehr wenig Interesse daran, seine Simulationen durch GPUs beschleunigen zu lassen.
 
Zuletzt bearbeitet:
Nai schrieb:
@ S.Kara
Ich bezweifle stark, dass dies einen Unterschied ausmachen würde. Denn es geht bei dem Speedup nur um die Datenmengen (sind sie größer als der DRAM der GPU?) und zudem um die arithmetische Intensität (Operationen pro Byte). Die Auflösung fließt hier nicht mit ein.
Naja die GPU muss ja die Daten vor und nach dem Berechnen bewegen. Je höher die Datenrate des Videos, desto mehr Zeit geht dafür drauf.
AMD wird die Ausgangssituation so gewählt haben, dass die SSG möglichst gut dasteht. Bei geringeren Datenmengen wäre sie bestimmt nicht 5,4x so schnell gewesen, weil bei dem 10k Referenzsystem der Speicher eben weniger limitiert hätte.

chatstar schrieb:
löl, ist doch keine Hardware für Kinder:\
Was hat das damit zu tun? 12 Kerner sind auch keine Hardware für Kinder und man findet trotzdem Benchmarks dazu.
 
Luffy schrieb:
. Man bindet sich an leistungsschwache karten, an einen hersteller, der noch iwie geld macht damit. Es sind vlt NVidia Mitarbeiter daran beteiligt. Es wäre interessant zu erfahre. Wo sich diese Einrichtung befindet. Mal ne Überprüfung bei diesen zuständgen Amt wieviel steuergeld darin versinkt.
Ergänzung ()

Patentieren und lizensieren.

Bei Anwendungen, die nur im Rahmen eines zeitlich begrenzten Forschungsprojektes laufen, ist es in der Regel egal wie schnell die Hardware ist. Viel wichtiger ist da, dass die Leute überhaupt das umsetzen können, was sie wollen, ohne dafür extra Entwickler einzustellen.
Da wird einfach das angenehmste oder bekannteste Werkzeug genommen (man glaubt z.B. nicht, was alles für Excel Programme geschrieben werden).

Wenn die Anwendung hinterher weiter verwendet wird, sieht es anders aus.

Quelle: ich mache sowohl Industrie als auch reine Forschungsprojekte.
 
S.Kara schrieb:
Was hat das damit zu tun? 12 Kerner sind auch keine Hardware für Kinder und man findet trotzdem Benchmarks dazu.
Sehr viel, diese Karte ist nicht für Kinder die geil auf Benchmarks sind.
 
Zurück
Oben