Test Mifcom miniBOSS i9-7980XE im Test: Titan V schlägt 1080 Ti in Spielen um bis zu 50 Prozent

ascer schrieb:
...und da frage ich mich durchaus, warum man da nicht auch die Hauptdisziplin von Volta, Deep Learning, bencht.
das führt uns direkt zu den nächsten fragen: welcher DL Benchmark, wer kann hier etwas mit den Benchmarks anfangen und mit welchen Geräten vergleicht man es?
(mal abgesehen davon dass die meisten, wenn nicht alle DL Benchmarks noch in den Kinderschuhen stecken)
 
Unnu schrieb:
@donend
Bzgl. HBM: Mag schon sein, soweit ich weiß war GDDRX nvidia Exklusiv, oder war das Fehlinformation? Da musste AMD ja was anderes nehmen. Dumm nur, dass da dann nicht das rauskam was erwartet wurde.
HBM war eine Entwicklung einer Unternehmensgruppe der auch AMD angehört hat. Deshalb war HBM1 quasi AMD exklusiv. In Mangelung „Alternativen“ hat sich NVidia weiterhin bei Verbesserungen auf GDDR verlassen. Nachträglich die bessere Entscheidung. Eventuell musste Fury auch mit HBM kommen.
 
  • Gefällt mir
Reaktionen: Unnu
Preislich müsste die Titan V aber gegen ein Quad 1080Ti SLI antreten :)
Bei unterstützen Spielen dürfte die 1080Ti dann um 200-300% davonziehen.
 
Nur das die GTX Treiber von der 1080Ti nur noch DualSLI unterstützen.
 
und SLI tut sich hoffentlich niemand freiwillig an. Erst neulich getestet und lieber geb ich das Doppelte für ne Single GPU aus.

@ Vega
sie legt langsam aber beständig zu ja, aber spätestens mit dem nächsten / übernächsten Shrink steigt die GPU Performance wieder deutlich. Wie alt sind die Pascal Karten? Klar, wer seine Karte 5 Jahre und mehr hat, der wird mit Vega dann doch deutlich vor einer GTX 1080 liegen.

Bei Fiji vs 980 TI war das nichts anderes. Auch da hieß es schon immer "gib ihr Zeit, DX12 bla bla, Maxwell kann kein DX12 richtig" und wo sind wir heute...
Wenn man aktuell Vega 64 für 1080 Preis bekommt würde ich auch die Vega nehmen, Rohleistung sei Dank. Ich versteh aber auch jeden der nicht so verfährt. Je nach dem was die individuellen Anforderungen hergeben, Titelauswahl, Effizienz usw.
399€ für ne Vega 56 war zB n guter Deal.
 
Zuletzt bearbeitet:
@D708
Schwer zu sagen, denke aber AMD brauchte HBM, Nvidia ja auch wenn man sich Volta anschaut oder HPC. NEC verbaut gleich 6 Module (Vector Engine). Die haben den Luxus das auch LowCost HBM reicht. Bandbreite dann entweder per SI Bit oder Taktrate.

Ich habe meine Fiji immer noch, ist in den HTPC gewandert unter Wasser. Wenn's mich juckt kann man damit auch zocken. 'Ne Nano wäre sicher noch besser, habe aber keine ergattern können, viele weinten vor sich hin und das mag ich gar nicht.

@Krautmaster
549 habe ich gelöhnt für eine 64 SE, war o.k., unter Wasser gesetzt und Ruhe.

Ryzen 1800x auch wieder in Betrieb genommen, heute den halben Tag gebastelt. Jetzt boostet er Stock XFR auf dem 370-Gaming K7 auch bis 4 GHz und drüber weg.
 
cruse schrieb:
das führt uns direkt zu den nächsten fragen: welcher DL Benchmark, wer kann hier etwas mit den Benchmarks anfangen und mit welchen Geräten vergleicht man es?

Ich würde mal behaupten, dass die meisten hier auch wenig mit der konkreten Performance in Luxmark anfangen können und noch weniger mit Raytracing, vor allem dem Baikal-Tool aus GPUOpen. Die allermeisten hier werden sich ja auch nie die Karte überhaupt kaufen.

Es wurde aber mehrfach im Test Deep Learning erwähnt und - was ja auch stimmt - als primäres Entwicklungsziel von Volta genannt.

Da wäre es imho selbstverständlich, gerade bei den Compute-Benchmarks, dann auch darauf einzugehen und dies zu testen.

Vergleichen kann man die Leistung in Deep Learning dann auch wunderbar mit einer Titan X(p), einer 1080 Ti, einer 1080 und einer 1070. Das sind nämlich die Karten, die am häufigsten als Workstation-GPU für AI Simulationen herhalten.
Eine RX 580 oder Vega könnte man per OpenCL potentiell auch noch dem gegenüberstellen - obgleich das natürlich etwas mehr Aufwand ist, als einfach CUDA + cuDNN zum Laufen zu bringen.

Bezüglich den konkreten Benchmarks reicht es doch schon, wenn man die großen Netze einmal abgrast: ResNet, VGG und Inception/Xception z.B.
Die haben auch ausreichend Architekturunterschiede, dass die Ergebnisse hinterher aussagekräftig für den Bereich sind.

NVIDIA verwendet eines oder mehrere dieser Standardnetze ja auch immer auf ihren eigenen Präsentationen. Da kommen aber nie konkrete Angaben, sondern immer nur irgendwelche Marketingsprüche wie 8x Volta trainiert VGG in 8h, wo 8x Pascal noch 30h braucht. Das sagt einem dann natürlich gar nichts über Takt, Stromverbrauch, Kühlung, Softwareversion und konkrete Konfiguration...gerade deshalb wären unabhängige Tests doch mal interessant.
 
donend schrieb:
@D708
Schwer zu sagen, denke aber AMD brauchte HBM, Nvidia ja auch wenn man sich Volta anschaut oder HPC. NEC verbaut gleich 6 Module (Vector Engine). Die haben den Luxus das auch LowCost HBM reicht. Bandbreite dann entweder per SI Bit oder Taktrate.
Ich glaube, AMD hat HBM noch nicht gebraucht. Jedenfalls nicht in den „GamerVegas“. Die Vorteile von HBM2 überwiegen im Gaming Bereich einfach noch nicht. Weder der Speicherdurchsatz, noch die Latenz oder Größe oder Verbrauch sind wirklich entscheidend besser als GDDR. Der Weg von Nvidia war deutlich besser. Sie werden sich ins gemachte Nest setzen. Die Vegas haben mit einem hohen Preis und einer schlechten Verfügbarkeit zu kämpfen. Das hätte hochgetakteter Gddr verhindert.

Edit:
Mir scheint es so, als ob AMD das Erfolgsmodell Zen wiederholen möchte. Eine DIE für alles. Nur das Grafikkarten im Gegensatz zu CPUs keine Huren sind, die es mit allen für Geld macht sondern verdammt wählerisch sind in der Auswahl ihrer Aufgaben. Merke, umso spezieller das Auffgaben Gebiet, umso schlechter eine EierlegendeVollmilchsau. Nvidia macht es vor und AMD ist genau damit bei Vega gescheitert.
Aber vielleicht schaffen sie es ja auch. Eine skalierende Graka wäre was feines. Nur das Geld würde die Grenze sein.
 
Zuletzt bearbeitet:
Zurück
Oben