News Quartalszahlen: Nvidia feiert Rekorde und kämpft mit der Nachfrage

hudini9911 schrieb:
Der Vergleich ist eh Quatsch, damit hätte Intel nie Erfolg gehabt. Oder glaubst du jemand zahlt 30% Preisaufschlag für 10% mehr Single Core Leistung?! Das was Intel in 5 Jahren fabriziert, schafft Nvidia in einem Jahr. Im CPU Bereich herrscht praktisch Stillstand...Außer mehr Cores und mehr Effizienz..Toll

Naja... Taktbereinigt ist Pascal auch nicht wirklich schneller als Maxwell und der Leistungsvorteil von Maxwell gegenüber Kepler stammt aus dem Tile Based Rendering. Die letzt wirklich große architektonische Neuerung war Kepler. Die Mehrleistung die danach kam stammt aus einem breiteren Featureset und verbesserter Fertigung (16nm). Auch Volta hat da nicht viel dran geändert. Da ist die Besonderheit die Tensor-Cores (welche im Consumermarkt kaum einer braucht) und erneut die Fertigung (extrem großer Chip).

Ähnlich wie bei GCN basieren auch heute noch die Nvidia Architekturen stark auf Kepler. Auch Nvidia zieht das Plus an Spieleleistung hauptsächlich aus mehr Cores und mehr Takt.

Nvidia hat die Architektur allerdings ziemlich gut optimiert und ausgebaut.


@modena.ch
Und jetzt schalten wir mal das Hirn ein und sehen uns an, was wir dafür bekommen haben:

-GTX 1080, 314mm2, GP104, zweitgrösster Chip, 256 Bit SI, Obere Mittelklasse/Performance Klasse, völlig überzogener Preis
-GTX 780, 561 oder 533mm2, GK110(A1/B1), grösster Chip, 384 Bit SI, Highendklasse, Preis klar gerechtfertigt
-GTX 470, 526mm2, GF100, grösster Chip, 320 Bit SI, Highendklasse, Preis verhältnissmässig günstig
-Radeon 7870, 212mm2, Pitcairn, zweitgrösster Chip, 256 Bit SI, Mittelklasse, Preis klar gerechtfertigt

Also lass dich nicht verarschen. Bei einer GTX xx80 bekommt man heute nicht mehr das Gleiche wie früher.
Früher gabs über xx80 keine Titan oder ähnliches.

Das ist mir als Kunde doch relativ egal, wie das Ergebnis zu stande kommt. Ja eine GTX 680 ist im Vergleich zu einer GTX 580 ein kleinerer chip mit kleinerem Speicherinterface und? Was zählt ist am Ende doch die Gesamtleistung. Auch heute, eine GTX 1080 ist in etwa auf augenhöhe mit einer RX Vega 64. Trotz kleinerem Chip, geringerem Interface etc. Man bekommt als im vergleich zur konkurrenz noch immer in etwa das gleiche Leistungsniveau für den Preis. Früher waren die AMD Karten auch noch eine stärkere Konkurrenz und die stärkste AMD Karte konkurrierte auch mit der stärksten nvidia Karte mehr oder weniger (bzw war das AMD Gegenstück öfters etwas langsamer, aber deutlich günstiger, wie beispielsweise bei der 5870/ GTX 480, HD 6970/ GTX580 etc.)

Aber eine Titan bzw. (x)X80Ti spielen heute in einer eigenen Liga. AMD Erreicht die Leistung der Tis meistens erst mit der nachfolgegeneration. Wie die leistung zustande kommt, ist relativ egal. Oder würdest du 5600€ für eine Vega bezahlen, weil sie ja im Vergleich zu einer HD 5870 ein 16 mal breiteres Speicherinterface und einen größeren Chip bietet? Wahrscheinlich nicht. Zumal die Größe des DIEs auch von der Packdichte abhängt und so nicht 1 zu 1 übertragbar ist.

Und wenn Nvidia mit 64Bit Speicherinterface und 100mm^2 Chip in der nächsten generation schneller ist, ist mir das auch egal. Da freue ich mich lieber über die Vorteile der geringen Leistungsaufnahme.
 
Naja wirklich runder läuft NV auch nicht mit permanenten Daten anfragen und unverschlüsselten senden läuft, die Sicherheit einfach mal weglassen wie bei Intel klasse Firma. Des weiteren heißt es Vesa Standard alles ist dafür jemand zuständig und GSync Müll ist nix anderes als Freesync mit DMR und kommisch jeder schimpft immer auf DMR bei BDs DVDs und Games, aber wenn NV neuen DMR mist bringt wird es gefeiert läuft wirklich toll klasse, da sieht man wieder wie dumm die meisten Leute sind und wie wenig sie sich wirklich mit was auseinander setzen. Trotzdem wird der Gamingbereich im PC dieses Jahr massiv ein brechen und die Publisher werden den Fokus wieder auf die wachsenden Konsolen legen ihr werdet schon sehen.
Ergänzung ()

Genau was kostet die Titan 3000€ dafür bekomme ich sehr viele AMD GPUs und auch Konsole mit TV und vielen Games. 👍
Ergänzung ()

Und was dass Thema Leistungaufnahme angeht ich kann es nicht mehr hören NV kann auch nicht zaubern die streichen halt nur Sachen aus den GPUs wie L Cache und GPGPU und und auch die Video Einheit wird beschnitten.

So bekomme ich natürlich gute Werte nur für semi Profi wachen brauche ich dann eine übertriebene Titan oder Tesla.

Für Gaming lieber die Konsole da ist man besser dran NV und Intel haben den PC kaputt gemacht.
 
Mcr-King schrieb:
Ergänzung ()

Genau was kostet die Titan 3000€ dafür bekomme ich sehr viele AMD GPUs und auch Konsole mit TV und vielen Games. 👍
Bekommst du auch so viele AMD GPUs in der Leistungsklasse und mit den KI Funktionen? Ich denke nicht. Das ist Äpfel mit Birnen vergleichen. Für den Preis eines Ferraris bekomme ich auch 15 Golfs, fahren die deswegen auch 330kmh/h? Die Titan richtet sich mit Ihren Features nicht an Gamer. Für den riesen Chip, die Leistung und vorallem die Features ist die Titan V sogar recht günstig. Rechne dir doch mal aus, was du davor bezahlen musstest, um ähnliche KI Funktionen und Performance zu bekommen. Und du kannst gerne sagen, welche AMD GPU die viel günstiger ist das auch bietet.

Ergänzung vom 12.02.2018 10:13 Uhr: Und was dass Thema Leistungaufnahme angeht ich kann es nicht mehr hören NV kann auch nicht zaubern die streichen halt nur Sachen aus den GPUs wie L Cache und GPGPU und und auch die Video Einheit wird beschnitten.

Immer dieses Märchen... die normalen GeForce Karten können auch fast alles, was die Quadros und Teslas können. Dazu gibts genug Berichte und Tests. Der hauptnachteil der GeForce Karten liegt da in den nicht zertifizierten Treibern und damit mangelndem support.

Auch das mit dem Computing stimmt so nicht. Vega ist das beste Beispiel. Vega ist im Vergleich ein Krüppel was die FP64 Berechnung (Doppelte genauigkeit) angeht.

Vega 64 bietet gerade mal 0,79 Tflops an FP64 Leistung. Zum vergleich, eine HD 7970 GHZ hatte schon 1,1 Glops FP64. Amd AMD beschneidet die FP64 Performance auf den Radeon Karten Teilweise auch. So z.B. bei Hawaii. Hawaii war ein GPU Monster. Das Verhältnis zwischen FP32 und FP64 beträgt 1:2, außer bei den normalen Radeons. Dort hat AMD das verhältnis auf 1:8 gesenkt. Die Firepro Hawaii karte liefert 2,62 Tflops an FP64 Leistung.

Noch mal zum Vergleich, die Titan V hat für 3000@ die FP64 Leistung von ca. 9 Vega 64. Die günstigste Vega 64 kostet aktuell 800€. Da kannst du dir ja ausrechnen, wie "teuer" die Titan V wirklich ist, vorallem wenn du noch die Infrastruktur, Kühlung und Leistungsaufnahme hinzurechnest, die du für 9 Vegas im vergleich zu einer Titan brauchst.
 
Ja ein Golf VR36 oder GTi schaft auch 330 km/h stell dir vor und alles was schneller als 250 fährt kann sich der normale Bürger sowieso nicht leisten wegen der Vers. ;-)

Auch mein Subaru schaft knapp 300 und ist er gedrosselt weill Vers. utopische ansteigen tut nutzen kosten Verhältnismäßigkeit. ;-)

Sorry was die titan kann auch eine Tesla oder eine AMD Pro.
 
Mcr-King schrieb:
Ja ein Golf VR36 oder GTi schaft auch 330 km/h stell dir vor und alles was schneller als 250 fährt kann sich der normale Bürger sowieso nicht leisten wegen der Vers. ;-)

Ach, dann muss es bei dir in der Region andere Golfs geben... den GTI den ich kenne quält sich auf ca. 250 ^^ Natürlich kann man Tunen, dass hat aber nichts mit dem produkt ansich zu tun. Du kannst im gleichen maßen auch Ferrari, Lamborghini und co. tunen. Es ging auch nie darum was Du dir leisten kannst sondern um den vergleich.

Sorry was die titan kann auch eine Tesla oder eine AMD Pro.

Ja, eine Tesla Karte die auch auf den Volta Chip setzt.. die tesla V100 kostet allerdings mehr als das doppelte einer Titan V. Und wie gesagt, du kannst uns gerne mal sagen, welche Firepro Karte das kann. Ich kenne keine mit Tensor Cores und ich kenne auch keine, die auch nur annähernd die FP64 Performance der Titan v erreicht.

Das schnellste was AMD da in den Ring werfen kann ist die Firepro W9100. Die leistet 2,62Tflops FP64 und kostet ca. 2500-3000€ Neu. Da steht die Titan V mit 3000€, der 2,6 fachen Performance, HBM2, und mehr Möglichkeiten doch etwas besser dar.
 
Shoryuken94 schrieb:
Bekommst du auch so viele AMD GPUs in der Leistungsklasse und mit den KI Funktionen? Ich denke nicht. Das ist Äpfel mit Birnen vergleichen (...) Für den riesen Chip, die Leistung und vorallem die Features ist die Titan V sogar recht günstig. Rechne dir doch mal aus, was du davor bezahlen musstest, um ähnliche KI Funktionen und Performance zu bekommen. Und du kannst gerne sagen, welche AMD GPU die viel günstiger ist das auch bietet.

Das ist so nicht ganz korrekt. Die TensorCores bieten in der Theorie im Peak etwas über 100 TFLOPs für AI-Compute Zeug und Ähnliches, aber das ist natürlich nur der best case. Sicherlich wird mit zukünftigen CUDA und cuDNN Versionen noch ordentlich optimiert und eventuell kann man sogar fernab von der API in entsprechenden Libraries was drehen (etwa in TensorFlow), aber bisher habe ich nur (reale) AI Benches gesehen, wo eine TITAN V nicht sehr weit vor einer TITAN X (Pascal) liegt, weil außerhalb von synthetischen Benchmarks, also in "echten" AI-Simulationen/-Experimenten die edge cases, in denen die TensorCores richtig was rausholen können, anscheinend zu selten auftreten.

Sicher wird da in Zukunft bestimmt noch einiges per Software gehen, aber bisher ist es mitnichten so, dass man einfach >= 100 TFLOPs für jegliches AI Experiment hätte. Es ist in den meisten eher so, dass man 90% der Zeit irgendwo leicht oberhalb der "normalen" Rohleistung einer Volta von ~15 TFLOPs liegt, also meistens nur ~30% vor einer TITAN X.

Dementsprechend lohnt sich für einige Szenarien da durchaus eine Vega 64, da die um Größenordnungen günstiger ist und von der reinen Rohleistung auch oberhalb einer TITAN X liegt.

Die Hauptproblematik ist ja weniger die Hardware, als vielmehr die Software: CUDA und die ganzen libraries sind ewig stark optimiert und schlicht durch ihr Alter sehr weit verbreitet. Die Stabilität, Effizienz und vor allem Verbreitung von OpenCL Äquivalenten, auch im Bereich AI, ist da deutlich geringer.
Rein vom P/L bzgl. Rohleistung könnte man seit Generationen schon AMD kaufen und das hat sich auch mit Vega / Volta nicht geändert (zumindest nicht, solange die TensorCores nicht besser ausgenutzt werden können). Aber CUDA und die ganzen libs wie cuDNN machen einen harten Unterschied im Vergleich zu OpenCL bei AMD.
Viele Sachen gibt es gar nicht erst in OpenCL, mehrere libs sind recht instabil im Vergleich zu den CUDA Äquivalenten und alles das, was unter OpenCL ordentlich läuft, hat meistens eine geringere Effizienz als die CUDA Entsprechungen.




Shoryuken94 schrieb:
Immer dieses Märchen... die normalen GeForce Karten können auch fast alles, was die Quadros und Teslas können. Dazu gibts genug Berichte und Tests. Der hauptnachteil der GeForce Karten liegt da in den nicht zertifizierten Treibern und damit mangelndem support.

Das ist, zumindest für die größten Wachstumsmärkte -> GPGPU (speziell AI) und Mining, egal. Zertifizierte Treiber und Support interessieren da nicht. Da geht es einzig um die Rohleistung und inwiefern die entsprechenden Libs (von CUDA bzw. OpenCL) für verschiedene Compute-Anwendungen die Rohleistung effizient verwerten können.

In den allermeisten Fällen, wie bereits erwähnt, geht es bei AI-Zeug um FP32. Genau deshalb wird auch sehr sehr häufig, in Unternehmen wie auch Unis, eine 1080 (Ti) für die Workstation genommen. Ist um Größenordnungen günstiger als eine Titan, hat fast dieselbe FP32 Leistung (da die meisten ja eh mit OC daherkommen) und reicht für die große Masse an Experimenten.

Die Titans sind Workstation- oder Clustermäßig dort interessant, wo man zusätzliche Sachen wie etwa INT8, die neuen TensorCores o.Ä. häufig benötigt.

Die Teslas sieht man eigentlich nur im HPC-Bereich und auch nur dort, wo es sinnvoll ist -> größere Cluster, für größere Experimente, wo man z.B. große Vorteile durch NVLINK bekommt, weil man eh auf mehreren GPUs parallel rechnen will.
Kleinere Cluster, wo man die typischen Experimente mit 1-2 GPUs durchlaufen lässt, sind meiner Erfahrung nach sehr häufig mit Titans bestückt, einfach wegen P/L und weil Teslas in diesen Szenarios keine nennenswerten Vorteile haben.
 
Zuletzt bearbeitet:
@ascer

Ich habe nie gesagt, dass die AMD Karten dafür nicht geeignet sind. Ich habe lediglich ein paar Punkte aufgzählt die dafür sprechen, dass die Titan V durchaus einen gerechtfertigten Preis im Vergleich zur Konkurrenz hat. Das die reine FP32 Leistung pro Dollar nicht sonderlich gut ist, sollte jeder Wissen, der sich mit der Thematik beschäftigt.

Und sicher gibt es Anwendungen, wofür die mehr geeignet sind. Man kann GPUs für so viele Anwendungsfälle verwenden. Es gibt ebenso auch Bereiche, wo ohne Zertifizierten treiber gar nichts läuft. Nicht im Sinne von es läuft technisch nicht sondern im Sinne von "Der Softwarehersteller gibt keinen Support ohne entsprechenden Treiber".

Aber klar, wenn ich nur FP32 Leistung brauche sind Treiber egal. Wenn ich die entsprechenden Libs etc. nutzen kann. Wirklich große Projekte laufen in dem Bereich ja eh auf Clustern

Es hängt einfach extrem vom Szenario ab. Früher sind Titans gerne in Workstations gewandert, wo man viel Vram oder mehr FP64 Leistung brauchte. Aber die Punkte hat nvidia ja die letzten Generationen ja vernachlässigt.
 
ascer schrieb:
Leistung pro Zeiteinheit
Arbeit/Energie ist das Integral der Leistung über die Zeit, bei konstanten Größen also Leistung mal Zeit (Produkt), nicht Leistung pro Zeit (Quotient).
ascer schrieb:
Wenn man schon angeben möchte, sollte man sich vorher um die Korrektheit der eigenen Angaben kümmern
 
Zurück
Oben