News RTX A6000 und A40: Nvidia bringt Ampere mit Vollausbau ins Profisegment

Kacha schrieb:
@Tawheed Keine Angst, ich muss mein Unwissen nicht mit Lachen kaschieren. Ich lache allerdings darüber, dass du mir Unwissen vorwirfst obwohl du nicht mal im Ansatz verstehst worum es geht. Dein CPU Vergleich bestätigt das nochmals. Lies dich bitte erst zum Thema ein bevor du das nächste mal was schreibst.
Du unterstellst einer modernen CPU streng deterministisches Verhalten bezüglich Leistung. Alleine CPUs haben heutzutage eine Sprungvorhersage und der Takt variiert ebenfalls selbst wenn er fix eingestellt wird (JITTER). Grafikprozessoren können nur unter ganz gewissen Voraussetzungen die maximale Performance abgeben. Diese Performance für den allgemeinen Fall einzuklagen ist hirnrissig.
Du solltest schleunigst deinen Hochmut ablegen und zugeben, dass du keine Ahnung von Hardware hast.
 
@Tawheed Du solltest wirklich Komiker werden, das Zeug dazu hast du. Verstanden um was es geht hast du trotzdem nicht.

Lass uns das aufschlüsseln:
Erstens, ich habe nicht unterstellt, dass eine CPU eine deterministische Leistung hat. Die kann variieren, klar. Allerdings nimmst du eine Basis für die Berechnung der Leistung, die du am Ende angibst. Deswegen wird auch in der Regel der Basistakt und nicht der Boosttakt verwendet. Wenn es bei der Basis schon hapert, dann wird die Angabe fragwürdig und rechtlich angreifbar.
Zweitens, du kommst jetzt mit Sprungvorhersage (warum auch immer). Das ist jetzt schon mehr als 20 Jahre alt, aber ok. Eine Sprungvorhersage macht auch nichts anderes als darauf tippen (etwas besser als das, ja) welcher Zweig wahrscheinlich verfolgt wird und das Ergebnis schon berechnen um die Prozessorpipeline besser auszulasten. Sprungvorhersage, Caches, allgemein die Architektur, etc. bilden ab wie viele Operationen ausgeführt werden können. (Falls du es nicht weißt, eine GPU hat derzeit noch keine Sprungvorhersage.)
Drittens, du schwafelst was von wegen, dass die Software ja möglicherweise nur ein Kern auslastet. Hier zeigt sich wie wenig Ahnung du doch hast. Eine CPU und GPU unterscheiden sich prinzipiell insofern, dass die GPU von Grund auf auf Parallelisierung ausgelegt ist. Anders gesagt, dein Vergleich geht komplett daneben, aber egal. Ein Algorithmus auf einer GPU skaliert mehr oder minder automatisch mit der Leistung (außer man hat massive Bottlenecks drin). Wenn ein Algorithmus auf einer CPU nicht mit den Kernen skaliert, dann liegt das in den meisten Fällen eher am Entwickler, da extrem vieles parallelisierbar ist.

Kommen wir aber zurück zum ursprünglichen Thema:
Nvidia macht eine Aussage zur Leistung in TFLops (was Standard ist) und behauptet die Hardware kann X erreichen. Basistakt, Anzahl an Einheiten und Operationen die die Einheiten berechnen können. Das doofe ist jetzt aber, dass die Anzahl der Einheiten variieren kann, womit die Aussage mindestens mit einem Stern versehen werden muss und im Kleingedruckten etwas in Richtung "Wenn alle FP32/INT32 Einheiten FP32 ausführen" für stehen muss. Oder, man macht es sich einfacher und schreibt "bis zu" davor wie Internetanbieter.

So langsam verstanden? Warum aber sollte ich meinen "Hochmut" (von dir empfunden) ablegen, wenn du mit jedem Kommentar zeigst, dass du keine Ahnung hast? Nicht nur von Hardware, sondern auch schon beim Lebensverständnis. Was du kannst ist mit irgendwelchen Buzzwords um dich schmeißen.
 
Zurück
Oben