Welche Berufsgruppen benötigen anspruchsvolle Grafikkarten?

Kurz: Grafikkarten sind gut darin parallelisierte Gleitkommaaufgaben zu berechnen. CPUs sind gut darin Ganzzahloperationen hintereinander abzuarbeiten.

a) Aus dem gleichen Grund, warum der Dreh eines Spielfilmes länger dauert als das Anschauen des Filmes. Die Rechenleistung wird benötigt um an den Rohdaten den Film zu berechnen
b)siehe oben. Manche Berechnungen für BigData oder KI profitieren stark von den parallelisierten Gleitkommaberechnungen
c) auch bei Bildern kann das helfen.

Lass dich von dem "Grafik" in Grafikkarte nicht zu sehr beirren. Die für Spiele benötigten Schaltkreise kann man auch für andere Aufgaben verwenden, die ähnliche Operationen benötigen.
 
jaffet schrieb:
(Darüber hatten wir in unserer Gruppe gestritten)
Na, weil das eine erstmal berechnet werden muss. Das Anschauen eines Films ist ein fertig gedrehtes Werk, das mit viel Aufwand erstellt wurde. Das Wiedergeben davon, ist nur ein Abspielen vom Ergebnis.
Wenn ihr jetzt mit (mehr oder minder) großem Aufwand euren Vortrag vorbereitet, dauert das auch ein paar Stunden. Das macht ihr hoffentlich parallel zueinander. Der Vortrag ansich wird dann auf X Minuten komprimiert und einfach nur wiedergegeben. Der Zuschauer hat da nicht viel Arbeit, der muss nur Augen und Ohren aufhalten und nicht einschlafen.

Beim Betrachten einer CAD Datei braucht es je nach Größe schon eine vernünftige Grafikkarte, die eben aus jedem Blickwinkel alles neu berechnet. Wenn du das als Video ablaufen lässt, wurde das ja schon berechnet und einfach nur abgespielt.
jaffet schrieb:
b) Warum verwnedet man für KI oder BigData Grafikkarten? Das klingt für einen Leihen erstmal unplausibel.
Viele Parallele und schnelle Berechnungen.
jaffet schrieb:
c) Werden denn überhaupt die Funktionen einer leistungsstarken Grafikkarte bei der Fotobearbeitung mit Photoshop benötigt?
Nein und ja. Zum einen unterstützt nicht jedes Programm wirklich Grafikkarten und zum anderen die, die es tun, auch eher nicht so extrem. Da bringt dir eine 2080TI quasi kaum was. Allerdings kann eine "kleine" Grafikkarte da schon was ausmachen, wenn es gut vom Programm genutzt wird.
 
jaffet schrieb:
a) Wieso setzt das Erstellen eines 3D-Modells oder eines Computeranimationsfilmes eine leistungsfähige Grafikkarte voraus, nicht aber das Anschauen des Modells und Abspielen das Abspielen des Films? (Darüber hatten wir in unserer Gruppe gestritten)
Ein Würfel hat sechs Seiten. Ein 3D Modell wie eine kleine Figur hat je nach Anwendungsbereich und Größe einige tausend bis einige zehntausend oder mehr Seiten, aber natürlich ist nicht nur eine einzelne Figur zu sehen, sondern Vordergrund, Hintergrund, etc.etc.
Dann gibt es verschiedene Materialien, Stoff sieht anders aus als Plastik oder Glas. Wir sehen Dinge weil es irgendwo eine Lichtquelle gibt, die sie anstrahlt. Das sind Mischungen aus Sonnenlicht oder Mondlicht, Straßenlaternen, Smartphone-Bildschirm oder Theater-Spotlight und das ergibt ganz verschiedene Lichtarten, Lichtfarben und Schattenwürfe, im Prinzip etliche tausende Lichtstrahlen die sich mischen und auf den zehntausenden von Seiten der Figuren und Co. reflektiert werden, je nach Lichtart und Material und das von den Figuren reflektierte Licht kann je nachdem natürlich wieder etwas beleuchten. Zusätzlich verändert sich das was du siehst 30 mal pro Sekunde um die Illusion von flüssiger Bewegung zu erzeugen und jedes mal ändert sich der Schatten, ändert sich der Winkel der Reflektionen, vielleicht bewegt sich das Licht gleich mit.

Das alles zu berechnen nimmt viel Zeit bzw. Rechenpower in Anspruch. Das Endergebnis jedoch was du am Ende siehst im Film, das ist ganz simpel, nämlich ein Haufen Pixel in einer bestimmten Farbe da wird nichts berechnet nur (stark vereinfacht) eben für den Monitor die wie oben beschrieben vorab berechneten Farbwerte der Pixel übers Kabel zum Monitor gereicht.
 
Zuletzt bearbeitet:
@BeBur ich glaube, das habe ich verstanden. Bei einem komplexen 3D-Modell müssen auch diejenigen Bereiche und Effekte berechnet werden, die im Bild nicht sichtbar sind.

Hier wurde auch erwähnt, dass Grafikkarten im KI-Bereich Anwendung finden. Kann man im Quellcode (z. B. auf einer Art ISA-Ebene) festlegen, dass der Code mit der Grafikkarte ausgeführt werden soll?

In unserer Gruppe gehen wir davon aus, dass mit einer besseren Grafikkarte eine immer bessere Auflösung bzw. Bildqualität erreichbar ist. Wenn ich aber die Antworten richtig verstanden habe, dann unterliegen Auflösungen einem gewissen Standard, weshalb sich eine 4K-Auflösung auch mit einer weniger guten Grafikkarte erzielen lässt?
 
Nee, mehr Leistung bedeutet vor allem erstmal weniger Zeit. Man kann auch mit nem sehr schwachen Prozessor große Werke erstellen, aber das dauert ewig lange. Klar gibt es auch andere Einschränkungen aber die reine Leistung wirkt sich am Ende vor allem auf die benötigte Zeit zum Berechnen aus. Indirekt kann das auch die Qualität des Ergebnisses beeinflussen. Wenn man keine Lust hat etwas 10 Tage laufen zu lassen sondern 5, dann (perfekte Skalierung vorausgesetzt) halbiert man eben die Komplexität bzw. Auflösung.
 
jaffet schrieb:
In unserer Gruppe gehen wir davon aus, dass mit einer besseren Grafikkarte eine immer bessere Auflösung bzw. Bildqualität erreichbar ist.
Also entweder ist deine Beschreibung mit "bessere Auflösung" und "bessere Bildqualität" super schlecht formuliert oder euch fehlen wirklich grundlegende Dinge :D
 
Cardhu schrieb:
Also entweder ist deine Beschreibung mit "bessere Auflösung" und "bessere Bildqualität" super schlecht formuliert oder euch fehlen wirklich grundlegende Dinge :D
Meinst du damit, dass die Auflösung eines Ausgabemediums nichts mit der Qualität des Bildes zutun hat, oder macht meine Frage die Sache nur noch schlimmer?:)
 
Du kannst Doom 1 in UHD zocken oder Crysis in 800x600. Was sieht besser aus?
 
Hat schonmal jemand ein KI- oder BigData-Programm von der GPU kompilieren lassen? Gibt es da eine spezielle ISA-Ebene?
 
jaffet schrieb:
Meinst du damit, dass die Auflösung eines Ausgabemediums nichts mit der Qualität des Bildes zutun hat, oder macht meine Frage die Sache nur noch schlimmer?:)
Auflösung = Pixel. Die maximale Auflösung wird mit einer stärkeren Grafikkarte nicht unbedingt höher.
Oder meinst du hoch bspw ein Bauteil aufgelöst werden soll in CAD mit wievielen Mehrecken? Also 20 je Kantenlänge. Dann hilft viel Leistung natürlich auch viel.

Was meinst DU mit Bildqualität? Was am Ende bei rauskommt? Oder was der Monitor dir anzeigt? Bei letzterem kommt es eben auf den Monitor an.
 
Gibt idr zwei Möglichkeiten GPUs zu programmieren:
A) Zur Compilezeit gibt man im Programm bereiche an die auf der GPU ausgeführt werden sollen, und der Compiler setzt das dann irgendwie um
B) Zur Laufzeit übergibt man dem Treiber den Quelltext eines GPU Programms als Zeichenkette, dieser kompiliert es dann mit einem eingebauten Compiler und danach kann man es ausführen.

Und ISA so wie bei x86 existiert nicht auf GPUs. Denn jede GPU hat ihren eigenen Befehlssatz, der nicht aufwärts, oder abwärts kompatibel oder kompatibel mit GPUs anderer Hersteller ist,
 
Zurück
Oben