News : Nvidia hält an Multi-GPU fest und weitere Trends

, 42 Kommentare

Kurz nach der Einführung von SLI, wodurch zwei Grafikkarten parallel rendern und so die Leistung theoretisch verdoppeln können, haben einige Experten gedacht, dass die Multi-GPU-Technologie wieder vom Markt verschwinden wird.

Wie David Kirk, Chief Scientist bei Nvidia, in einem Interview gegenüber den Kollegen von Golem ausgesagt hat, glaubt er nicht daran, dass Multi-GPU in absehbarer Zeit verschwinden, sondern sich stattdessen in sämtlichen Segmenten ausweiten wird. So soll Multi-GPU (und generell die Grafikkarte) nicht nur in Grafikanwendungen immer häufiger genutzt werden, sondern auch für Physik- und gar KI-Berechnungen (Künstliche Intelligenz) herhalten. An letzterem arbeitet Nvidia unter anderem zur Zeit.

Durch eine intensivere CUDA-Nutzung sollen immer mehr Kunden, auch im Privatbereich, von den GPGPU-Fähigkeiten moderner 3D-Beschleuniger profitieren können. So gibt es einen Videokonverter, der die GPU dazu benutzt, die nötigen Berechnungen schneller als jede auf dem Markt erhältliche CPU durchzuführen. Dieser soll irgendwann als eine Demo-Version den GeForce-Grafikkarten beiliegen – der genaue Zeitpunkt ist aber unbekannt.

Darüber hinaus berichtet Kirk, dass die Art der Entwicklung der GPUs in Zukunft genau wie heutzutage weiter gehen wird. So soll die Anzahl an Einheiten, primär wahrscheinlich die ALUs, immer weiter erhöht werden. Man sehe darin kein Problem, da GPUs grundsätzlich auf parallele Berechnungen ausgelegt sind, wodurch eine breitere Architektur ohne Weiteres möglich ist.

Der Chefwissenschaftler prophezeit zudem, dass die maximale Leistungsaufnahme bei Grafikkarten die 200-Watt-Grenze nicht überschreiten wird, da man ansonsten Probleme bei der dafür notwendigen Kühlung bekommt. Durch die immer kleineren Fertigungsprozesse sieht Kirk in diesem Limit aber kein Hindernis. Ein Problem soll noch die Threadverteilung in aktuellen Betriebssystemen bei mehreren GPUs sein – sie sei alles andere als optimal. Diese Aufgabe übernimmt bis jetzt größtenteils der Grafikkartentreiber, zu einem Teil seit dem G80 auch ein in Hardware implementierter Scheduler. In Zukunft soll der Hardware-Scheduler effizienter werden.