News Nvidia hält an Multi-GPU fest und weitere Trends

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.714
Kurz nach der Einführung von SLI, wodurch zwei Grafikkarten parallel rendern und so die Leistung theoretisch verdoppeln können, haben einige Experten gedacht, dass die Multi-GPU-Technologie wieder vom Markt verschwinden wird.

Zur News: Nvidia hält an Multi-GPU fest und weitere Trends
 
Grundsätzlich sehe ich es als einen Fortschritt an, die Last auf kleine Chips, die insgesamt günstiger zu Fertigen sind, als ein großer.
Aber SLI finde ich grundsätzlich NICHT lobenswert, angesichts der Tatsache, dass man diese Technik nicht allgemein für JEDES Spiel nutzen kann, sondern Profile braucht. Dazu kommt, dass die Effizienz doch eher viel zu gering ist, als dass sich der Aufpreis von 100% lohnt. Mal diese ganzen Kinderkrankheiten außer acht gelassen...

Gerade bei Grafikkarten kann man doch die Zahl der Logiktransistoren fast beliebig erhöhen - hier ein paar ALUs mehr, das Speicherinterface verbreitert, etc - da wundert es mich, dass man bei dieser Ausbeute von 2 oder mehr GPUs auf diese Technik setzt.
Sollte sich vllt mal das Ray-Tracing durchsetzen und die doppelte Anzahl an GPUs auch die doppelte Leistung bewirken, DANN wäre diese Technik sinnvoll - aber so einfach nicht.

Die Sache mit der Kühlung... es wäre doch nicht wirklich ein Problem, durch Konvektion von Wasser, dem Einsatz von Heatpipes und co die Kühlleistung zu verdoppeln, wenn der PLATZ dafür da wäre. Aber hier muss man wohl ganz klar sagen - der gute alte ATX-Formfaktor hat wohl nie 150W Quadcores und 400W Grafikpower vorgesehen. Dieses Argument zählt insofern doch nur eingeschränkt.
 
Gute Aussichten, warum 2 oder mehr Karten koppeln, wenn man mehr Leistung auf einer Karte unterbringen kann?!
 
Ja. Und wenn die mal die Hitzeentwicklung in den Griff bekommen, lobe ich diese Entwicklung! *thumbs up*
 
ja sicherlich is sli toll, aber die tatsache das die treiber mit mehreren karten kaum bei spielen klarkommen is schon mist... und multi gpu find ich auch nicht so toll...

die solln mal auf multicore gpu setzen und dementsprechend wie intel es vormacht (zwar nur bei der cpu, vll doofer vergleich) die tdp senken... weil 250 watt für ne karte ? is ja mächtig
ich glaube da spare ich mir mal gleich die heizkosten hier
 
SChau mal ob die auch die "micro Ruckler" wegbekommen
 
Hatte der NV.Chef nicht erst vor ein Monat erzählt er hält Einzelkarten als die beste Lösung? Wie kommts zu der Kertwende?

Naja wenn sie mal die Mikroruckler und die Performenc hinbekommen dann wäre es nicht schlecht.
 
Den Videokonverter als Demo beilegen und für die Vollversion dann extra Geld kassieren? Das fand ich schon beim nv DVD Decoder frech. Das sollte doch wohl wirklich im Preis der Grafikkarte drin sein. Btw. Schaut euch mal Pictomio an. Das benutzt Herstellerunabhängig die Grafikkarte http://www.pictomio.com/de-DE/Download/Default.aspx
 
Was Wissenschaftler sehen und was letztendlich auf dem Markt gelangt, sind zwei grundverschiedene Dinge. Meiner Meinung nach wird es mehr Richting GPU/CPU gehen und die Grafikkarten als solche werden auslaufen. Denn eine effektive Aufgabenverteilung zwischen CPU und GPU wird mehr und mehr zur Problematik. Wenn die GPU dekodieren kann , wofür ist die CPU dann nützlich und umgekehrt. Das sind verschwendete Ressourcen im besonderen auch im Energieverbrauch. Wenn die GPU zum Alleskönner mutiert, und Intel Grafikeinheiten in die CPU verlegt, erkennt man schnell, dass eine separate Grafikkarte "bald" nicht mehr nötig sein wird. Daraus schließe ich, dass Multicoregrafikkarten ebenso vom Markt verschwinden werden.

Fazit: Nvidia hat hoffentlich die Zeichen der Zeit erkannt und wird auf absehbare Zeit selbst CPUs herstellen oder zumindest mit einem Hersteller fusionieren.
Meiner Meinung nach war der Schritt von AMD mit ATI zu fusionieren, sehr wichtig, auch wenn das Marktanalysten noch nicht so sehen.
 
@ Sturm91: Ganz meine Meinung. Kein Weg wird an Multicore-GPUs vorbeiführen.
Bin auf jedem Fall gespannt. Vllt haben wir dann in 2 Jahren eine Quadcore Graka
 
Wieder mal sehr kompetente Kommentare... GPUs sind schon ewig Multicore, schon seit Zeiten einer TNT. Eher wird es Richtung MCP gehen, mehrere (kleinere) GPUs auf einem Package.

Und die Rechenleistung pro Watt ist bei einer GPU ebenfalls VIEL höher als bei einer CPU, also was meckert ihr den rum?
 
@ Kasmanopaya : Das du trotz dieser Einstellung das nvidia-SLI Logo als Avatar benutzt halte ich für sehr Lobenswert :D .

Aber Spass beiseite. Lasst uns mal schauen wie sich das ganze entwickelt. Auch ich würde mir einen niedrigeren Stromverbrauch wünschen und wandle nur aufgrund der Leistungsstagnation im Highend-Segment seit kurzer Zeit auf SLI Pfaden.
 
Zuletzt bearbeitet:
swz.alucard schrieb:
Wieder mal sehr kompetente Kommentare... GPUs sind schon ewig Multicore, schon seit Zeiten einer TNT. Eher wird es Richtung MCP gehen, mehrere (kleinere) GPUs auf einem Package.

Da ich der einzige war, der Multicoregrafikkarte geschrieben hat, muss ich mich angesprochen fühlen. Habe ich irgendetwas anderes damit gemeint? Ich meinte alle Grafikkarten inklusive Multi-GPU Derivaten ala X2. Es wird hoffentlich nicht Richtung MCM(P)
http://de.wikipedia.org/wiki/Multi_Chip_Module gehen, wie es Intel mit seinen nicht nativen Quadcores macht. Damit würdest Du die News bestätigen, die für mehr GPUs propagiert. Es ist letztenendes uninteressant, ob ein MCM Design gewählt wird oder eine PCIe Bridge dazwischengeschaltet ist. Treibertechnisch könnte es vorteile bringen. Energie wird damit nicht gespart.
 
Das ist imo eine positive Entwicklung, dass GPU Rechenleistung auch für GP genutzt werden kann. AMD/ATI gehen diesen Weg seit geraumer Zeit ja bereits. Allerdings sollten die Grafikchip Hersteller noch ordentlich am Stromverbrauch und Energie-Management arbeiten, damit ich mich vollends damit anfreunden kann.
 
wie wärs wenn nvidia einfach mal in den Schrank schaut.

Da steht bestimmt irgentwo ein Ordner auf dem 2000 drauf steht und wo all jenes schon enthalten ist woran sie heute angeblich so hart arbeiten.

Ja schon klar, shaderoperationen sind global und funktionieren nicht im scan-line Verfahren, aber das Konzept eines tatsächlich Multi-GPU fähigen Chips wäre ja schonmal ein Anfang.

2 Grafikchips die nichts gemeinsam haben per Software zu verbinden ist die größte Schnappsidee der Branche.
 
Ich stehe dieser ganzen Multi-GPU Entwicklung immer noch sehr skeptisch gegen über. Zum einen ist da der Stromverbrauch und der Platzbedarf, zum anderen stellt man sich dann immer bei jedem etwas exotischerem Spiel die bange Frage ob überhaupt alle GPUs, und damit die volle Leistung, unterstützt werden.
Für mich kommt so eine Karte erst dann in Frage wenn:
1. Sie die Sache mit den Mikroruklern endlich in den Griff bekommen.
2. Man mir garantieren kann, dass ich bei jeder 3D-Anwendung auch die volle Leistung aller GPUs abrufen kann, denn sonst habe ich ja viel Geld für nichts ausgegeben und hätte genau so gut zur Version mit nur einem Chip greifen können.
Mit Single-GPU Karten fährt man im Moment (noch) deutlich sorgenfreier.
 
ScoutX schrieb:
Was Wissenschaftler sehen und was letztendlich auf dem Markt gelangt, sind zwei grundverschiedene Dinge. Meiner Meinung nach wird es mehr Richting GPU/CPU gehen und die Grafikkarten als solche werden auslaufen. Denn eine effektive Aufgabenverteilung zwischen CPU und GPU wird mehr und mehr zur Problematik. Wenn die GPU dekodieren kann , wofür ist die CPU dann nützlich und umgekehrt. Das sind verschwendete Ressourcen im besonderen auch im Energieverbrauch. Wenn die GPU zum Alleskönner mutiert, und Intel Grafikeinheiten in die CPU verlegt, erkennt man schnell, dass eine separate Grafikkarte "bald" nicht mehr nötig sein wird. Daraus schließe ich, dass Multicoregrafikkarten ebenso vom Markt verschwinden werden.

Fazit: Nvidia hat hoffentlich die Zeichen der Zeit erkannt und wird auf absehbare Zeit selbst CPUs herstellen oder zumindest mit einem Hersteller fusionieren.
Meiner Meinung nach war der Schritt von AMD mit ATI zu fusionieren, sehr wichtig, auch wenn das Marktanalysten noch nicht so sehen.

Da kann ich dir absolut zustimmen!
Es war von AMD wirklich ein sehr guter Schritt ATI aufzukaufen, nur so kann sich AMD der Zukünft rüsten.
Das Ende der herkömlichen Grafikkarte von heute wird zwar nicht schnell aber schleichend kommen. Jedoch ein Wörtchen mitzureden hat bei alledem auch die DirectX Schnittstelle!
Die große Veränderung dürfte auch für Microsoft Kopfzerbrechen sorgen.
 
Zurück
Oben