News Im Test vor 15 Jahren: Zwei GeForce 7800 GTX 512 im SLI-Verbund

@Unti
habe zwischenzeitlich während du deinen Text verfasst hast meinen bearbeitet^^
Wenn man vom Teufel spricht oder so^^
 
SLI/CF brachte nur wirklich etwas mit High End Karten. Da hatte ich keine für mich bemerkbaren Mikroruckler etc. aber zum Teil gewaltige Performanceanstiege. Nur wie gesagt, man musste sich um solch ein Setup kümmern und wissen was man tut. Anwenderfreundlich war das nicht und daran ist es auch gescheitert.
 
Karre schrieb:
Über den Stromverbrauch unter Last kann man heute Müde Lächeln
Und genau das ist es, was eigentlich traurig ist.
Ich weiß jetzt nicht, was eine 1080ti durch zieht, aber wenn ich bei den neuen Grafikkarten schon jenseits von 400 Watt bin, dann frage ich mich, welche Entwicklung da statt gefunden hat.
Ohne den Zeigefinger heben zu wollen, aber das ist für mich völlig anachronistisch.

Warum wird nicht mal mehr in Richtung Effizienz entwickelt, daß sollte doch möglich sein.
 
halbtuer2 schrieb:
Warum wird nicht mal mehr in Richtung Effizienz entwickelt, daß sollte doch möglich sein.

Weil es schon Effizient ist! Schau doch mal was du pro Watt an Performance bekommst. In UHD hat eine 3080 z.B. 64% mehr Performance als eine 1080. Bedeutet wo die 1080 in UHD 60 FPS hat ist die 3080 schon bei knapp 100 FPS. Die 1080 hatte sogar eine UVP von 789 €. Die 3080 nur 699 €.

Quelle der Zahlen:

https://www.computerbase.de/2020-09/geforce-rtx-3080-test/7/#abschnitt_preisperformanceverhaeltnis

Klar wäre es super wenn die Karten nur 100 Watt nutzen würden aber bei den Chipgrößen sind wir da weit weg. Die Transistoren wollen halt auch betrieben werden. Einziger Grund warum jeder wegen dem Verbrauch heult ist weil wir 30 Cent pro KW/h zahlen. Schau mal in andere EU Länder die lachen uns deswegen aus:

https://strom-report.de/strompreise-europa/#strompreise-eu-grafik
 
halbtuer2 schrieb:
Warum wird nicht mal mehr in Richtung Effizienz entwickelt, daß sollte doch möglich sein


Wird es und zwar massiv. Nur macht du den Fehler und setzt Effizienz mit dem gesamtverbrauch gleich. Ein Ölkraftwerk verbraucht auch Tonnen an Treibstoff am tag ist trotzdem wesentlich effizienter als jeder Polo TDI der mit 4 Liter auf 100 Kilometern fährt.

Die Effizienz wurde mit jeder Generation enorm gesteigert, auch wenn der maximale Verbrauch zugenommen hat. Der Gesamtverbrauch ist dabei zweitrangig, besonders wenn man nur die High End Karten anschaut. Wenn du z.B. nur die Leistung einer 1080Ti benötigst, dann kannst du heute auch zu einer Mittelklasse GPU greifen. Eine 3060Ti ist bereits ein gutes Stück schneller als eine 1080Ti und deutlich sparsamer.

Effizienz ist genau der Grund, warum man heute Chips bauen kann, die 20+ Tflops leisten und über 20 Mrd. Transistoren verbaut haben.

Ganz einfaches Beispiel. Schauen wir uns mal eine alte Nvidia High End Karte an und eine aktuelle:

GTX 480RTX 3090
Transistoren3,1 Mrd.28,3 Mrd.
theo. FP32 perf.1,35 TFLOPS35, 6 TFLOPS
TDP250 Watt350 Watt

Wir haben also 9,1 mal mehr Transistoren, die theoretische Rechenleistung ist mehr als 26 mal höher, der "Stromverbrauch" (Ja die TDP ist nicht exakt die Realleistungsaufnahme) ist aber im Gegenzug nur um 40% gestiegen. Oder um es mit anderen Worten zu sagen, die Leistung einer 250 Watt GTX 480 bekommst du heute mit integrierten Grafiklösungen in APUs mit einer einstelligen Leistungsaufnahme, dabei unterstützt die neue APU GPU dabei auch alle heutigen Standards. Der Chip in modernen Smartphones hat in etwa die selbe Rechenleistung.

Da sieht man doch ganz deutlich, dass sich in er Effizienz extrem viel getan hat und auch noch immer tut.

Cool Master schrieb:
Einziger Grund warum jeder wegen dem Verbrauch heult ist weil wir 30 Cent pro KW/h zahlen. Schau mal in andere EU Länder die lachen uns deswegen aus:

Wobei ich es auch bedenklich finde, dass Leute bei High End GPUs die über 650€ kosten und zumeist bei vielen nur als Spielzeug eingesetzt werden so sehr über den gesamtverbrauch meckern. Entweder haben diese Leute extrem viel Zeit zum Spielen und zocken 15+ Stunden am Tag oder sie sollten sich Gedanken machen, ob sie sich wirklich so eine Grafikkarte leisten sollten, wenn ein paar Euro mehr auf der Stromrechnung so sehr wehtun.

Aber es stimmt auch. in den meisten Ländern der Erde ist Strom so billig, dass es auch keinen groß interessiert. Auch das Argument "es wird so warm" wird da einfach mit Klimaanlagen erstickt.
 
  • Gefällt mir
Reaktionen: Cool Master
Bierliebhaber schrieb:
Mikroruckler haben bei SLI die ersten Jahre auch keine Rolle gespielt. Hat keiner gesehen oder alle haben sie ignoriert... erst später wurde das zum großen Thema, warum auch immer.

Das Phänomen gibt's überall. Plasma-TVs haben sich immer eingebrannt! Auf einem CRT spielt es sich viel besser! Bei DLP Projektoren hat man immer einen sichtbaren Regenbogeneffekt!

Das sind teilweise Dinge, die am Anfang stimmten und schnell aus der Welt waren, oder die meisten ohne darauf aufmerksam zu machen, nie gesehen hätten. Oft hat man es dann bei genauem beobachten doch ganz leicht merken können, und wenn nicht, war man schnell "derjenige, der das aus welchen Gründen auch immer nur nicht sieht, obwohl es da ist!". Da sagt man dann lieber schnell man sieht es, um nicht blöd dazustehen.

Das Thema SLI wird sicher irgendwann wiederkommen. Wenn es ausgereifter ist. Wie sonst soll man einem einzelnen Consumer sonst später 4000€ nur für GPU Lösungen aus der Tasche ziehen :D
 
  • Gefällt mir
Reaktionen: Bierliebhaber
Mit Plasma haste mich, bin nach wie vor ein Fan. Der VT30 darf erst gehen, wenn adäquater, bezahlbarer Ersatz da ist. :D
Ein weiteres Thema wäre der Stromverbrauch. Plasmas verbrauchen ja so viel!!!111!!1! Ja, wenn sie ein rein-weißes Bild darstellen, ihr Leuchten.:D

Ich denke das Thema hat sich erledigt und wird dank Chiplet-GPU-Lösungen auch nicht mehr groß auftauchen. Dann gibts Threadripper-GPUs mit vier Navi 50-Chiplets für die 4000€ statt zwei Karten im System...
 
  • Gefällt mir
Reaktionen: Ranopama
Was für Zeiten hatte sogar einige SLI Systeme was für ein Kampf mit den Einstellungen OMG.
Glaube GTX 780 Lightning oder so.
 

Anhänge

  • 125472206_360592085232191_8904091687219433849_n.jpg
    125472206_360592085232191_8904091687219433849_n.jpg
    84,9 KB · Aufrufe: 262
  • 10847852_617002151744753_5483448111237843667_n.jpg
    10847852_617002151744753_5483448111237843667_n.jpg
    56,5 KB · Aufrufe: 265
Bierliebhaber schrieb:
Mit Plasma haste mich, bin nach wie vor ein Fan. Der VT30 darf erst gehen, wenn adäquater, bezahlbarer Ersatz da ist. :D
Ein weiteres Thema wäre der Stromverbrauch. Plasmas verbrauchen ja so viel!!!111!!1! Ja, wenn sie ein rein-weißes Bild darstellen, ihr Leuchten.:D

Ja, genau das. Mein Plasma läuft auch seit inzwischen 10 Jahren. Der Schwarzwert hat etwas nachgelassen, aber ansonsten 0 Einbrennen, trotz zeitweise Benutzung als Monitor, zum zocken. Das Bild ist einfach immernoch genial, verglichen zu vielen LCDs, die Reaktionszeit ist top, Pixel kaum sichtbar, super Blickwinkel, gute Farben, null schlieren. Das sind Dinge, die mein 2 Jahre alter Samsung TV nicht besser kann, aber trotzdem Mantraartig wiederholt werden, obwohl sie schon ewig nicht mehr gestimmt haben. Trotzdem darf man sie, meist von Leuten die nie einen besessen haben, immernoch hören.
 
  • Gefällt mir
Reaktionen: Ranopama
CRT bzw. Plasma bietet bis heute ein besseres Spielerlebnis und echte Farben - das können die LCD immer noch nicht. Nicht umsonst werden von den Entwicklern Spiele gerne auf großen CRT oder Plasma getestet um das finale Ergebnis "wirklich" sehen zu können. Die modernen LCD tricksen gerne mit den Effekten um ein besseres Bild zu simulieren, dennoch wird es nicht echt beherrscht.

Ich denke gerne zurück an die Zeiten meines Eizo Monitors, war schon ein echter Trümmer mit 19" aber kaum gebogen und ein tolles Bild.
 
Zurück
Oben