News Auf den Zahn gefühlt: Quad SLI

Ich lese hier des öfteren Meinungen, wie "Die sollen das Spiel lieber zuerst ordentlich optimieren..."
Ich denke, daran liegt es nicht, dass Grafikkartenhersteller nach neuen Rekorden jagen. Zunächst denke ich einmal, dass kein ernsthafter Spielehersteller es sich leisten kann, eine nicht-optimierte Grafikengine auf den Markt zu werfen. Die Konkurrenz ist groß, die Kunden meist auch technisch interessiert und gut informiert. Spiele sind auch relativ teurer (und werden wahrscheinlich noch teurer). Jede schlechte Engine würde von den Redakteuren einer Spielezeitschrift in der Luft zerissen und das war's dann.
Weiters glaube ich nicht, dass Optimierungen wirklich so viel bringen können. Vielleicht 5-10%, wenn man das Spiel auf eine bestimmte Grafikkarte(-ngeneration) hin optimiert. Mehr ist nicht IMHO drin.
Zuletzt bieten viele Engines bereits eine Fülle an Einstellungen, damit sie auf den jeweiligen PC "optimiert" bzw. angepasst werden können. Da hat's also schon jeder selbst in der Hand :-)

ATI und NVIDIA pushen SLI bzw. CrossFire derart, weil High-End-Leistungen ein wichtiges Kaufargument für Mid-Range-Karten sind. Ich denke, man will den Käufern das Gefühl geben, die "beste" Grafikkarte gekauft zu haben. Quad-SLI hat also durchaus was von den Sportwägen und Luxuslimousinen, die die Autohersteller im Sortiment haben, um ihr Renomee zu steigern. Damit wird dann auch die Familienkutsche gut abgesetzt ;-)

Ich denke, niemand muss Angst haben, dass SLI in der heutigen Form bald Standard wird. Derzeit spricht zuviel dagegen: zu teuer (Preis/Leistung UND superteure CPU notwendig), zu inkompatibel (mit manchen Spielen kaum Performancegewinn) und zu unflexibel (kann nicht alle Grafikkarten mischen) für den Massenmarkt.

Für die Zukunft könnte es schon ein Weg sein, wenn SLI massentauglich gemacht werden kann. Ich erinnere nur an die CPUs: Auch hier gibt's schon ewig Mainboards auf denen sich 2 CPUs unterbringen lassen. Die Technik wurde auch enorm gepusht, gekauft hat diese jedoch kaum jemand. Die Nachteile waren im Wesentlich dieselben wie bei SLI. Inzwischen gibt's DualCores, die wiederum SEHR interessant sind. Hier könnte sich die Geschichte wiederholen, also keine Panik ;-)
 
Ratterkiste schrieb:
quad sli ist nur prestige
nvidia zeigt was möglich ist
wo bleibt die antwort von ati? crossfire mit 8 karten? theoretisch solls ja mit bis zu 64 stück funktionieren


Solange fuer Crossfire eine Masterkarte und die externen Verkabelung notwendig sind, ist Crossfire auf genau 2 Karten limitiert. (Oder hast du eine Idee, wie man die DVI-Ausgangssignale von zB. 7 Slave-Karten (bei angenommen 8x CF) auf die eine DVI-Eingangsbuchse der Masterkarte bekommen soll?)
 
pfff... gibts schon ein Spiel was quad sli braucht?
Soll ich mir Kopfhörer kaufen, damit ich die lauten Lüfter der Karten nicht mehr höre?
Wo steck ich meine restlichen Karten hin? Zumindest die Soundkarte?
Warum soll ich eventuell 5000 Euro oder mehr ausgeben, wenn nächstes Jahr noch besser Grafikkarten rauskommen?

Für was soll das alles gut sein? für 15000 Benchmarkpunkte in 2005?!? (lächerlich)
 
Day.wal.ker schrieb:
@3n1X: Ich habe es verstanden und ich würde nur lachen wenn es denn wirklich so wäre.

SLI ist kein Standard und sollte niemals Standard werden. Es ist nicht lobenswert, zukünftige Systeme mit mehr als einer Grafikkarte austatten zu müssen, nur um die Leistung weiter steigern zu können.


Was heisst hier "es ist nicht lobenswert"? Es ist die einzige Moeglichkeit, die Leistung weiter zu steigern, wenn eine einzelne Karte nicht genug Leistung bringt.


yahirhem schrieb:
Eine Dualcore Lösung wie man sie nunmehr von Intel und AMD kennt, wäre auch bei den Grafikchips interessanter als alles, was unter dem Titel SLI oder Crossfire verkauft wird.


Dualcore bei Grafkchip ist Schwachsinn hoch zehn, da kann ich die Pipelines auch gleich direkt auf ein DIE kloppen. Es wird also nie Dualcore bei Grafikchips geben.
 
Zuletzt bearbeitet:
Salu,

absolut lächerlich, aber immer her mit dem Geraffel. Es gibt sicherlich ein paar Schwachsinnige, die sich so etwas für teures Geld kaufen werden.
 
Die neue Richtung der Hardware Hersteller nennt sich:

MASSE STATT KLASSE !

... am Ende ist der Kunde der Dumme, denn er zahlt die Hardware und den Strom.
Gleichzeitig steigert es den Umsatz der Hersteller, weil sie mehr Karten bzw. Hardware verkaufen und dies senkt dabei gleichzeitig die Entwicklungskosten der Hardware!

Die Technologie wird ja schließlich nur ein mal entwickelt und anschließend x-Mal in allen Variationen verbaut. Die Stromkosten sind ja den Herstellern egal.

Nun fehlt noch die Vermarktungs- Strategie.Die am besten funktioniert ,sobald der Kunde der Meinung ist, dass er ohne des Produkts nicht mehr auskommt und nicht "up to date" ist.

Das geschieht zurzeit!
 
Zuletzt bearbeitet:
@67. Das glaube ich nicht. Das Problem der Hardware-Hersteller ist meiner Meinung nach, dass die Kunden immer mehr Leistung wollen, aber andererseits sich die Strukturbreiten nicht beliebig (schnell) verkleinern lassen.
Bis jetzt bietet auch jede "Single"-Karte von ATI und NVIDIA mehr als genug Leistung für aktuelle Spieletitel. SLI bzw. Crossfire ist noch ein Zusatzangebot für Enthusiasten.
In Zukunft wird es aber eben nicht mehr möglich sein, beliebig viele zusätzliche Pipelines auf einer GPU unterzubringen. Das Problem ist ja folgendes:
Von 8 auf 16 Pipelines kann ich noch "relativ einfach" die Leistung verdoppeln. Sind absolut "nur" 8 Pipelines zusätzlich.
Von 16 auf 32 ist das ein viel größerer Schritt. Denn nun muss ich 16 zusätzliche Pipelines unterbringen.
Für Taktraten und Speicher gilt ähnliches.
Der Aufwand steigt also nicht linear an. Dadurch gibt es meiner Meinung nach langfristig irgendwann keinen anderen Ausweg mehr, als von der Single-GPU Lösung wegzukommen.
SLI bzw. Crossfire sind in der derzeitigen Form sicher noch nicht für den Massenmarkt geeignet, das heisst aber noch lange nicht, dass derartige Lösungen in Zukunft nicht kommen werden (und meiner Meinung nach kommen müssen).
Auch den CPU-Herstellern blieb ja im Endeffekt nichts Anderes übrig, als diesen neuen Weg zu gehen.

Bezüglich Stromverbrauch: Es ist schon physikalisch nicht möglich, Information mit beliebig geringem Energieverbrauch in einer gegebenen Zeiteinheit zu verarbeiten. Das heisst, dass der Stromverbrauch zwangsläufig in Zukunft steigen wird, da wir ja alle erwarten, dass unsere Computer immer besser werden (sprich: immer mehr Information in immer kürzerer Zeit verarbeiten können).
 
Da sieht man mal wieder, was Dell für eine Macht ist.
Kaum wollen die nen 30" Screen bringen, tanzt nVidia mit Quad SLi an *lolz*
 
Was für ein Schwachsinn.. Ne ne ne, Sachen gibts, die braucht man nur als "Schwanzprothese", muhahaha

Leider hatte mich die "Werbeindustrie" überredet, mir vor 4 Monaten eine 7800GTX zu kaufen. Nachden es in letzer Zeit immer mehr überhand nahm mit den SLI Quatsch, habe ich meine 7800GTX sammt SLI Mobo verkauft, da ich es mit meinem Gewissen nicht mehr vereinbahren konnte, so einen Mist zu unterstützen.
Als Ersatz kam ein AX8 VIA Board, mit einer X800GTO²(@X850XT) zum Einsatz. Ersparnis rund 270Euro. Das erstaunliche dabei, selbst f.E.A.R läuft unter 1024er Auflösung mit max Details einfach wunderbar, das Bild flimmert auch nicht mehr wie früher bei meiner 7800GTX. Spiele wie NFS MW, CoD2, Quake4, und vor allem HF2 mit CS-Source und HF-Deathmatsch, laufen auch perfekt, selbst mit hohem AF-Grad (4-16fach).
Gestern habe ich einen Kollegen auf ner Lan getroffen, der noch immer eine Leadtek Geforce 4200 Ti 128MB nutzt, und wahr wirklich sehr erstaunt, das sogar aktuelle Games immer noch aktzeptbabel spielbar sind, hätte mir das jemand vorher erzählt, ich hätte es nicht geglaubt...

Nachdem aber in letzter Zeit ein Hersteller namens Nvidia, mit aller "Werbegewalt" versucht, SLI Massentauglich in den Köpfen des "Kaufviehs" zu machen, sehe ich da ein anderes Problem auf die Spielergemeinde zu kommen. Man kann wohl davon ausgehen, das in absehbarer Zukunft Spiele entwickelt werden, um die Hardware größtmöglich auszulasten, statt das diese Spiele Hardwareschonend optmiert werden. Da wird natürlich auch Geld seitens der Hardware-entwickler, zu den Spieleentwicklern fließen.
Sollte dieser Fall wirklich so eintreffen, werde ich diese Spiele meiden, bzw. komplett umsteigen auf Konsolen.

Nur noch zum Schluss, falls irgendein Kiddy meint, ich sei nur neidisch oder sonstwas stupides: Ich verdiene mein Geld schon seit längerem selbst und das so ausreichend, das ich mir Ende eines jeden Monats von meinen übrig gebliebenen Girokonto-Geld locker eine 7800GTX 512MB kaufen könnte.... aber nicht will. Das Geld kann man auch sinnvoller anlegen oder ausgeben, aber ganz sicher lasse ich mich nicht durch die Werbung von nvidia einlullen, mein Geld denen in den Hintern zu blasen.
 
@seesharp

Natürlich hast Du mit deiner Argumentation recht. Die Kunden wollen mehr Leisung und mehr Bildqualität.

Ich sehe in der ganzen Sache nur einen Hacken. Wie weit soll der Energie Verbrauch noch steigen?
Es gibt noch die Möglichkeit, die laufenden Programme zu optimieren. Es gibt dazu diverse Beispiele, dass durch eine Programm- Optimierung eine viel höhere Performance zu erzielen ist. Teilweise mehrere 100%! Leider werden immer wieder leistungs stärkere CPUs gebaut, die den "Datenmüll" unnötig mitrechnen und dabei Energie verbraten! Die Schraube wird sich immer weiter drehen. Wie lange noch?

Die Hardware Industrie freut sich. Dann kommt mein beschriebener PLAN B ins Spiel... (s.o.)
 
@The_Jackal: Wer wird denn da gleich aus den Schuhen fliegen ;)

Fakt ist:

Quad SLI = verdammt heiß, verdammt gefräßig und verdammt teuer bei Anschaffung wie auch Unterhalt.

Das sind, wenn man genau nimmt drei Negativpunkte zugunsten nur eines Pluspunktes - der Leistungsfähigkeit (nicht zu verwechseln mit der Wirkleistung).
 
Jupp! Dass richtige board hab ich ja!

Jetzt fehlen nur noch 2 Quad-Karten! *Ironie* :freak:

Dass ist zwar der richtige Schritt in die Zukunft und auch löblich, aber leider im mom nur was für High-End Verbraucher!
Wie #72 ja schon sagt......
 
seesharp schrieb:
Ich lese hier des öfteren Meinungen, wie "Die sollen das Spiel lieber zuerst ordentlich optimieren..."
Ich denke, daran liegt es nicht, dass Grafikkartenhersteller nach neuen Rekorden jagen.
ne aber umgekehrt, es ist viel grakapower da und so wird nicht merh viel optimiert
Zunächst denke ich einmal, dass kein ernsthafter Spielehersteller es sich leisten kann, eine nicht-optimierte Grafikengine auf den Markt zu werfen. Die Konkurrenz ist groß, die Kunden meist auch technisch interessiert und gut informiert. Spiele sind auch relativ teurer (und werden wahrscheinlich noch teurer). Jede schlechte Engine würde von den Redakteuren einer Spielezeitschrift in der Luft zerissen und das war's dann.
naja nimm medal of honor: pacific assault
die grafik war mehr als scheisse aber derbe hardware fressend

oder fear, die anforderung sind immens hoch, obwohl das an den massen an effekten liegt welche nicht unbedingt schlecht optimiert sind, sondern einfach zu viel sind
ein paar weniger hätten der grafik+atmosphäre keinen abbruch getan
 
Jetzt rufen evtl. wieder einige dass es eine Verschwörungstheorie wären, aber hier ist mein Beitrag zu dem Dilemma:

Wir haben nicht umsonst ATI-Gutscheine in unseren HL2 Verpackungen, Nvidia Logos bei Age Of Empires 3, Unreal Tournament und Spiele die uns automatisch den aktuellen Grafikkartentreiber empfehlen wollen, auch wenn wir keine Karte dieses Herstellers haben.

Es macht vieles einfacher. Der Gafikkartenhersteller bekommt seine Werbung in einem, seiner Meinung nach, beliebten Spiel und der Spielehersteller spart Zeit und Geld, weil er das Spiel nicht bis ins kleinste Detail optimieren muss.

Bestes Beispiel ist die Source Enigne und die Quake Engines.

Es war mögilch Quake 1,2 und 3 auf wirklich schwachen Rechnern zu spielen. Mein Pentium 1 mit 166Mhz und einer Voodoo 1 mit 4MB Ram schaffte es noch, Quake III Arena flüssig darzustellen.

Doom III und Quake 4 sind zwar wesentlich grafikaufwendiger, aber die Karten sind ja auch mitgewachsen und nicht unterproportional.

Ergo: Da wurde mehr Grafikkartenmarketing als Optimierung betrieben.

Beispiel Source Engine:

Eine wirklich mächtige und schöne Engine. Zu anfang sehr performant und flüssig auf fast allen Rechner, der oberen Mittelklasse.
Nun wir es mit jedem Update eine Zitterpartie für Besitzer von Mittelklasserechnern.

Auf einem P4 HT 3Ghz, 1GB 500er RAM, 9800 Pro hatte ich im Dezember 2004 zwischen 70-110 FPS.

Nun mit genau dem gleichen System liegen die FPS an gleichen Stellen bei 35-55.

Ich habe mir sogar die Mühe gemacht, alle Treiber von damals zu installieren.

Es wurde schlicht immer schlechter.
Nachwievor ein schönes Spiel, Counterstrike, von dem ich hier rede, aber dennoch bedarf es etwas mehr an Optimierung.

Oder wurde optimiert, aber in die andere Richtung? :o

Dies ist eine zugegeben abwegige Hypothese. Jedoch muss man sich vor Augen führen, inwieweit die Zusammenarbeit der Hersteller von Spielen und Grafikkarten zugenommen hat.
 
bei source ist die performance wieder etwas besser
im november hatte ich nen drop von ca. 100fps auf 70fps
jetzte sinds wieder 90fps
natürlich jedesmal bei gleichen einstellungen
 
@71: Ich möchte die mehreren 100% Optimierung zunächst einmal gar nicht anzweifeln, aber da muss die ursprüngliche Software extrem schlecht entwickelt worden sein, dass derartige Optimierungen überhaupt möglich sind. Das ist also für mich kein Argument.
In den derzeit auf dem Markt befindlichen Spielen glaube ich nicht, dass derartig aggressive Optimierungen ohne massiven Qualitätsverlust überhaupt möglich sind. Ich glaube nicht einmal, dass bei Toptiteln noch Luft ist, ausser man nimmt Qualitätsverluste oder gar Inkompatibilitäten in Kauf (schlechte Beispiele wird es jedoch immer geben). Im Endeffekt müssen die Daten irgendwie umgesetzt werden: mit viel Kreativität und Know How kann man etwas besser sein als die Konkurrenz, aber die Effektivität kann schlicht nicht über 100% gesteigert werden.

@74: Medal of Honor: Pacific Assault ist tatsächlich ein gutes Beispiel. Ich zitiere gamespot.com: "The Bad: [...] system hog--tough to get smooth frame rates out of this one." Tatsächlich scheint man hier bei der Entwicklung der Grafikengine nicht genug Hirnschmalz investiert zu haben. Die "Rechnung" dafür bekamen die Entwickler mit dieser Bewertung und sicher entsprechend "gemilderten" Verkaufszahlen präsentiert.
Zum Thema FEAR: Das Spiel hat genug Potential, um auch von etwas "schlechterer" Grafik getragen werden zu können, da stimme ich dir zu. Aber dann wäre es gerade mal ein durchschnittlich verkauftes Spiel geworden, dass sich nicht aus der Masse abhebt. Neue Effekte und hoher Realismus sind eben gerade bei Ego-Shootern eines der wichtigsten Verkaufsargumente. Stell dir Half-Life 2 mit der Engine von Half-Life vor. Klar. Technisch möglich, aber im Endeffekt wär's dann ein schlecht verkaufter Titel und kein Top-Titel geworden trotz guter Story, Gameplay, usw. Das hätte die Entwicklungskosten niemals gerechtfertigt.
Bei irgendwelchen Strategiespielen, Rollenspielen, usw. kann ich mir das eher vorstellen, aber die haben ohnehin nie groß mit ihrer Grafikpracht geworben.

@75: Gerade die Games mit Logo glänzen durch hervorragende Optimierung (zumindest für Grafikkarten des beworbenen Herstellers ;-) Glaubst Du tatsächlich, ein GPU-Hersteller könnte es sich leisten sein Logo draufzumachen bei einem Spiel, dass dann eher durchschnittlich performt? Beispiel: Doom3. In Zusammenarbeit mit NVIDIA entwickelt => lange Zeit bei diversen Grafikkartenbenchmarks eine Bank für NVIDIA, obwohl bei diversen anderen Titeln genau das Gegenteil der Fall war.
 
seesharp schrieb:
@75: Gerade die Games mit Logo glänzen durch hervorragende Optimierung (zumindest für Grafikkarten des beworbenen Herstellers ;-) Glaubst Du tatsächlich, ein GPU-Hersteller könnte es sich leisten sein Logo draufzumachen bei einem Spiel, dass dann eher durchschnittlich performt? Beispiel: Doom3. In Zusammenarbeit mit NVIDIA entwickelt => lange Zeit bei diversen Grafikkartenbenchmarks eine Bank für NVIDIA, obwohl bei diversen anderen Titeln genau das Gegenteil der Fall war.

Genau das ist es doch, was ich meine!!!

Einseitge Optimierung bzw. das Gegenteil davon bei Nicht-Vertragspartner.
 
@78: Ich hab dich so verstanden, dass die Hersteller ÜBERHAUPT NICHT optimieren (Motto: Die GPU wird's schon rechnen). Aber anscheinend sind wir uns dann ja doch einig, dass fleissig optimiert wird.
Als Ergänzung: Neue Treiberversionen von ATI verringerten dann wieder den Abstand deutlich (vielleicht aber auch mit Tricks).
 
Zuletzt bearbeitet:
Das tun sie auch sehr oft mitlerweile.

Aber bei den gesponsorten natürlich schon für die spezielle Marke. ;)
 
Zurück
Oben