News Sieben Jahre Nvidia SLI

hatte mal nen gespann aus 2x 8800GTS, mehrleistung lag bei -10% im schnitt :D
 
sieben (!) jahre und immernoch mikroruckler? oh man...
no comment...

hatte noch nie SLI oder CF, aber solange man immer von den Treiberproblemen (grade mit nicht top-aktuellen Titeln) und Mikrorucklern liest werd ich mir das auch net antun.
 
Bagama schrieb:
Da schwelge ich gleich in Erinnerung an meine gute alte 7950GX2. :daumen:

Und die der letzte Mist war :D (ja, ich hatte sie auch!)
 
laryllan schrieb:
Ja ne, iss klar :evillol:

Kopf -> Tisch

Ich bin für die Einführung eines bundesweiten Forumführerscheins (Themenbezogen).
Ergänzung ()

Als was ?

Viele Grüße
Mann, da hat sich wer selbst gepwnt! Aber so richtig! :lol:
(Lies mal deinen Beitrag...und denk drüber nach!)

Naja, wer keine Ahnung hat, der soll mal Hisns Beitrag lesen... Der hat's schön auf den Punkt gebracht. Die Leistung nVidias (als auch ATi's) ist da alles andere als bemerkenswert. (Merke: Leistung=Arbeit/Zeit)

Ich hatte selber 'n SLI-System und kenn die Tücken. Während die Microruckler nicht jeden stören gibt's immer wieder bugs oder nicht vorhandene/miese Skalierung,...
Bloß weil das Game bei (Hausnummer) Crysis gut skaliert und bei den anderen Mainstream-Games heißt dass noch lange ned, dass es was taugt, wenn man vA bei weniger bekannten Spielen entweder keinen Performance-Zuwachs oder vlt. noch Grafikfehler dazubekommt. Am Ende bleibt SLi meist ordentliche Frickelei... mit genug Eigeninitiative funktionierts dann ja meist auch... irgendwie.

7 Jahre Zeit um das brauchbar umzusetzen, sowie: Hybrid-SLI (jetzt nVidia optimus), Abschaltung inaktiver Karten, und dergleichen angepriesener Features gibt's bis heute nicht.
Innovation: wiedermal Fehlanzeige... :(

MfG, Thomas

PS: Mein Comment richtet sich nicht an die Sinnhaftigkeit von SLi und dessen Nutzen (das muss jeder für sich entscheiden), sondern was nVidia in der Zeit draus gemacht hat -und das ist alles andere als lobenswert.
 
Ich hatte die 3870x2. Was für eine grausame Karte!
Da war meine EVGA 8800GTS 640MB ACS3 noch deutlich schneller!
 
HighTech-Freak schrieb:
Mann, da hat sich wer selbst gepwnt! Aber so richtig! :lol:
(Lies mal deinen Beitrag...und denk drüber nach!)

Naja, wer keine Ahnung hat, der soll mal Hisns Beitrag lesen... Der hat's schön auf den Punkt gebracht. Die Leistung nVidias (als auch ATi's) ist da alles andere als bemerkenswert. (Merke: Leistung=Arbeit/Zeit)

Genau lies HisNs Beitrag dazu. ;)

Viele Grüße
 
Ja schon so lange her hatte damals ein 7800GTX SLI Gespann aber nur zum Benschen sonnst war immer nur eine im PC, ja das CF hat leider auch einige Macken die MR bemerke ich nicht aber leider mag AMD keine Treiber für Multi GPU richtig entwickeln hatte schon so schöne Fehler mit der 4870X2 vor allem bei Bad Company 2 und jetzt auch noch wenn der Moni plötzlich in einer Sichtrichtung schwarz wird oder flackert schwarz das nerft aber so ists eigentlich ganz ok.
 
QDOS schrieb:
Wenns wirklich ums Rechnen geht - also NVidia Tesla - dann kümmert man sich eher weniger um die Rechenleistung… - Vor allem da es bis zu Knights Corner keine Alternative zu geben scheint…

Meine Aussage war auch recht pauschal gehalten, da die GFlops/W o.Ä. einzelne Szenarien nicht allgemein einordnen können; d.h. die Rechendauer oder wie man's nennen will.
 
Child schrieb:
Woher kommt diese Newsmeldung überhaupt? Ist 7 Jahre aufm Markt ein besonderes Jubiläum oder wie? Hab ich was verpasst?

sowas nennt man sommerloch-berichtserstattung :d , alle jahre wieder :p

wer in zeiten von stettig steigenden strompreisen eine virtuelle schwanzverlängerung ( á la benchmarks ) braucht, die sich ohnehin halbjährlich überholt, bitteschön.

ich habs 7 jahre ohne verbundgrafik geschafft, und werde auch in den nächsten 7 jahren keine benötigen. dieses frame gejage ist doch was für blagen :evillol:

in der news stehts ja auch, das sich die technik mehr oder minder überlebt hat
 
sli ist schon ganz nett

aber: wenn eine karte zu langsam ist und man sli aktiviert hat man meist mikroruckler

wenn man keine mikroruckler hat kann man normal sli abschalten da dann meist auch einz karte reicht

und dann noch die grafikfehler. zuletzt bei crysis 2. wasser flimmerte da scheinbar das wasser auf den grafikkarten unterschiedlich berechnet wurde
 
Immer dieses ganze nachgeplappere von leuten die keine ahnung haben. Ich hab seit der gt200 ein sli system. Naja, und nun hab ich 3 gtx470. Ich merke keine µR. Kla, strom brauchts, aber leistung hat man mehr als viele andere. Ich finde sli super. Nie probleme damit gehabt. Sollte ein spiel mal nicht gut skalieren, schalte ich im treiber auf afr3 um und dann läufts in 98% aller fälle prima.
 
Also es gibt Leute die Downsampling benutzen möchten, HQ Grafik und oder 3 Monitore plus benutzen.
Und jetzt kommt bitte nicht mit Eyefinity, welche AMD SingleGPU Karte stellt denn ein aktuelles Spiel auf 3x2160*3840 noch spielbar dar? SLI ist nicht für Ottonormal Spieler der mal eben sein 1000€ System inklusive Peripherie hinstellt, sondern eben für Leute die auch von High End sprechen und dies auch tun.
 
7 Jahre am Markt vergeudet...wer's braucht ;D. Sinnlos...^^
 
Kozack schrieb:
Immer dieses ganze nachgeplappere von leuten die keine ahnung haben. Ich hab seit der gt200 ein sli system. Naja, und nun hab ich 3 gtx470. Ich merke keine µR. Kla, strom brauchts, aber leistung hat man mehr als viele andere. Ich finde sli super. Nie probleme damit gehabt. Sollte ein spiel mal nicht gut skalieren, schalte ich im treiber auf afr3 um und dann läufts in 98% aller fälle prima.

Und was bringts dir? Statt mehr Strom/mehr Lautstärke/mehr Aufwand/mehr Kosten/mehr Ruckler?
 
SavageSkull schrieb:
welche AMD SingleGPU Karte stellt denn ein aktuelles Spiel auf 3x2160*3840 noch spielbar dar

Also Duke Nukem, World Of Warcraft, Dirt 3, Team Fortress 2, CSS, BFBC2 u.a. liefen auf einer Single-6970 mit 5760x1080 noch ganz annehmbar flüssig im 40-60 fps Bereich ;)
 
fizzle schrieb:
Und was bringts dir? Statt mehr Strom/mehr Lautstärke/mehr Aufwand/mehr Kosten/mehr Ruckler?

Maximale Bildqualität, downsampling, meine baldigen 3 monitore, crysis 1/2, BFBC2, das kommende BF3, Metro 2033 flüssig spielen und und und...

Reichen dir die gründe?

Und wo soll ich ruckler haben? Hängst du etwa immernoch auf der bahn der achso grauenhaften µR?
Aufwand? Welcher aufwand? etwa der, dass ich manchmal in die nvidiasystemsteuerung muss und afr 3 einstellen muss? Ach gott... was ein aufwand.
 
Zuletzt bearbeitet:
Ich hatte sowohl SLI als auch CFX. Zuerst mit 2 8800 GTX SLI und dann bin ich umgestiegen auf 2 HD4870 auf CFX und vor ein paar Monaten auf die HD6950.

Damals habe ich nen Test nur für mich gemacht. Ich habe zuerst mit SLI das 1. Level von Crysis gespielt. Die Einstellungen waren auf Hoch soweit ich mich erinnere. Ich habe versucht durch Einstellungen in Crysis die FPS etwa auf 30 für dieses eine Level von Crysis zu bekommen.

Dann war CFX drann. Im gleichen Level von Crysis. Außer den Grafikkarten wurde keine Hardware geändert. Und außer höheren Einstellungen in Crysis um wieder die 30 FPS zu bekommen und dem ATI Treiber, wurde auch auf der Softwareseite nichts verändert. Die Einstellungen in Crysis waren auf Sehr Hoch mit zusätzlichen Texturen und einer zu den Texturen zugehörigen Config, die mehr Bildqualität bringt. Das musste sein damit auch die 2 HD 4870 das erste Level mit 30 FPS abspielt.

Mein subjektiver Eindruck nachdem ich das durchgeführt hatte. MR kommen bei beiden vor und die Anzahl hängt ganz und gar nicht von Namen ab. MR waren einfach etwa gleich oft bei beiden.


@ CB ich erwarte beim 7 Jährigen Jubiläum der Crossfire Technologie auch einen Artikel, ansonsten muss ich davon ausgehen das auch die Redaktion von der Zuneigung zu Firmen beeinflusst wird.


Ich bin kein ATI Fanboy die GTX 570 hat einfach nur verloren, weil diese nicht zu einer GTX 580 geflash werden kann, wie es bei meiner HD6950 der fall ist, die ich ja als HD6970 betreibe. Namen sind Schall und Rauch zählen tuen bei mir nur Fakten.
 
Zuletzt bearbeitet:
Zurück
Oben