News 3dfx kehrt zurück: nVidia mit SLI

Carsten

Commodore
Registriert
Juli 2001
Beiträge
4.590
Sechseinviertel Jahre nach der Vorstellung von 3dfx' legendärer Voodoo 2-Karte ist es wieder soweit: SLI hält erneut Einzug in PCs. Das damals als revolutionär geltende Feature, welches es erlaubte, mittels Koppelung zweier PCI-Karten die verfügbare 3D-Leistung auf einen Schlag quasi zu verdoppeln, wird mit PCI Express nun auch für GeForce 6-Karten verfügbar.

Zur News: 3dfx kehrt zurück: nVidia mit SLI
 
...bei einem realen SLI würde AA und AF auch schwierig werden (Huch, den benötigten Pixelwert hat ja die andere Graka...)
 
stirbt die hintere grafikkarte nicht einen hitzetod, wen die andere direkt daneben gesetzt wird?
 
hm was soll man davon halten. die punkte sind ja schon mal nicht schlecht 20000 pkt. wenn die jetzt noch 1 slot lüfter auf der ultra benutzen und der preis stimmt ist es eine überlegung wert aber nicht mit der dualslot lösung....ich verbraucht doch nicht 4 slots! wo soll ma dann noch andere karten reinstecken?
 
Heftig! :D


Jetzt weiss ich worauf ich sparen kann! :daumen: :D

*unbedingthabenwill* :D


Das ist ja mal wieder was geniales von nVidia!

Bin gespannt ob und wie ATi kontert....
 
was Nvidia nicht alles versucht nur um Ati zu besiegen. ;)
mal ehrlich... wer kann sich sowas lesiten und vor allem wer brauch sowas ???
nicht nur das durch diesen klopper das ganze mainboard dicht ist sondern auch der stromverbrauch.
is einfach ne erfindung die die welt nicht brauch.
interessant wäre das feature wenn man so 2 low budget karten koppelt...
 
@Shadow86 kontern mit dualchips :D

ne ma in ernst da bin ich auch ma gespannt wie ati darauf reagiert. gibs vielleicht schon gerüchte/infos das ati auch sowas vorhat?
 
Schwach. SLI ist bis jetzt noch das besste/effizienteste was es gibt. Das was die da machen ist nicht das was 3dfx machte. Wenn der obere teil des bildes nur den Himmel darstellt, der untere teil jedoch mit heftigen poly-zahlen und effekten gefüllt ist dann langweilt sich eine Karte nur...
 
@Shadow86 Wieso sollte ATI kontern?

"Inwieweit diese Technologie mehr als nur wenigen Auserwählten zugute kommt, sei einmal dahingestellt. Dass es nVidia ernst ist mit dieser Technik, beweist die gleichzeitige Ankündigung dieser Lösung für die professionelle QuadroFX-Serie (s. auch). Auf diesen Markt, wo der Preis bekanntlich eher eine Nebenrolle spielt, scheint auch das bisher einzig bekannte Mainboard abzuzielen, welches eine auf dem Tumwater-Chipsatz (Intel E7525) basierende Dual-Xeon-Lösung ist, die ebenfalls am heutigen Tage angekündigt wurde und sicherlich nicht den Massenmarkt erobern wird. "

Da steht doch schon, wer diese Grafikkarten benutzen wird. Ich erinnere an die Alienware Systeme, die bekanntlich 5000$+ kosten wenn man die Dual Lösung bekommen möchte...Kaum User, kaum Umsatz, kaum Gewinn. Ist im Grunde nur für Marketing...
 
Ist ja lolig, jetz kann man für überzogene GraKa-Performance sogar noch doppelt soviel Geld verprassen.
aber ich freue mich schon, die ersten PCs mit "Vollaussattung" zu sehen, sieht bestimmt scharf aus. Und die Modding-Industrie wird dann wohl gleich mal Doppel-Kühler und farbig leuchtende Verbindungskabel auf dem Markt bringen (Hm, eigentlich gute Ideen, welch' Verschwendung,...)
 
Na darüber werden sich die Labore der Welt und Render Farmen (insbesondere deren Geldgeber)
Freuen, wenn nu solche Lösungen wieder auch offiziell in Serie angedacht.

Wobei ich nu nicht hoffen möchte das sich etwa Spiele Hersteller darauf einschießen?!

Ich hätte keine Lust mir solche (allgemein) Stromfresser ins Private zu holen, das wäre mir hier
dann doch ein wenig übertrieben.
 
ATI brauch nicht und wird auch nicht reagieren. Wer tut sich den nu sowas überhaupt rein?
Alleine der Preis für sowas....oh graus.
Grad bei Nvidia, wo die Grakas schon 2stöckig sind. Wie Zifko schon andeutet...das is doch Overkill.
Wenn man von derzeit 6 Ports (1x AGP + 5x PCI) ausgeht, die sich ähnlich dann in 2x PCI-X und 4x PCI-NORMAL wiederspiegeln, dann bleiben mir noch stolze 2 Ports über, die dann sogar im Worst-Case mit anderer Hardware konkurrieren.

Beispiel: Wer also dann noch Wert legt auf richtig gescheiten Sound, der brauch eine Soudkarte.
Wer dann noch Video Aufzeichenen will, brauch noch ne TV-Karte. Und wer dann noch ein zusätzliches Raid, oder Lan oder oder oder brauch...der schaut schon in die Röhre. Also als richtig nutzbarer PC wäre solch ein Nvidia-SLI-System meiner Meinung nach nimmer zu bezeichnen.
Als reine Zocker-Kiste...bitteschön. Aber dann denk ich mir, das eine Xbox2 schon spottbillig sein wird im Vergleich.

Dann wäre da noch das Thema der Abwärme und des Stromverbrauchs und des Netzteils. Evtl dann sogar noch die Belastung für den/die Datenbusse.

Rodger
 
Gary schrieb:
@Shadow86 Wieso sollte ATI kontern?

Da steht doch schon, wer diese Grafikkarten benutzen wird. Ich erinnere an die Alienware Systeme, die bekanntlich 5000$+ kosten wenn man die Dual Lösung bekommen möchte...Kaum User, kaum Umsatz, kaum Gewinn. Ist im Grunde nur für Marketing...

Alienware LEBT von sowas, also erzähle nicht die würden kein Gewinn machen und kein Schwein würde soetwas kaufen.
Sobald das passende Board verfügbar ist, ist sowas meine Maschine!
 
Wenn das wahr ist, ist ja wahnsinn. Bei zwei Ultras möchte ich mal das Netzteil sehen.

Tut mir leid, aber man merkt letzte Zeit wirklich , das die 3Dfx Ingenieure eingestellt haben, das werden immer größere lautere Monster und das jetzt sogar mal zwei.

Ich könnte mich höchstens mit einer GT anfreunden, wenn die mal für weniger als 300 Euro zu haben ist und dann auch nur wenn da ein Arctic Silencer 2 drauf ist.
 
Also wenn die Technik auf so ziemlich allen zukünftigen nVidia-Produkten zu finden ist, und auch entsprechende Chipsätze vorhanden sind - dann könnte sich die Technik durchaus etablieren.

Nur die größten Brocken im "SLI" wird wohl etwas teuer ;)...
 
Also wenn heute 1. April wäre, dann wäre es ein eindeutiger Fall ;)

Was mich aber wundert , ist folgendes:

1. Ist der PCI-Express 8x genauso lang wie PCI-Express 16x ... ich meine nein.

2. Nur PCI-Express 16x soll bis zu 75 W maximal liefern können, alles was darunter liegt hat eine Grenze von 25 W.

3. Wenn NVIDIA davon ausgeht verschiedene Formate (16x und 8x PCI-Express) auszuliefern, dann müssen doch auch entsprechende Mainbords da sein, bzw. in Planung .

4. Hat da NVIDIA für den NFORCE3 etwa zusätzlich Fremdbridges wie den AMD AMD-8151 in Planung? Is ja an sich leicht theoretisch denkbar.

5. Fühlt NVIDIA den heissen Atem von ATI zu sehr? ... So dass sie sich auf MP-Konfigurationen werfen? An sich haben sie immer gelästert über die Konkurrenten (ATI, SIS, 3dfx) die Mehrfachlösungen auf einer Karte hatten.

... was mich aber wirklich beschäftigt ist die Version für PCI-Express 8x ... momantan könnten solche Lösungen vollkommen ausreichen. Sind die derzeitigen PCI-Expresslösungen 16x aufspaltbar in 2x 8 Lanes statt 16 Lanes?

Fragen über Fragen ...

MFG Bokill
 
Zuletzt bearbeitet:
Krasses Pferd^^, naja so ein "Gertät" würde ich auch gern haben :D
aber die werden das bestimmt nicht verschenken!
wir werden es sehen, wie teuer es ist und was ati dolles raus bringt hoffentlich auch was schönes :)
mfg
Mäx
 
@Bokill: es sollte kein Problem sein, ein X1-Slot in X16-Format zu bauen, nur wäre hinter den ersten Kontakten sehr viel sinnfreies Plaste ;). Offenbar kann der PCI-E-Controller von NV sich bis auf 2 Kanäle runterschalten.
 
:D ...was für ein dünnschiss wieder verzapft wird..
es ist unnötig, wer braucht sowas, viel zu teuer, verschwendung ....ist klar das was jeder aber drin hat ist die krönung aller computerherzen, gell. wieso sich alle immer gezwungen fühlen dies zu kaufen :rolleyes:

wahrscheinlich hat nvidia ein patent drauf, d.h ati wird die performancekrone wohl länger abgeben müssen.
 
Zurück
Oben