News Alienwares Video-Array-Technik enthüllt

find ich acuh zu teuer...
da greif ich doch lieber auf ne 440mx zurück...
cYa
 
Das Board ist doch dann nur mit PCI-X slots augerüstet oder?
Nehmen wir mal an das ich 2x die leadtek 6800 mit ihrem "Kühlturm" einbauen will... die alleine brauchen schon massig platz... mindestens 2 slots unter der karte kann ich dann nicht mehr benutzen... *g* am besten 3 damit die kühleung auch effektiv ist...
 
Sorry aber ist heute der 1 April ? Ich kann mir nicht vorstellen das dieses System einwandfrei funktioeniert ! ATI und Nvidia Graka Treiber auf einem System ?! Nie im leben und wie soll das funktionieren mit dem Bild teilen dafür ist man bestimmt an diese Sofware gebunden und das funtzt zu 100 % nicht richtig !
 
Krass ist das aufjedenfall. Aber um so ein System zu bekommen "muss" man sich ja mehr oder weniger erstmal ein Alienware-System kaufen. Das fängt dann so ab 2999€ an, na viel Spass.

Trotzdem, die Leistung, falls es denn wirklich funktioniert und die Arbeit kollektiv geteilt wird, wäre enorm.
 
Also von den Treibern her seh ich kein Problem, wenn ATI und NVIDIA gemischt werden. Ich hatte mal ne GF4-Ti 4200 (AGP), ne Radeon 7500 (PCI) und ne Matrox Millenium (PCI) in einem System. 4 Monitore dran und 1 TV, hatte keine Probleme und hab überall die neuesten Treiber benutzt. Ich sehe die Vorteile eigentlich nicht so sehr in der Funktion, die Grafikleistung auf einem Monitor zu vereinen, sondern auf mehreren Monitoren eine sehr hohe Grafikleistung gleichzeitig zu bekommen. Der Preis ist sicherlich hoch, aber viele Computerfreaks stellen so einen PC vor den Wert eines Autos (wie ich z.B.), und da kommt der PC vom Preis her net schlecht weg ;)
 
Was mich eigentlich viel mehr als der Preis interessieren würde, hat das ganze den "lohnenswerten" Einfluss auf die Frames bei Spielen?
 
öhm
eine 6800ultra "braucht" ein 400 watt netzteil, ahja, dann sind wir im dualbetrieb scho bei nem 800er

wenn ich jetzt noch nen zweiten prozi reinsteck, noch n bissl ram, n dvd-brenner, 2-3 festplatten usw

btw, wo kann ich mir n kilowatt netzteil bestellen?

das nimmt schön langsam abstrakte formen an das ganze........



kann mir auch nicht vorstellen dass die technik treiber/karten-unabhängig ist, zwecks der effekte usw
einfach gesagt nvidia und ati rechnen komplett anders

wär wahrscheinlich auch nicht möglich einen p4 und einen tb zur zusammenarbeit zu bewegen...

von daher, heiße luft

ciao
televon
 
Wieso man kann doch eine INTEL und eine AMD CPU haben?
Win XP erkennt beide und teilt die Rechenkraft (mehr oder weniger gut) ein.
Das Problem würden nur die Chipsätze sein, bei Grafikkarten hingegen braucht man keinen extra herstellerspezifischen Chipsatz auf dem Mainboard.

Bei Spielen könne es ja sein das Oben ein Effekt zu sehen ist und unten dann nicht mehr, weil ja viele Spiele spezifische Einstellungen haben, könnte es damit Probleme geben.
Spiele wie FarCry erkennen die Grafikkarte und stellen dann die Optimierungen ein, bei 2 Karten müsste es eine Primäre geben und die andere muss dann auch alles tun was die Erste macht. Und wenn die Zweite den Effekt nicht beherrscht, dann k.a.?

Andererseits konnte ich mal den NVidia Effektbrowser auch mit einer ATI Karte benutzen.
Das war zu Geforce 3 Zeiten, meine 8500 konnte ja jeden DX8 Effekt auch ausführen, da die Standards gleich waren und auch heute noch sind.
Das ging natürlich nur bei DX bei OGL war natürlich sense, hoffe das es mit OGL2.0 besser geht. NVidia ist doch nicht wirklich ausgestiegen oder?

Heutzutage mach jeder sein eigenes Süppchen, vor allem immer dieses 9.0+ oder 9.0++, warum nicht gleich 9.½+?
Darum würde ich doch lieber beide Karten vom gleichen Chiphersteller bzw. gleich die gleiche Karte kaufen.
 
anscheinend geht das nicht mit den verschiedenen cpus, sonst hätte es ja jemand schon gemacht

fsb, speicher, cache etc, wenn du das alles anpassen musst auf die langsamere cpu dann kannst dir gleich eine einzige einbaun

deshalb mein ich dass das ein schmarrn is :/
leider

ciao
televon
 
boahh, wenn ich mir überlege, meine 9700pro so 25% und noch ne neue x800 XT, die 75% der arbeit übernimmt, wär bestimmt ne fette sache!!
 
???????????????????????????
???????????????????????????
???????????????????????????

Aber Hallo ??????

Wäre es nicht wesentlich sinvoller und kostengünstiger 2 GPUs auf
ein Graphikkarte zu pflanzen (gabs ja schon Vodoo 5500 und ein von Ati)
anstatt 2 Karten zu verbauen?

???????????????????????????
???????????????????????????
???????????????????????????
 
dann hast du aber nur einen BUS auf dem 2 GPU's sitzen, so hast du 2 voneinander unabhänige BUS... das ist ein himmelweiter unterschied..
 
NaturalSound schrieb:
dann hast du aber nur einen BUS auf dem 2 GPU's sitzen, so hast du 2 voneinander unabhänige BUS... das ist ein himmelweiter unterschied..

Da ist in einem Jahr kein Unterschied mehr, dank PCI-E



bzw. wärs jetzt auch kein großer Unterschied, der AGP-Bus wird ja jetzt nocht nichtmal voll ausgelastet ?!

ciao
televon
 
find ich echt ziemlich cool :-)
erinnert an alte 3dfx zeiten wo man sonst wie viele karten extra kaufen konnte und noch ram draufstoepseln und solche sachen, hach ja, 3dfx das waren zeiten :)
 
Das gibts seit heute auf pcgames.de zu lesen:

Gamespot zufolge veröffentlichte Alienware 3DMark2003-Ergebnisse, nach denen der mit zwei Geforce-6800-Grafikkarten bestückte Rechner erstaunliche Resultate erzielt. Alienware ließ ein Testsystem mit einem 3,4 GHz Intel Xeon gegen die gleiche Konfiguration mit nur einer Geforce 6800 antreten. Die Dual-Card Lösung schlug bei einer Auflösung von 1600x1200, 8xAA und 8xAF den Rechner mit nur einer Karte um satte 77 Prozent (3.105 3DMarks zu 1.758 3DMarks). Bei 1600x1200 und 8xAF lag der Rechner noch 42 Prozent vorne (8,538 zu 5,992).

Echt beeindruckend! :daumen:
 
Gibt's auch bei Tomshardware: http://www.tomshardware.com/hardnews/20040618_201209.html

Na je, wer es sich leisten kann, 2 solche MonsterGraKas zu kaufen, wird damit sicher ne Weile keine Performance-Probs mehr haben.

Jetzt bräuchte man nur noch Benches, in denen verglichen wird, ob es 2 FX5900XT mit ner 6800 aufnehmen können.
 
Jo, das mit den günstigeren Grakas wär interessant! R9800Pro bekommt man ja schon um ~180€ und ich könnte mir durchaus vorstellen, dass sich dann eine 500€ Graka geschlagen geben muss ... naja ... ich könnts mir vorstellen - nix weiter :D

Man merkt aber an den krankhaft hohen Benchmarkeinstellungen, dass die Technik nur was bringt, wenn die reine Grafikkartenpower benötigt wird.

Wenn man realistischen Werten für brandneue Spiele rechnet (also sowas wie 1024*768, 2*AA, 4*AF) wird die Technik wohl kaum ihr Geld wert sein.

Naja, dauert wohl noch ein paar Wochen oder Monate bis wir mehr wissen! ;)
 

Ähnliche Themen

Zurück
Oben