News Kommt nun auch Quad-CrossFire?

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.352
Nachdem nVidia schon eine lauffähige Version von Quad-SLI gezeigt hat, stellt sich Asus nun anscheinend der Herausforderung mit ATi-Grafikchips. Man vereint anfangs auf einer Grafikkarte namens „EAX1600-DUAL“ zwei X1600-Chips.

Zur News: Kommt nun auch Quad-CrossFire?
 
erster :p
naja ich finde man sollte lieber einzelne grakas entwickelt, die die leistung von 4 oder mehr haben
und ja, wir sind im kindergarten :baby_alt: :hammer_alt:
 
Zuletzt bearbeitet:
die müssens echt übertreiben, was soll ich mit 4 Grakas?
 
:D am besten GPU's mit Prescottkern, damit das system auch schön viel strom zieht...was will ich mit 4 Graka. 2 stück ist ja vollkommen i.o. wenn man leistungbraucht, aber 4 ist nen witz :D
 
So ein Schwachsinn. Die heutige Hardware ist viel zu schnell, und die ganze Software und Games zu lahm. Die sollten lieber besser anfangen zu programmieren, würde ein Haufen Herstellungskosten beim Hersteller ersparen und beim Kuden eine Unsumme an Stromkosten.
 
hehe, und der wahnsinn nimmt kein ende, vllt. noch 8 chips als -> dual-Quad-SLI :king: :evillol: !!!
Und dann natürlich wieder die Antwort von ATI mit CrossFire à la 8 grafikeinheiten... *hehe*
Naja ich seh denn sind nicht dahinter, klar bekommt man für kurze Zeit das Maximum an Grafikleistung, aber nach einem halben Jahr bringt ein einzelner neuer Grafikchip wieder die selbe Leistung wie das SLI oder Crossfire System, also meiner Meinung nach echt sinnlos...

mfG
Mr.Jules
 
also wie volker schon geschrieben hat wäre es echt das ultimative duell wenn man in
diesem jahr noch noch NV und ATI im Quad-GPU bereich antreten lassen kann. am besten
noch mit den flagschiffen. aber sehr interessant dass auch eine multi-GPU karte mit ATI
chips kommt. allerdings hört sich quad-sli doch etwas besser an als quad-crossfire;) bin
aber auch mal gespannt was man so aus den ATIs rausholen kann...

Op0s!T
 
hauptsache die spielentwickler optimieren ihre games nicht für quad, das wär der größte schwachsinn
 
juhuuuuu!!!

endlich quake3 und counterstrike mit 4000fps zockn;)
also ehrlich, 400fps is mir einfach zu ruckelig...:D
 
@6)
Hallo? Hast du schon mal programmiert? Weißt du, was da für Schwierigkeiten auf einen zukommen?
Die heutige Software ist größtenteils hochoptimiert. Das übernehmen mitlerweile die Compiler, weil der Mensch gar nicht mehr in der Lage ist, diese Mengen an Quellcode zu überblicken.

@Topic
Schon wieder 4 Chips -,-
Wer kauft denn das? Oder ist das nur eine Machbarkeits-Studie?
 
Warum Quad Crossfire?! :rolleyes:

Es sind doch nur 2 x Chips auf einer Karte, und wie man deutlich sehen kann ist dies "keine" Crossfire Karte ansich!

Für ein richtiges Quad Crossfire müsste eine der Karten so einen Anschluss besitzen, was bei dem Bild in der News nicht der Fall ist!

15-1080.2067424086.jpg



Ändert mal den Namen der News, ist faktisch total falsch...
 
Zuletzt bearbeitet:
Mh, ich frage mich ja auch wo da die abwärme hinkommen soll?...wenn die karten eng nebeneinander sind und kein dualslot-lüftungssystem ala x850xt haben :freak:
 
Das nennt sich marktwirtschaft, hab ein game gesehen, das 12k groß ist , ja 12k oder so kein mb!! und die texturen können duchaus mit half life 2 und co mithalten.

ok, da ist so gut wie keine physik doch wer sich das mal anschaut, denkt anders über die programmierer, die half life 2 und co rausbringen. leider hab ich kein link mehr dazu, irgend einer von hier hat das gepostet.

Ich will folgendes damit sagen: umso schneller die entwicklung der grafikchips vorangeht, desto weniger achten die Programmierer auf Pervormance! Meine Meinung.:D
 
sowas is doch nur was für leute, die nich wissen wohin mit ihrem geld. :rolleyes:
 
ich glaub das game was du meinst war 96 KBytes groß. Und naja... die Qualität ist mies. Allerdings: für 96 KByte ist es _abnormal gut_.
 
Kann mich eigentlich nur wiederholen, was ich auch in der Quad-SLI-News geschrieben hab:

Sowas ist echt sinnfrei. Und ich kann mich den Leuten nur anschließen, die meinen, dass man da eher Software-seitig optimieren sollte, anstatt immer mehr GPUs zu verbauen...
 
Zurück
Oben