Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Also naja ich muss schon sagen das is ein schwaches stück von nvidia!! Eigentlich vom Prinzip alt mit dem GX2 und 2 x den 8800 chip...... wer weiß was die kostet wenn die rauskommt.... bevor ich mir den mist kauf hol ich mir ne 2te gtx oder warte auf ne 9900 oder so weil was will ich mit nem alten chip nur a weng neu aufgemacht^^
ich finds nicht so schlecht das die grafikkarte nicht so viel mehr power hat den so werden die spiele vielleicht mehr aus den karten rauskitzeln nicht so wie crysis das eh erst für spätere grafikkarten gemacht wurde.
Ich fine die Karte vom Ansatz her und vom jetzigen Standpunkt aus betrachtet einfach nur eins : Schrott .
Hat ganz einfache Gründe :
1. Baue ich eine wahnsinns-Shader-Leistung auf , aber jage diese nur durch ein 256 bit Interface auf 512 Ram die genutzt werden . (Die Karte hat zwar 1 Gb Ram , aber aufgrund von SLI können halt nur reel 512 MB genutzt werden , da jede Karte selber die gleiche Datenmenge speichern muss , somit halbiert sich auch das Interface) . Jeder weiß aber , dass 512 MB und 256 bit bei einer 8800 GT schon hart an der Grenze sind . Also dürfte die Mehrleistung überschaubar sein .
2. Die Länge , viele werden dafür ein neues Case brauchen .
3. Die Abwärme , das Ding wird unter Last locker über 200 Watt ziehen .
4. Und das alles für mindestens 500 €???
Punkt 2 , 3 und vll. 4 könnte man verkraften , wenn nicht Punkt 1 wäre .
Wenn dann hätte man die 2 Chips über einen 512 bit Ringbus an 1 Gb GDDR4 anbinben müssen , und zwar 1Gb die dann auch genützt werden können . (siehe HD 3870 X2 die ja angeblich so aufgebaut sein soll. )
Du sprichst mir voll aus der Seele^^.... Ich hoffe diese Karte ist nur ein Gerücht!!! Also größeren mist kann man net Fabrizieren vorallem nichts aber auch garnichts ist an dieser Kartze neu!!! Das muss man sich vor Augen halten.... GX2 ist alt und 8800Gts Chips sind auch nicht neu!!! Eigentlich ziemlicher beschiss...... Aber vielleicht hat man Glück und die Gtx werden Billig und die anderen und dann kann man sich davon auch 2 Leisten.... Weil ich denke besser als 2 Gtx oder 2 Ultras is da teil nicht!
Jaja die Gerüchteküche...
Würde mich wundern wenn genau so eine Karte erscheint, vor allem als 9800 GX2. Es fehlt noch die 89xx Serie, würde mich wirklich wundern wenn nVidia die auslässt.
Und selbst wenn die Karte so erscheint, dann könnte es durchaus nur eine Zwischenlösung sein. Zwei PCB's aneinander zu klatschen und nen Kühlsystem drum herum zu basteln ist schließlich nicht so aufwändig, ergo auch nicht so teuer. Es könnte also durchaus ein weiterer Versuch sein (man erinnere sich: 8800 Ultra, eigentlich ja auch nur Schutz vor einer möglichen Übermacht des R600) die Performance-Krone zu behalten, und sich gegen die nahende HD 3870 X2 durchzusetzen.
Und wenn man sich nVidias Ergebnisse fürs letzte Jahr anguckt... genug Kohle für eine Zwischenlösung haben sie. Auch wenn die nur für ein paar Monate und als reines Prestige-Objekt gedacht ist, um die Performance-Krone zu behalten.
Ich halte es also durchaus für realistisch das dieses Jahr dann auch noch der G100 erscheint, vielleicht sogar nur kurz später... vor allem wenn ATi im 2Q'08 mit dem R700 ordentlich Dampf macht.
Soweit...
@acmilan1899
Gleicher Trick wie bei der HD 3870. Der (R670) war im Endeffekt auch nur eine neue Revision des R600. Da aber die HD 2900 XT einen recht schlechten Ruf hat, hat man sich bei ATi für den neuen Namen entschieden.
Denn der suggeriert dem Kunden, das sei die nächste Generation. Und die muss dann ja schneller sein...
Und so machts nVidia dann auch. Packt zwei Chips der "alten" Generation auf 2 PCB's und schreibt 9800 GX2 drauf.
Wobei ich immer noch bzweifle das die Karte mit diesem Namen kommen wird...
Also jetzt mal ehrlich? Was limitiert Crysis denn mehr? Die Grafikkarte oder die CPU? Angeblich soll das Game ja von Multicore-CPUs profitieren. Die erschwinglichste und gleichzeitig schnellste CPU ist z. Zt. wohl die Quad 6600 (@ mind. 3GHz). Wenn ich mir jetzt 2 dieser Mega-VGA-Teile aufs 780er Board haue, läuft Crysis dann wie es soll oder muss man doch auf schnellere CPUs warten und könnte mit nem normalen SLi hinkommen? Aktuell läuft das Game jedenfalls mit 2 Ultras und nem Quad 6600 (@3GHz) nicht in Full-HD mit Max. Ich denke, dass sich das mit diesem Board auch nicht ändern wird, wenn Intel nicht endlich schnellere CPU aufn Tisch legt. Die Frage, die wir uns hier stellen sollten ist nicht Nvidia oder ATi, bzw. AMD oder Intel, sondern wann bringen Nvidia und Intel endlich fähige Teile auf den Markt, dass ein Game wie Crysis endlich in Full und Max laufen kann? Welches Spiel hatte eigentlich zuletzt soch einen Vorsprung vor der Hardware?
Zu wenig VRAM, zu wenig Bandbreite, horrender Stromhunger, riesen Ausmaße und sack teuer -> Applaus!
Von der üblichen Namensverarsche abgesehen. Ich freu mich schon auf Benches wo eine (!) 8800Ultra schneller ist.
Bevor ich mir die GX2 kaufe, kauf ich mir lieber ein SLI-Board, verkaufe mein p35 Board und kauf mir fü+r 350,- Euro noch eine GTX. Desweiteren laufen viele Spiele mit der GX2 garnicht.
Die wollen doch nur mal wieder ihre Kunden verarschen und denen das Geld aus der Tasche ziehn!
Nvidia bringt mal wieder richtig was neues raus und nicht immer nur so was rumgewurschteltes weil sie einfach was bringen wollen!
Wie ist das mit dem Ram eigentlich bei der HD3870X²?
Immerhin scheint es bis jetzt so dass da alles auf einer Karte ist, kann man da den Speicher nun x2 nehmen oder bleibt das bei 512MB? ^^
also ich würde mir die sowieso nicht holen. erstens extremer verbrauch... zweitens... kein echtes GF9er modell also ohne 10.1 DirectX... viel zu lang und zu groß.... baue doch nicht den festplattenkäfig dafür aus... und zweitens skalieren diese karten nicht wirklich so gut... crytek arbeit deswegen an nem patch... sli performance schlecht. also auch bei der karte. verstehe nicht wie sie das vermarkten wollen... da wird ne ati/amd karte interessanter... gerade auch weil ati die karten mit ner art powernow technik versehen wird. sprich nur viel leistung verlangt wenn sie auch gebraucht wird. bei nvidia warte ich immer noch auf einen treiber der das ermöglichen soll... gabs es sogar hier mal diverse ankündigungen...