Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Warum: Weil Du dann den SLI-Problemen aus dem Weg gehst.
Und ich würde es mit dem 500W-Netzteil versuchen bevor Du auf gut Glück ein neues kaufst. Sind ja nur 100 Euro "auf Verdacht".
Warum soll man eine gute Karte nicht mehr empfehlen? Weils einen etwas schnelleren Nachfolger gibt, der etwas schneller ist, dafür aber auf ein minderwertigeres PCB hat?
Naja, die GTX280 hat imho nicht ausgedient. Das ist eher ne Newa für FPS/Euro Käufer. Ich bin gerne bereit, mehr zu bezahlen, wenn es dafür was qualitativ Höherwertiges ist.
Doch, die 280 ist qualitativ deutlich hochwertiger. Ich kann mir nicht vorstellen, dass sich die 285 lohnt. Mit einer guten Kühlung und Undervolting ist das eine sehr gute Allroundkarte.
@Farmer
Das war ehrlich gemeint.
Ich musste für meine 280GTX ein neues Netzteil anschaffen, während mein Nachbar der Praktisch einen identischen Rechner zu meinem hat sein altes mit einer 285 weiterbenutzen konnte.
Du kannst ja sagen, dass ich doof bin. Aber son lustiger i7 hat doch ne TDP von 130 Watt. Zusätzlich noch ne GTX280, die rein technisch maximal 275 Watt verbrauchen kann. Großzügiger Weise geben wir dem Board (die PCIe Schnittstelle ist bei den 275 Watt bei) nochmal 50 Watt (inklusive Festplatten und Lüfter). Dann sind wir bei 455 Watt, die das System aber im normalen Spielbetrieb nie erreichen wird.
Du hattest vermutlich das Problem, dass du noch 500 SSDs, 30 Ramdisks und ne Pumpe angeschlossen hast^^
Nein, ich vermute das Problem das die 280GTX ihre Spannungs-Anforderungen so blöd stellt das mein altes 550W BQ (hatten übrigens viele Leute mit den BQ-Dingern) nicht liefern konnte. DAS ist alles. Und DAS macht die 285er nicht mehr. Ich bin mir durchaus im klaren das es nicht an der Leistung liegt. Da es mit der 9800GX2 die MEHR Leistung als eine 280 zieht funktionierte. Und zwar volle Kanne übertaktet und ich hab zum testen sogar alles was nicht gebraucht wurde ausgebaut.
Öh und weiter^^ Ich dachte ja, dass Ampere Watt durch Spannung ist. Aber das würde bei meiner Karte ja nicht hinkommen, oder hat Rivatuner so derbe Auslesefehler (hab da vorher nie drüber nachgedacht)?
15 Ampere wenn ich richtig rechne.
Ich hab keinen Plan was Rivatuner anzeigt, allerdings haben wir beide auch keinen Plan wie die xbitlabs messen und vor allem WAS sie messen *g*
Die haben bestimmt Furmark noch nicht entdeckt, und ich frage mich ob das ein PEAK-Wert ist oder vielleicht über 10 Minuten gemittelt.
Aber sie sind konsistent (hoffe ich jedenfalls) und so hilft es beim vergleichen.
Oder hast du die Funktion. Ich wurd damals nämlich von urmel derbe gebasht, weil ich als irgendwie als Einziger die Funktion im RT hatte, die Ampere anzeigen lassen zu können http://s10.directupload.net/file/d/1638/h74umc9d_jpg.htm
Edit: Das war damals im ganz normalen Windows Betrieb.