Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Naja, dass die 3870 sich hinter der GT einreihen wird, war ja abzusehen. Wenn dann aber der Preis stimmt ist die Karte dennoch interesant, weil guter Kühler, Bildquali und vorallem sparsamer.
Also dieser THG-Test ich weiß nicht recht, der beste Test ist es jedenfalls nicht!
Bei Bioshock z.B. ist die GT deutlich vor der ULTRA bei denen ... Und wer hat den Jungs gesagt, dass es eine gute Idee ist, Vista und XP Benchmarks in einem Diagramm zusammzufassen ... unübersichtlicher geht es ja kaum noch. Naja ich weiß schon, warum ich die Seite, im Gegensatz zu früher, nur noch sporadisch frequentiere. Wirklich traurig was aus THG geworden ist ... obwohl die Formkurve ja schon lange nach unten zeigt.
Sorry, aber ich finde die Karte nach allem was man so im Netzt sieht, richtig gut!
Der Idle-Stromverbrauch auf Höhe einer 8400 ist eine echte Erlösung für all dijengen, die ihre Stromrechnung auch zu bezahlen haben und ansonsten mit UVD ausgerüstet auch für Multimedia interessant.
Jetzt fehlt nur noch ein sehr guter Passivkühler und es w+rde mir sehr schwer werden der Versuchung zu wiederstehen, obwohl ich aus Erfahrung eigtl. Nvidia bevorzugt hätte...
Das die Karte mit AA,AF und bei höheren Auflösungen nicht mehr so stark einbricht wie die 2900XT finde ich haben die richtig gut hinbekommen.
Sie ist jedenfalls eine gute Alternative zur 8800GT.
Bestimmt kommt dann der R700 in 45 oder 35 nm mit 320 Streamprozis, 256Bit Speichernabindung (eventuell etwas weniger), 16 Rops, 7XXmhz Chiptakt und 1000mhz(eventuell etwas mehr) Ramtakt (+DX10.2 Unterstützung) für 100 Euro in den Handel (so in 1-2 Jahren).
Bis dahin giebts dann Mainboards mit 8 PCIE Steckplätzen.
Du solltest eine massiv übertaktete GT nicht unterschätzen Und das die Jungs die Performance in Vista und XP miteinander Vergleichen find ich auch klasse.
Grenzt ja bald wirklich an einen Glaubenskrieg, wie hier teilweise Unwahrheiten, alte Infos und sonstiges auf beiden Lagern gegeneinander antreten
Wenn ich bedenke wie in der Vergangenheit jahrelange Kriege wegen etwas nicht existenen geführt wurden, ist es vielleicht in 100 Jahren (sofern sich diese beiden Hersteller halten, oder sich dann andere Lager gebildet haben) in einer voll digitalisierten Welt, der Hersteller für das virtuelle Wohl ein Grund einen (Glaubens)-Krieg zu führen?
Weiß jemand, welche Grafikchip-Hersteller die Grafikchips für die ganzen Spielekonsolen liefern...?
Nicht zufällig AMD/ATI...?
Das könnte nämlich unter Umständen erklären, wieso die HD3870 bei Rainbow Six Vegas so gut abschneidet: Das PC-Spiel ist ja ne Konvertierung der Spielekonsolen-Variante. Wenn ATI für die Konsole(n) die Chips produziert (zumindest für die aktuelle Generation), dann würde das erklären, wieso bei Rainbow Six Vegas die ATI-GraKa's die Nase vorn haben.
Is nur ne Vermutung...
Und was Crysis angeht, so schließe ich mich einem der Vor-Poster hier an:
Crysis ist nach Logo erstmal n nVidia-Spiel. Wundert mich prinzipiell also nicht, wenn eine ATI-Karte damit ne schlechtere Performance hat. Wenn Crytek und nVidia sich da n Kuchen teilen wollen, wären sie ja auch schön blöd, das Spiel dann im ersten Schritt auch für ATI zu optimieren. Ganz zu schweigen davon, daß man als Verschwörungstheoretiker auch glauben könnte, daß der beinahe zeitgleiche Veröffentlichungstermin der 8800GT und von Crysis kein Zufall sein kann...
Da kommt bestimmt noch Abhilfe nach - entweder in Form von Spiele-Patches, oder in Form von optimierten ATI-Treibern.
also die PS3 hat imho nen nvidia chip der noch auf dem g70 basiert. xbox ka.
Finde die karte top - der performance rückstand ist so klein dass man ihn subjektiv in der regel nicht merken wird. Dafür eine sehr leise, sparsame und kühle karte die etwas günstiger ist und dx10.1 unterstützt.
Und im gegensatz zur GT wird die so wie es aussieht in kürze auch wirklich verfügbar sein.
also die PS3 hat imho nen nvidia chip der noch auf dem g70 basiert. xbox ka.
Finde die karte top - der performance rückstand ist so klein dass man ihn subjektiv in der regel nicht merken wird. Dafür eine sehr leise, sparsame und kühle karte die etwas günstiger ist und dx10.1 unterstützt.
Und im gegensatz zur GT wird die so wie es aussieht in kürze auch wirklich verfügbar sein.
Der Chib der Xbox war nen Nvidia Chip auf der GF3 basierend, die Grafik in der Xbox360 stammt von ATI.
Nicht das ich das grundlegend wüsste (hatte noch NIE ne Console, ausser nem Gameboy), aber das mit der 360 hab ich vor kurzem hier gelesen, und mit der Xbox eben auf wikipedia.
Soso, ich habe mich dann auch für die 3870 entschieden und werde mich einfach mal überraschen lassen... habe ich meine 8800GTS ja grade noch im richtigen moment verkauft... in 1-2 Monaten werden die sicherlich nicht mehr als 180,- gebraucht wert sein.
Eine 8800GT oder 3870 stellte auch ich mir als Frage!
Ich habe mich wegen der besseren Verfügbarkeit und des günstigeren Preises wegen für die 3870 entschieden... selbst wenn hier einige VK-Preise einer 8800GT unterhalb von 200,-€ anführen so sind sie sicherlich nicht Lieferbar... Lieferbare Karten habe ich in den letzen Tagen nur selten unterhalb der 260,-€ entdeckt uind somit geht der Performenceunterschied zur 3870 beim Preisunterschied von 50€ völlig in Ordnung.
Ich erwarte meine erste AMD-Karte in meinem Zockerrechner mit freuden... bin was Nvidia und ATI angeht immer sehr ausgeglichen gewesen...
GF 4200ti
X800GTO
6800GT
X1950Pro
8800GTS
und in bälde HD 3870
Die Stromtests kapier ich auch nicht, mal ist sie im Idle genauso wie die GT, in anderen Tests ist sie im Idle ca. 15-20W unter der GT... Dabei sind gerade Stromtests doch etwas wo man recht wenig falsch machen kann!
Bei mir wirds scheinbar auch die 3870 werden, sofern sie sich in den nächsten Tagen bestellen lässt!
Die Stromtests kapier ich auch nicht, mal ist sie im Idle genauso wie die GT, in anderen Tests ist sie im Idle ca. 15-20W unter der GT... Dabei sind gerade Stromtests doch etwas wo man recht wenig falsch machen kann!
Wer weiss.. die einen nutzen Geräte um den Verbrauch explitzit zu messen, und die anderen schauen sich vielleicht die drehende Scheibe am Stromzähler an, und rechnen im Dreisatz?