News Radeon 4870 25 Prozent schneller als 9800 GTX

Der Stromsparmodus soll im Idle unter 20 W betragen, da der Rechner wohl öfters im Idle ist, ist das glaub ich Umweltschonender ;)
 
GeForce 6, 7 und 8 waren ihren Vorgänger jeweils DEUTLICH überlegen... 25% sind wahrlich nicht viel.

Und was den Preis angeht, so warten wir doch bitte erstmal die Straßenpreise ab.
Und ich bezahl lieber 500€ und bekomme dafür anständige Leistung, als 250€ für eine AMD die kaum schneller ist als meine aktuelle - wie sinnfrei ist das denn?!

Ja AMD Fanboys, stimmt ruhig alle negativ weil ich was gegen "euren" Hersteller sage... dieses Bewertungssystem hier gleicht mehr einem Kindergarten :rolleyes:
 
Zuletzt bearbeitet von einem Moderator: (gelöschter Beitrag wiederhergestellt)
Ich nenne das mal stromsparend, immerhin hat sich die leistung der GPUs verbessert, aber die Leistungsaufnahme ist mit 110W identisch geblieben!
Das die 4870 160W benötigt und somit 50W mehr lässt sich vermerzen.
 
bei dem ganzen sollte man auch nicht vergessen
das der RV770 (4850/4870)nicht gegen den GT200 (GTX 260/280)
antreten soll.

gegen den GT200 (GTX 260/280) wird der R700 (4870 x2)
antreten
 
Egal ob Single gegen Dual, was zählt ist (für die meisten) der Preis. Und da werden die auf einem ähnlichen Niveau liegen. Also macht ein Vergleich 4870x2 vs. GTX 280 schon Sinn.

Und ich denke auch, dass Nvidia kleinere "ableger" des GT200 bzw. den G96/G94 rausbringen wird, die weniger Kosten werden, und gegen die ATI karten antreten. Und da wird wahrscheinlich das P/L-Verhältnis auch gut sein (siehe 88gt). Mal sehen, wie der "Krieg" (^^) in der Mittleren Leistungsebene ausgehen wird ;)
 
Wenn die 4870 25% schneller ist als die 9800GTX wie schnell ist dann die 4870x2 mit
1Gb oder 2GB DDR5 und wird die x2 Graka 1x512bit oder 25x512bit Speicherinterface haben.

Die ersten Grafikkarten kommen eh alle mit Standarttakt, die verschiedenen Hersteller werden die RV700 sowieso ein bisschen OC.
 
Unyu,Unyu,Unyu, bist du immer noch sauer auf Wolfgang wegen den Multicore Test oder was ist heute los? Wir sind doch sonst immer einer Meinung...
Du sagst mir also das es bei 8600 256,512,1024, 9600GT 512,1024,2048 etc. etc. kein Problem ist weder vom Speicher noch von den Kosten das ganze zu realisieren und bei den den High End Karten, die sowieso schon mehr Performance haben als die Konkurenz es ein Kostenfaktor ist 1GB Vram zu verbauen, was die Karten noch attraktiver machen würde?
Das haben doch die Hersteller in der Hand welcher Gddr 3 verbaut wird der übrigens sehr günstig ist wenn man nicht den schnellsten nimmt, warum tun sie es also nicht wie sie es schon so oft gemacht haben, ka.? NV hat ein Verbot ausgesprochen von dem wir nix wissen!
 
Zuletzt bearbeitet:
Les mal bissl genauer.. sie hat einen Vorsprung zum Aktuellen Topmodell von Nvidia, welches die 3870 in ihre Schranken verweist. Nun ist dieser Chip noch fixer als der Schrankenverweiser.
Das ist wie mit dem Wankelmotor im Trabbi... erst 24PS kam grad ma über 100 Sachen. Dann haben se mitm Wankel getestet und waren bei 180, was der Wartburg nicht im Traum geschafft hätte.
 
Sofern es denn überhaupt machbar ist, eine Dual-GPU Karte mit GT200 Chips zu bauen.
Denn aktuellen Gerüchten nach ist dieser Chip verdammt groß und verdammt heiß.
 
So, nun zähle mal die Stunden, die dein PC an ist, und dann noch die Stunden, wielange du Spielst. Dann wirst du merken, dass du (außer du bist ein Hardcore zocker) die meiste Zeit am Computer nicht mit Spielen, sondern mit Office, Internet, Chatten, wasweisichwas verbringst.

Kurz gesagt: 160 Watt unter LAST, im IDLE hats ja nen Stromsparmodus ;)
Und beim Spielen werden auch nich immer 100% Leistung gebraucht ;)
Von dem her ist dass eigentlich in der Gesamtrechnung garnich so viel ;)
 
Endlich kann ich meine alte X1900XT ablösen.
Die X2900XT war nicht so der Hit, die HD 3870 war schon ganz gut, aber mit der 4870 lohnt sich dann endlich auch ein Umstieg für mich.
Preis Leistungstechnisch wird AMD wohl deutlich besser als nVidia sein.

So brauch ich wenigstens keinen neuen Grafiktreiber installieren ;)
 
Ich sehe da keine Meinung.
Ich sehe im Moment: "Was ist an meiner meineung unsachlich ? (bezogen auf die -wertungen)".
Bitte schreib wieder rein, was du geschrieben hattest.
Bitte nicht weg-editieren !! Schreib wieder rein, was drin stand. Es könnte villeicht noch jemand interessieren !!

Edit: Danke an fromdadarkside, jetzt seh ich den oberen Post auch ;)

Jop da gebe ich magix recht, ist iwie unsachlich, halt einfach einen allgemeinen Spruch rausgelassen ;) Etwas begründerter wäre besser ;)
 
Zuletzt bearbeitet:
dennoch bleibts arm, dass man weiterhin versuchen will nvidias single-gpus mit ner x2 zu schlagen. in 10 jahren hat man dann, falls es amd bis dahin überhaupt noch gibt bei dem schrott den die verticken, wahrscheinlich nvidia single gpu vs amd x10 :rofl:

scheinbar könenn die echt nur noch rohrkrepierer baun...
 
Trotzdem muss ich dir recht geben, 160Watt sind zu viel, auch wenn sich die Karte idle dann nur noch 20 oder 30 Watt nimmt.
Aber die 2900 mal im Hinterkopf sollten wir froh sein, dass AMD wenigstens Powerplay eingeführt hat, bei NVidia siehst ja ohne Hybrid SLI (praktisch ja nicht zu kaufen) ja noch viel düsterer aus.
 
Intel kommt im Herbst mit seinen DX10.1 Grakas auch noch dazu das drückt schön die Preise ^^
 
ati braucht keine 512 bit speicheranbindung , da die gddr5 so schnell sind, dass die speicherbandbreit extrem sein wird.

nvidia bracht die wohl ne höhere speicheranbindung, da noch langsame gddr3 speicher benutzt werden
 
Ich denke das diese Werte recht realistisch sein könnten. Ob es nun 20 oder 30% mehr an Leistung sein werden kann man wohl kaum sagen da es ja auch stark Programm/Spielabhängig ist.
Grundlegend würde das einer Leistungssteigerung von ca. 70% gegenüber einer 3870 entsprechen, was die technischen Daten ja auch ungefähr wiedergeben.
Shaderaufstockung um 20%, dazu höhere Taktraten und höhere Speicherbandbreite. Letzteres sollte nicht so ausschlaggebend sein wie manche wohl glauben. Allerdings ist die Verdopplung der Pixelpipes ein ganz wichtiger Faktor für einen Leistungssprung, da dies einer der stärksten Flaschenhälse der bisherigen 6XX Architektur war und ist.

Ich persönlich hatte hier auch keinen größeren Sprung erwartet. Der R700 wird keine Eierlegende Wollmilchsau werden sondern eine sehr gute Weiterentwicklung der bisherigen Technik. Ich glaube nicht das er die Leistungskrone halten wird sondern sicherlich durch nVidia wieder geschlagen wird. Nichtsdestotrotz denke ich aber das man wieder bei ATI die Sparsamste High End Karte haben wird und sie durch das 55nm Verfahren wieder sehr günstig daherkommen "kann" (nicht muss).
 
Zurück
Oben