News Kommt der R700 einen Monat nach dem RV770?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.630
Allen letzten Gerüchten zufolge wird der „Grafikkartenkrieg“ im Juni und/oder im Juli bei den Grafikchipspezialisten ATi und Nvidia erneut ausbrechen und der RV770 beziehungsweise der GT200 müssen zeigen, was in ihnen steckt.

Zur News: Kommt der R700 einen Monat nach dem RV770?
 
ATI scheint sich zum Aufholen des Vorsprunges auf internes CF verlegt zu haben. Das hat mit der 3870X2 geklappt, die für ein paar Wochen die Krone nach der überwiegendden Ansicht aller erobern konnte. Mir wäre eine schnelle Singlechiplösung wichtiger, bzw lieber, denn der Stromverbrauch solcher Lösungen ist doch hoch.

Dass aber eine weitere schnelle Lösung von ATI immerhin BALD kommt ist durchaus positiv. Denn vom hohen Konkurrenzkampf im Grafikkartenmarkt profitieren in erster Linie wir, also die Endverbraucher.
 
Estmal schauen was der RV770 macht.
Wenn der Chip mit Nvidias aktuellen Grafikchips konkurieren kann und vll sogar mit der GX2 aufnehmen kann sehe ich rosige Zeit im Hause ATI(AMD) aufkommen.

Wir lassen uns am besten mal überraschen.
 
Auch eine Möglichkeit den Paperlaunch in Grenzen zu halten oder sogar zu verhindern. ;)
Der Rest ist ja nicht neu.
 
Und wie immer heißt es abwarten und Tee trinken. Allerdings glaube ich, dass der GT200 deutlich schneller wird als ein RV770.

Auf jeden Fall sind Multigpus die einzige Lösung, man müsste es nur schaffen mehrere echte Kerne in eine Gpu zu packen, wie bei den Prozessoren.
 
News schrieb:
den großen Vorsprung zu Nvidia aufzuholen oder wenigstens verkleinern

wäre dass nicht eher ein grosser rückstand zu Nvidia, oder den grossen vorsprung von Nvidia?

ansonsten binn ich sehr gespannt auf die leistung der beiden kandidaten!
 
Mir ist auch eine Singlechipkarte lieber. Die kann unter Last auch ordentlich Strom ziehen, wenn sie dementsprechende 3D-Leistung bietet. Nur im Idle sollten die neuen Karten dann nicht mehr so viel Strom ziehen, wie z.B. meine 8800 GTX. Das ist halt wie bei den Autos Kraft kommt von Kraftstoff. Wenn ich mit meinem Auto aber gerade keine 200 fahre, dann möchte ich aber auch nicht denn Sprit für 200 verblasen.

hase
 
wird somit für die 4870 X2 ein R700 GPU Chip verbaut der eigentlich aus zwei RV770 GPU besteht? Irgendwie komisch. Bin aber wahnsinnig gespannt was die 4870 X2 leisten wird. Wird Nvidia sobald der GT200 eingeläutet wird die Namen der Grafikkarten ändern oder wird da mit 10'000er weiter gemacht?
 
Was wird hier in letzter zeit an der Realität vorbei geschrieben und die Tests werden auch immer klischeehafter ... so langsam frage ich mich was mit CB los ist.

Also warum soll NV aktuell besser sein ? und Crossfire ist eigentlich auch wesentlich besser als SLi zb wurden die microruckler beseitig, NV ist da noch weit von entfernt.
Der einzige Grund warum NV da teils besser skaliert ist das sie viele Spiele mit mio Beträgen sponsoren, ist ja klar das die das nicht aus Nächstenliebe machen.

was NV mit dem G200 vor hat würde ich aber wirklich gerne wissen 250w TDP und 65nm, und dazu gibts die Dampfturbine für die Wasserkühlung oder wie ...
da empfinde ich die ATIs als wesentlich fortschrittlicher und mit dem richtigen Treibern lässt sich aus der erhöhten Bandbreite (2x512bit und DDR4 oder gar DDR5)
der ATIs ordentlich was raus holen.
Dazu ist ATI mit dem Herstellungsverfahren weitaus weiter als NV, so schwer wird es also nicht für ATI den G200 zu schlagen.
 
Zuletzt bearbeitet:
den technischen daten zufolge kann der R770 nur gut werden. Hoffentlich bekommt ATI endlich mal auch beim Verkaufsstart nen gescheiten Treiber hin! Bin auf jedenfall schonmal sehr gespannt auf die neuen Karten!
 
TDP =! Verbrauch ich weiß schwer zu verstehen. Demzufolge wird GT200 sparsamer als R600.

Mikroruckler wurden nicht beseitigt, bei keinem IHV!

CF besser als SLI? Naja, bei SLI gibts immerhin mehr unterstütze Spiele und man kann das Verhalten per Profilen steuern.
 
Beim Crossfire wurden Microruckler beseitigt? Seit wann das denn? Oder ist das nur eine Illusion, die du dir da vormachst?

CB hat vollkommen Recht mit der Aussage, dass ATI es schwer haben wird, den Rückstand zu Nvidia aufzuholen. Es geht dabei immer um das Endergebnis, nicht um die technologische Fertigung. Und ob der R700 den GT200 schlagen, wird sich noch zeigen. Nvidia hatte nun mehr als genug Zeit, um einer möglichen "Bedrohung" Einhalt gebieten zu können. Abgesehen davon wäre es echt erbärmlich, wenn ATI mit zwei RV770 Chips genauso schnell wäre wie nur ein GT200 Singlechip. Der Stromverbrauch dürfte hier bei beiden gleich ausfallen.

Naja, abwarten. Ich jedoch denke, dass der GT200 die Nase vorne haben wird.
 
Wenn CrossFire besser wird kann man sich ja auch mal 2 kleine karten kaufen, bei den Geforce karten klappt das ja schon recht gut. Sieht man ja im Test von der 9600GT

Hoffe mal das ATI wieder fast gleich auf werden mit Nvidia, bei ATI finde ich aber die Stromsparfunktion schon recht gut ausgereift die es bei Nvidia ja noch nicht so wirklich gibt

Ich gehe mal nicht davon aus das sie wieder so nen R600 Chip rausbringen...
 
Bei einer X2 könnte der Verbrauch wirklich knap unter einem G200 liegen aber und wohl im idle denn ich glaube nicht das NV jetzt mal ne ordentliche Stromsparfunktion eingebaut hat.

Was Mikroruckler angeht jein, im neusten Treiber werden die frames gebuffert (oder so ähnlich), das unterbindet zumindest den Effekt, die Ursache bleibt aber nach wie vor bestehen, nur merkt man es eben nicht mehr. das ganze kostet zwar auch ein wenig Leistung aber das bewegt sich unter 2%.
 
Es sind leider noch keine Technischen Daten bekannt!
Alles was wir glauben zu wissen, sind nur Spekulationen.
Es gibt auch Spekulationen über den GT200, die besagen, auch dieser wäre eine DUALGPU bestehend aus 2 GT100!!!!
Aber eins ist sicher, der GT200 wird mit Sicherheit, die Karte mit dem meisten Stromhunger!
Jeder der sich so eine Karte zulegen will, sollte erstmal nach nem neuen NT ausschau halten! ;)
 
Zuletzt bearbeitet:
R700 hat eine TDP von 250W -> 165W realer Verbrauch, dazu all die CF Nachteile
GT200 hat den IHS Nachteil und nur 240W TDP -> 150W realer Verbrauch

Aber die 15W sind eh wurst, bei High-End Karten für echte Männer.

Link zum CF Mikroruckler Fix?
 
Ich glaube, dass Nvidia das schwerere ziel hat, weil sie die 8800GTX/Ultra bis jetzt noch nicht getoppt haben. Da muss schon was neueres Rauskommen als immer und immer wieder den alten Chip zu recyceln. Das ist so wie bei einem kaugummi: nach einer halben Stunde schmeckt er nicht mehr.

Ati wird bestimmt näher an Nvidia rankommen, sie jedoch nicht überholen. Das kann früstens im nächsten Jahr passieren.

Eine Frage noch: Warum heisst die single kare RV770 und die Dualkarte 700?!
 
Zurück
Oben