News Weitere Hinweise zur Leistung der HD 4870 X2

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.187
Wenn das stimmt alle Achtung, AMD. NVidia scheint genau die Fehler zu machen, die ATI bei der HD2900XT gemacht hat und bringt ein überdimensioniertes Monster an den Start, das zwar eine beeindruckende Leistung hat, aber einfach zu teuer ist. Die Aussage, von NVidia die Rechenleistung in Zukunft auf mehrere Chips verteilen zu wollen, ist ja letztlich das zugehörige Eingeständnis.

Naa, gut so. Dann kann bei AMD das Graphik-Geschäft solange das Chipgeschäft stützen, bis Fusion raus ist. Konkurrenz auf beidne Märkten ist ja nur im Interesse des Kunden.
 
Wie äußert sich das eigentlich mit den Micro-Rucklern?
Würde ich die durchgängig bemerken oder was genau geschieht da?
 
"Sollte die neue Kartenserie die Mikroruckler tatsächlich effektiv unterdrücken, so wäre zu hoffen, dass der Fortschritt am Ende allen Kartengenerationen zur Verfügung gestellt wird und nicht als Zugpferd für die neue Generation herhalten muss."

Falls es AMD/Ati wirklich lösen sollte, liegt es an der neuen Art die beiden Chips miteinandern kommunizieren zu lassen, und da alle älteren Karten nicht dementsprechend designed sind, wird wohl die neue (optimierte) Technik der 4000 Generation vorbehalten sein. Zudem bleibt abzuwarten, ob diese Lösung nur für Dual-Karten oder jeden Crossfire-Verbund tauglich ist.

mfg

Fb

@Kayzah
lesen bildet: https://www.computerbase.de/2008-03/die-multi-gpu-mikroruckler-der-stand-der-dinge/
und suchen manchmal auch ;)
 
Zuletzt bearbeitet:
Ich halte sie Aussage, dass ne Kommunikation über VRAM das gleiche Problem AFR-Technologie bringt wie über den Bridge-Chip nicht für schlüssig.

Der VRAM wird ja nicht nur zum Speichern von Texturen benutzt, sondern auch als Speicher für die Zwischenergebnisse während des Renderns. Was wenn ATI dieses Problem gelöst hat, indem die Chips sich gegenseitig beim Rechnen unterstützen können? Auf diese Weise könnten ungleiche Timings bei aufeinanderfolgenden Bildern kein Mikroruckeln mehr auslösen.
 
Da schickt sich wohl eine Karte an, die Crysis und Co auf HD Auflösung schafft. Bloß wird sie für 95% der Gamer zu teuer und zu leistungshungrig sein. Davon ist jedenfalls auszugehen, wenn man die Werte der Einzelkarte kennt.
 
im moment hört sich alles sehr gut für ati an :)
allerdings bin ich noch skeptisch, was die aussagen zum gtx280 angehn. das verhältnis zahl der transistoren und des verbrauch zum g92 auf der einen und das verhältnis der leistung zum g92 auf der anderen gibt mir noch etwas zu denken...
aber warten wir mal die richtigen tests ab^^

@Zwirbelkatz:
Bloß wird sie für 95% der Gamer zu teuer und zu leistungshungrig sein
das trifft wohl auf die gtx280 genauso zu ;)
 
Zuletzt bearbeitet:
Crossfire über den Grafikspeicher scheint mir einleuchtend. Es wird whs nur eine GPU mit dem System kommunizieren.
Die Andere erhält die Daten zwar über Umwege, aber so wird man dem System vorgaukeln können das nur eine GPU vorhanden ist. Und den Rest kann man geschickt mit dem Treiber lösen. Gute Idee von AMD/ATi.
 
Hoffentlich haben sie dann auch Treiber die alles voll unterstützen.

Die technik von ATI ist ja nicht schlecht, aber bisher hats doch immer am Treiber support gemangelt!
 
Der Treiber Support ist aber immer noch um Welten besser als bei Nvidia.
 
Also ich denke die beiden Hersteller tun sich nichts wenn man mal so die Laufzeit der Graka betrachtet dann sieht man das einer im nachhinein immer ein stück zurück hängt ATI bzw AMD war es mit der 2000er Serie da konnte Nvidia mit der 8000er Reihe auftrumpfen mit der 3000er serie aufgrund des preises konnte AMD Pukte für sich machen.
Wenn man nun sieht das eine 4870 wieder billiger ist als eine 260GTX dann werden viele denke ich wieder zur AMD Karte greifen.
Ich denke mal das die wenigsten sich ne 4870X2 260GTX bzw. 280GTX zulegen werden nicht weil die zu teuer ist sondern einfach weil der verfall des Wertes keine relation mehr zum Spaß an der Grafik bringt.
Ich habe immernoch meine 8800GTS 640MB am laufen. Spiele überwiegend nur CoD 4 und mal Crysis CoD auf High Crysis natürlich nicht aber es sieht gut aus und spielt sich ganz nett.
Warum soll ich jetzt nur für ein paar Frames mir ne neue Karte zulegen.
Und so denken andere auch ich werde auf die 4870 bauen und warte so zwei drei Monate nach erscheinung da hat die Karte ihren normalen Preisverfall erreicht und man kann überlegen sich die zu holen.
Oder mal sehen was die 260er dann kostet.Weil im Grunde ist der Marktstreit nur gut für den Enduser.
Aber schön ist das das Thema immer wieder von vorne aufgewühlt wird wenn neue Graka´s kommen weil kaufen tut man sich die sowieso zumindest der eine oder der andere.
Bis dann Ossi
 
Klingt nach einem echten Befreiungsschlag für ATi, sollte das alles der Wahrheit entsprechen. Jetzt fehlt mir zum Glücksgefühl nurnoch ein CB-Test mit den 4000er Karten, ein brauchbarer Preisrutsch für die X2 Karte und eine anständige Verfügbarkeit ;)
 
@R4yd3N
Hast du den artikel nicht gelesen oder nicht verstanden

Möglicherweise konnte ATi durch diese Umstellung allerdings an Leistung hinzugewinnen und das Mikroruckler-Problem wurde über einen Treiberkniff (Scheduler) angegangen. Eine solche Lösung hatte Nvidia bereits im März angekündigt, bisher aber nicht zur Marktreife getrieben. ATi hat diesen Ansatz als nicht umsetzbar bezeichnet.
 
@osman1904: Jap, genauso sieht das bei mir auch aus. die 8800 GTS 640 reicht für alles außer Crysis und Lost Planet auf dx10. Wenn ich aa runterschraube und dx9 spiele, bzw. hoch statt sehr hoch auf dx10 einstelle, kann ich alles auf 1680*1024 spielen. Wegen den wenigen Spielen, die die nicht packt, lohnt es sich kaum ne neue Karte zu kaufen, schon garnicht für mehr als 220€ (das wäre meine absolute Obergrenze, bei entsprechender Mehrleistung).
 
blaub4r schrieb:
Der Treiber Support ist aber immer noch um Welten besser als bei Nvidia.

Also ich hatte mit meiner ATI karte soviele Probleme mit Treibern und zusatz Programmen, wie ich meine ganze zeit mit nvidia noch nie hatte,

Fängt an bei den ganzen ATI programmen die dabei sind (reicht ja nicht der normale Treiber)
und hört auf bei den ganzen Bildfehlern in Spielen, als ich Crysis spielen wollte (damals mit meiner hd 2600 Pro) war die hälfte der Welt hinter Grafikfehlern versteckt!


Von daher Technik ok, software fürn Arsch....
 
wenn das stimmt das es keine microruckler gibt + sie DEUTLICH schneller ist als die Nvidia werde ich wohl meine erste ATI kaufen, aber ich denke nvidia hat auch darauf eine antwort wenns sein muss gibts halt wieder eine GX2.

mich würde aber das mit den micro rucklern stark interessieren, wie sie das wegbekommen haben wenns so ist.
 
So in der Art stand das schon vor Wochen bei The Inquirer, aber die schreiben manchmal viel, wenn der tag lang ist;)
Für mich persönlich sind Karten jenseits von 200,-€ zwar völlig uninteressant, aber wenn ATI das hin bekommt, und die Crossfire Unterstützung bei Spielen noch weiter ausgebaut ist, wäre ATI nach über 1,5 jahren endlich mal wieder ganz oben. Das wird dann endlich wieder für den längst überfälligen frischen Wind im GPU-Markt sorgen. Vlt. wird so sogar Nvidia endlich dazu gezwungen, DX10.1 und bei allen Karten bessere Energiesparmodi einzuführen.

Was die Treiberprobs mancher Leute bei ATI angeht kann ich übrigens nicht nachvollziehen. Man kann nur den catalyst installieren, oder direkt alles inklusive des HD-Audiotreibers für den HDMI Port, was wirklich ein schönes feature ist und in Zukunft hoffentlich noch auf HD-Tonformate ausgebaut wird.
Bildfehler bei Crysis hatte ich nur Anfangs wegen meines MB´s (4Core DUAL SATA 2) und natürlich die Menüruckler. Ansonsten bin ich mit dem Catalyst wesentlich zufriedener, als mit den letzten Forceware-Treibern, die ich letztes Jahr drauf hatte.
 
Na das wär doch mal was für die Leute die nicht mehr mit 19" Gurken rumkrebsen. Was werden die ganzen nVidia Verfechter nur tun, wenn die ewig bessere Marke auf einmal in allen Budget-Ebenen nur zweite Wahl ist? :o
 
Zurück
Oben