Weitere Hinweise zur Leistung der HD 4870 X2

Jan-Frederik Timm
155 Kommentare

Nachdem uns ein taiwanisches Vöglein zur Computex einen ersten Ausblick auf die Performance der Radeon HD 4870 X2 zugezwitschert hat, wird dessen Aussage, die Multi-GPU-Karte werde die GeForce 280 GTX von Nvidia schlagen, nun von Quellen unserer Kollegen gestützt.

Darüber hinaus haben deren Vöglein auch davon gesungen, dass das Problem mit den Mikrorucklern mit der 4000-er-Serie (oder zumindest auf der Radeon HD 4870 X2) der Vergangenheit angehören soll. Der genannte Grund, nämlich der, dass die Kommunikation der beiden GPUs nicht über einen Bridge-Chip sondern den Grafikkartenspeicher stattfinden soll, scheint zurzeit allerdings wenig einleuchtend, bleibt das Grundproblem der AFR-Technologie doch auch über einen anderen Kommunikationsweg erhalten.

Möglicherweise konnte ATi durch diese Umstellung allerdings an Leistung hinzugewinnen und das Mikroruckler-Problem wurde über einen Treiberkniff (Scheduler) angegangen. Eine solche Lösung hatte Nvidia bereits im März angekündigt, bisher aber nicht zur Marktreife getrieben. ATi hat diesen Ansatz als nicht umsetzbar bezeichnet.

Sollte die neue Kartenserie die Mikroruckler tatsächlich effektiv unterdrücken, so wäre zu hoffen, dass der Fortschritt am Ende allen Kartengenerationen zur Verfügung gestellt wird und nicht als Zugpferd für die neue Generation herhalten muss.

Neben einer bis an die Grenzen getriebenen GDDR5-Version soll es auch eine GDDR3-Variante geben, die mit geringeren Taktraten daher kommt. Partner sollen entscheiden können, ob sie die Karte in ihr Portfolio mit aufnehmen. Glaubhafte Einschätzungen zur Geschwindigkeit gibt es bisher noch nicht.

  155 Kommentare
Themen:
  • Jan-Frederik Timm E-Mail X
    … will als Diplom-Ingenieur Technik nicht nur nutzen, sondern verstehen. Auf die Ohren gibt es ihn wöchentlich in CB-Funk.
Quelle: NordicHardware

Ergänzungen aus der Community

  • Neocroth 09.06.2008 12:14
    Zumindestens die GTX280 ist derart ueberlegen das auch die X2 nicht rankommt(es sei denn sie ist annaehernd doppelt so schnell wie als SIngle GPU) .Das glaubt jetzt natuerlich keiner und wird hier gleich als Schwachsinn abgetan ,aber der Beweis kommt in wenigen Tagen...:)Ich weiss nicht wie und warum aber irgendwas sagt mir das die 280GTX doppelt so schnell ist wie eine 8800GTX, ein gewaltiges Uebertaktungspotenzial hat und dabei noch weniger Strom als die 8800GTX braucht. War vielleicht auch ein zwitscherndes Voegelchen....:)
    "BullRun, post: 4337292
    Klingt wie aus dem Kaffeesatz gelesen.

    dazu mal meine eigenen Vermutungen:
    1. das gewaltige Übertaktungspotential kann ich mir kaum vorstellen. Der Chip ist weiterhin in 65nm, er ist verdammt groß, massig Transistoren und eine TDP von 236 Watt.
    2. aus 1. resultiert logischerweise ein höherer Stromverbrauch. nVidia selbst gibt zwar an, dass die GTX 280 unter Volllast 147 Watt benötigt - dann frage ich mich aber, warum die TDP so dermaßen hoch liegt? Es wäre dann sinnvoller gewesen, einen schwächeren, dafür aber leiseren Kühler zu verbauen. Ergo - der Stromverbrauch ist exorbitant hoch und die Karte wird verdammt heiß - das die Karte sehr heiß wird wurde ja bereits von einigen Tech-Tabloids, die die Karte in Aktion sehen durften, bestätigt. Und von irgendwoher muss die Hitze ja kommen.



    @Killermuecke

    aeh ja die Zukunft gehoert den MultiCore CPU&GPU`s , aber anderst als bei der CPU werden es bei der GPU nicht identische Rechenkerne sein sondern spezialisierte Prozessoren ala PhysX usw.

    Der X2 und GX2 Schrott zeigt ja deutlich das GPU`s noch schlechter skalieren als CPU`s. Mehrere Kerne sollen letztendlich immer etwas parallelisieren . Spiele, das Haupteinsatzgebiet von HighEnd GPU`s, lassen sich am Schlechtesten ueberhaupt in dieser Art optimieren.Schon allein die riesige Menge von noetigen Usereingaben innerhalb kuerzester Zeit zum Steuern usw verhindern das sinnvolle Vorberechnen irgendwelcher Werte...

    X2&GX2 sind genau der falsche Weg und bringen trotz doppeltem Aufwand nicht annaehernd doppelte Leistung...gut das nvidia davon weg ist
    Ein Spezialprozessor wie der PhysX dagegen macht sicher einen Riesen Unterschied zu einer reinen GPU oder gar einer Softwareemulation.Dazu noch ein Prozessor der auf Berechnung der Gegner KI bzw auf kuenstliche neuronale Netze spezialisiert ist.Fuer die allermeisten sind Spiele die einzige Anwendung bzw einziger Bedarf fuer eine KI.Also das Ganze mit auf die SPielegrafikkarte,zusammen mit einem PhysX-Core der auch nur in Spielen benutzt wird und der eigentlichen GPU die viele Sachen auch nur fuer Spiele braucht.Sowas bringt sicher erheblich mehr als der immer wieder gleiche Kram den es momentan gibt.Selbes Prinzip wie in den letzten 10 Jahren seit Erfindung der 3D-Beschleunigung ,aber mit noch schnellerem Speicher,noch schnellere Anbindung,doppelt so grossem Cache ,dreimal soviel Shader usw ...

    Multi Core ja,aber mit diskreten Spezial-Prozessoren ...das ist meiner Meinung nach die Zukunft , mit dem Erscheinen der 4870X2 macht ATI einen weiteren Schritt in die falsche Richtung . GX2&X2 funktionieren nach dem Motto : "1+1= 1,3",was heutzutage vorallem aus finanzieller Hinsicht voellig sinnlos ist .
    "BullRun, post: 4337292
    Eine GPU ist bereits ein hochspezialisierter, in höchstem Maße parallelisierter Chip - da gibt es nicht mehr allzuviel zu "spezialisieren".

    Zu dem Argument, dass nVidia "weg" ist von der Idee der Multi-GPU-Lösungen:

    http://www.golem.de/0804/59074.html

    Es wird ja gemunkelt, dass der GTX280 der letzte monolithische Chip von nVidia sein wird und man sich danach ebenfalls auf Multi-GPU-Chiplösungen konzentrieren wird. Dazu gibt es aber meines Wissens keine eindeutige Stellungnahme von nVidia.


    EDIT:

    Übrigens ist es aus finanzieller Sicht sogar weit effizienter, 2 kleine GPUs auf ein Board zu pappen anstatt eines monolithischen Monsters. Die Ausbeute des Wafers sinkt mit jedem mm², den der Die wächst - es passen einfach weniger drauf, dazu kommt noch der Verschnitt am Rand. Weiters steigt mit der Größe des Dies die Wahrscheinlichkeit eines Defektes - knapp 600mm² wegzuschmeißen schmerzt mehr als runde 260mm² (GTX280 - RV770).
    Das ist übrigens der Grund, warum ich denke, dass es klug war von Intel, 2 Dualcores zu einem Quad zusammen zu pappen - intelligenter kann man aus finanzieller Sicht wohl kaum einen Quad fertigen.
  • Unyu 09.06.2008 13:20
    [QUOTE="Neocroth, post: 4337529, member: 276765"]aus 1. resultiert logischerweise ein höherer Stromverbrauch. nVidia selbst gibt zwar an, dass die GTX 280 unter Volllast 147 Watt benötigt - dann frage ich mich aber, warum die TDP so dermaßen hoch liegt? [/quote]Die 4870 X2 hat eine TDP von 240-250W, kein Vorteil durch Dual Die.

    Die TDP ist immer weitaus höher als der tatsächliche Verbrauch, vergleiche mal aktuelle Karten ...
    Ach ne lieber nicht, G200 hat einen IHS, bei gleichen Verbrauch muss die TDP schon mal höher angegeben sein.

    [QUOTE="Neocroth, post: 4337529, member: 276765"]Weiters steigt mit der Größe des Dies die Wahrscheinlichkeit eines Defektes - knapp 600mm² wegzuschmeißen schmerzt mehr als runde 260mm² (GTX280 - RV770). [/quote]Es wird wohl fast keine fehlerfreien G200 geben. Aber zum Glück ist der Chip recht parallel aufgebaut. -> Kein Argument.

    Bleibt einzig der Verschnitt am Waferrand, da zwitschern meine Vögel von:
    - 450mm Wafern in ein paar Jahren
    - Einem Dieshrink nach 55nm

    Was ist wohl komplizierter?
    Einen Chip zu verdoppeln (von einem kleinen Die zu einem großen Die) oder eine tolle Logik zu designen, um mehrere Dice effizient miteinander arbeiten zu lassen?


    PS: Ich glaube nicht an das Mikroruckel Fix Design.
    Warum? Damit ich meine Fans nicht entäusche.
  • Antimon 09.06.2008 13:34
    [QUOTE="Unyu, post: 4337789, member: 47551"]Die 4870 X2 hat eine TDP von 240-250W, kein Vorteil durch Dual Die.[/quote]Es besteht grundsätzlich ein Vorteil von DualDie gegenüber dem SingleDie die Wärmelast wird verteilt, ich habe bei 2 GPUs 2 Spots mit je ~130 - 150W TDP anstelle eines großen Hotspots mit ~240W TDP und somit schonmal ganz andere Vorgaben um die Kühlung zu dimensionieren.


    Es wird wohl fast keine fehlerfreien G200 geben. Aber zum Glück ist der Chip recht parallel aufgebaut. -> Kein Argument.
    Je nach Zahl der Fehler im einzelnen Chip ist das sehr wohl n Argument, im Moment wird Gemunkelt, dass 1 Wafer 100 2x0 GTX Chips liefern kann, allerdings knappe 60% davon Ausschuss sind (hier kann man sich nun streiten was unter Ausschuss zu verstehen ist, da auf dieses nicht näher eingegangen wird, sprich Ausschuß im sinne von kein 280GTX dafür als 260 GTX verwertbar oder eben Ausschuss im Sinne von gar nicht verwendbar.) und solche Zahlen kann sich ein gewinnorientiertes Unternehmen auf längere Frist nicht erlauben (und Nvidia gehört zu der Sparte gewinnorientiertes Unternehmen ! )

    Bleibt einzig der Verschnitt am Waferrand, da zwitschern meine Vögel von:
    - 450mm Wafern in ein paar Jahren
    - Einem Dieshrink nach 55nm
    Der Dieshrink ist ja noch zu akzetpieren aber die 450mm Wafer sind im Moment noch graue Theorie und somit nicht wirklich als Argument zu sehen, wenn im Moment ca jedes halbe Jahr eine neue GPU in den Startlöchern steht, der GT200 wird mit sicherheit nicht mehr auf 450mm Wafern produziert werden.

    Was ist wohl komplizierter?
    Einen Chip zu verdoppeln (von einem kleinen Die zu einem großen Die) oder eine tolle Logik zu designen, um mehrere Dice effizient miteinander arbeiten zu lassen?
    Dürfte vom Fertigungsverfahren des Chips bzw. dessen Aufbau und den Programmiermöglichkeiten abhängen, pauschal eher schlecht zu beantworten.


    PS: Ich glaube nicht an das Mikroruckel Fix Design.
    Warum? Damit ich meine Fans nicht entäusche.
    Immerhin Einsicht ist der erste Weg der Besserung :p
  • BullRun 09.06.2008 16:54
    #66

    da es sowieso niemand glaubt kann ichs auch sagen .... ich habe schon eine GTX280... Gestern so bulkig wie eine Karte nur sein kann frisch aus Taiwan eingetroffen .Unter der Hand gehen die seit einiger Zeit vermutlich schon weg , habe allerdings mit Zoll,Steuern und allem Drum und dran 820 Euro bezahlt . Dafuer gabs keinerlei Zubehor , nicht einen Tag Garantie und einen garstigen Pre Alpha Treiber mit dem ich keine Videos abspielen kann ...:) Aeusserlich zu 100% identisch mit einer 8800GTX G80(fruehe Version) gehts 3D maessig komplett ab .In Vantage ist sie mehr als doppelt so schnell und laeuft ca 10 Grad kuehler und somit auch ruhiger.Hab eh keine Garantie, deswegen noch heute Kuehler runter ,Speicher checken und wenigstens auf 8800gtx Taktniveau bringen.Spaetestens das und ein fertiger Treiber laesst jegliche Konkurrenz weit hinter sich,garantiert!

    TDP 250W kann jedenfalls nicht sein, ich weiss zwar nicht wie die gemessen wird aber die TDP kann in keinem Fall groesser als die absolute Hoechstlast sein . Der ganze Rechner mit TFT und mehreren Platten braucht keine 300W, auch nicht unter Last beim Spielen.

    Glaubt mir das oder auch nicht ,mir egal ,die Bestaetigung fuer das alles gibts naechsten Dienstag @ Launchday.Bin jedenfalls schon auf die Ausreden gespannt und rechne auch schon mit den ersten R800 Drohungen,kaum das R700 gescheitert ist ..

    Hab schon weit mehr gesagt als ich sollte und wollte , werden dafuer gleich als Luegner und Spinner bezeichnet und hab selbst nichts davon gehabt ... An CB : Sofort am Launchtag kann ich Detailfotos bei Bedarf schicken , aber ich glaube ihr habt laengst selbst eine ..:)
  • KAOZNAKE 09.06.2008 17:09
    ohoh da waer ich vorsichtig, ich glaube an ein noch groesseres Desaster als beim R600.Die Vergleiche mit den Auslaufmodellen der Konkurrenz von ATI, die ploetzliche Startterminaenderung usw sind keine guten Omen "BullRun, post: 4338397
    Glaub ich nicht. Die Schwächen vom R600 wurden gezielt ausgemerzt. Hardware wird verfügbar sein. Der Vergleich mit "Auslauf"-Hardware (ich glaub du meinst die 880ULTRA?) kam nicht von AMD, sondern imo von irgendner Website, aber frag mich jetzt nicht welche. Und der Vegleich ist auch berechtigt, denn die ist immer noch die schnellste Graka rundum. AMD hat als Vergleich die 9800 genommen und die ist ja wohl kein Auslaufmodell. Jeglicher Vergleich mit einer noch nicht erschienenen GTX280 wär lächerlich. Zur Verschiebung:

    NVIDIA war schon immer der Meister beim Marketing. Und wenn sie die neue schnellste Graka am selben Tag wie ATI veröffentlichen, redet natürlich nur jeder da drüber. War so ähnlich auch schon beim Start der 8800GT. Schnell mal Produktlaunch vorverlegt um der Konkurrenz das Wasser abzugraben. Folge: Kaum verfügbare Grakas.
    Deswegen wird sich bei AMD jemand gesagt haben, dass der Start lieber nach hinten verlegt wird, wenn das allgemeine Juhuugeschrei bissl abgeklungen ist und die Leute wieder klar denken können (nämlich das sie sich die Graka nich leisten können).

    AMD hätt den Start auch vorverlegen können, aber dann wärs dasselbe geweseb wie bei der 8800GT...



    eigentlich schade, um so schneller veraltet meine 7900 :D "Lübke, post: 4338869
    Die ist schon veraltet... ^^ Hab meine 78GT zum Glück schon gegen ne 3870 getauscht.

    Bin im übrigen derselben Meinung wie Unyu, das wieder ein Brdigechip eingesetzt wird. Wie soll das sonst funktionieren? RAM hat schließlich keine eigene Logik, so dass damit zwischen zwei Grafikchips kommuniziert werden kann.
    Die Mickroruckler werden auch nicht 100%ig beseitigt sein, aber wahrscheinlich wirds besser als mit der 3870X2.
  • gruffi 09.06.2008 19:32
    Ich bin immer noch der Meinung, dass hier Äpfel mit Tomaten verglichen werden...
    Bei 2 verschiedenen Grafikchips einer Generation (ATi und nVidia), sollte es eigentlich logisch sein (bzw., sollte es nicht so sein, beschämend), dass eine Dualchip-Karte schneller ist... "Pelzwurst, post: 4337323
    Ähm das eine 2x GPU VGA eine 1x GPU VGA schlagen kann ist was tolles ? Ich sehe das als ein muß, alles drunter wäre nur peinlich. "Falk01
    Zweimal nope. RV770 ist, wie der Name schon sagt, als Value Chip entwickelt. G200, oder sollte man besser sagen 2xG100, ist hingegen als High-End Chip konzipiert. Logisch ist daher lediglich, dass 1xG200 schneller ist als 1xRV770. Alles andere ist erstmal unbestimmt. Was übrig bleibt, ist die X2 mit dem G200 zu vergleichen. Ob das letztendlich 2 GPUs sind oder nicht, spielt dabei keine Rolle. Das anvisierte Marktsegment ist jedenfalls das gleiche. Bei Servern spielt es zB auch keine Rolle, ob ich einen Power6 mit 2 Kernen mit einem Sun UltraSPARC T2 mit 8 Kernen vergleiche. Und angesichts der GP Leistung von ATI kann man schon jetzt sagen, dass selbst der deutlich schlankere und preiswertere RV770 sogar Leistungsvorteile hat.

    Aber es zeigt wo die Reise hingeht: Die Die werden größer.
    Nur weil Wafer grösser werden, heisst das im Umkehrschluss nicht, dass deshalb Dies grösser werden (dürfen) und Monsterchips wie G200 eine Rechtfertigung haben. Die Vergrösserung von Wafern und die einhergehende Umrüstung von Fertigungsanlagen ist enorm kostenintensiv. Und das Ziel dabei ist letztendlich eines, die Produktionskosten zu senken.

    die 4850 ist gleichzusetzen mit der guten alten 8800gtx, da kann nv mit dem g92 also noch mithalten "Lübke, post: 4338719
    Leistungstechnisch mag durchaus die Vergleichbarkeit gegeben sein. Trotzdem hat nVidia mit dem G92 das Problem, dass der Rest, also Stromverbrauch, DX10.1, HD Wiedergabe, etc.pp nicht für die eigenen Produkte spricht. Selbst der G92b wird diesen Rückstand nicht komplett beseitigen können. Im Endeffekt muss man also über den Preis regeln. Da aber sowohl G92 als auch G92b einen grösseren Die als RV770 haben, werden erstens die Yields schlechter und zweitens der Spielraum beim Preis geringer sein. Aus wirtschaftlicher Sicht würde mir das enorme Kopfzerbrechen bereiten. Zumal ATI ja auch bereits in der zweiten Generation ihrer 55nm Fertigung ist und damit aus dem Prozess wohl mehr rausholen kann als nVidia beim G92b. Und das sollte eigentlich die Hauptaufgabe von nVidia sein. Auch wenn viel Wirbel um den G200 gemacht wird, für den Markt ist der Chip unbedeutend.