News Asus EAH3850 Trinity mit drei 3850-GPUs

Wie lang wird den soner 3er-GPU-Karte, die 9800GX2 ist ja schon 27cm + nen paar cm hoch, wie lang ist dann die Trinity mit dem MXM?
 
dieses Konzept ergibt für mich wenig Sinn. 3 mobile 3850er GPUs leisten insgesamt vielleicht so viel wie, keine Ahnung, schätzungsweise eine 3870 X2? Dazu kommt, man kann nicht einfach die Leistung einer 3850 mobile mal drei nehmen.
Dann wären die Kosten, ich schätze diese Grundplatine wird Asus für 100-150 Euro anbieten, eine GPU kostet wahrscheinlich nochmal 100-120 Euro (ich geh mal von der 8600M GT aus, die liegt zum nachkaufen etwa in dem Preisniveau) und außerdem sind diese GPUs -momentan- schwer zu bekommen, oft muss man die aus den USA importieren usw.
Der einzige Vorteil wäre, man kann die GPUs einzeln austauschen, bei einem Defekt, oder wenn die zu wenig Leistung haben.
Wird sich nach meiner Meinung nicht durchsetzen.
 
kann man dann auch im prinzip eine der 3 kleinen karten von der großen abbauen, das man dann iwie geringeren stromverbrauch hat? weil das sieht ja aus wie steckplätze, wo man die kleinen karten reinsteckt.
oder hab ich das überlesen?
 
Artikel-Update: Nordichardware, der ursprünglichen Quelle der gesamten Informationen, hat die Karte einem ersten Test unterzogen. Mit einem auf 4,6 GHz übertakteten Intel Core 2 Extreme QX9770 können sich die Ergebnisse der übertakteten drei Grafikmodule in 3DMark06 mit 24.909 Punkten durchaus sehen lassen. Auch die Spezifikationen der Grafikchips auf den MXM-Modulen steht mit den Screenshots wohl endgültig fest.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
Sind schon schöne ergebnisse, aber ich vermisse die guten alten Singel-GPU Flagschiffe im moment doch sehr:(. Bin einfach nich so der Fan von so Multi-GPU zeugs, aber das ist ja Geschmackssache.
 
Aber warum ist die PCIe x8 angebunden und nicht x16?

Aber wenn die so +- 230€ kostet wird die wohl zusammen mit einem Phenom 8850 in meinem neuen rechner landen :D

3xGPU 3xCPU 3xHDD 3GB RAM 3x...

xD
 
ich sehe das so:

bis zu einem gewissen zeitpunkt lohnen sich die single-gpu nicht mehr. und zur zeit, so wie es ausschaut, versucht man mit der multi-gpu technik das ganze wieder voran zu treiben. es ist genau so wie mit der einführung von dualcore. es gab viele skeptiker und bla bla bla...und das resultat seht ihr ja jetzt.

in zukunft (da bin ich mir sicher) geht kein weg an multi-gpu vorbei.

MfG
Rolf
 
das teil sieht sowas von sc**** ... unförmig aus^^ ... die können die Chips doch auch gleich drauflöten... die müssen nur das PCB überarbeiten und die leiterbahnen neuziehen ^.-

PS: an alle die glauben ich hätte keine ahnung das das aufwändig ist: falsch gedacht!
 
Naja, was kann ich mit den 24909 Punkte jetzt anfangen? Außer, dass es viel ist, sagt mir das nichts.

Wäre interessant, was das selbe System mit einer und zwei GPUs schafft damit man sieht, was das Triple wirklich leistet.
 
schaut doch cool aus! ich mein man sieht doch ne entwicklung, in der multigpu wurden techniken von den letzten STUDIEN eingeführt, jetzt könnte man das sogar schon in kleinserie produzieren.. man sieht doch langsam in 2-3 grafikkartengenerationen hat man vlcht schon einen ähnlihcen ansatz in serienkarten?
um bei dem auto zu bleiben, wenn eine design/machbarkeitsstudie in genf steht dann sagt doch auch keiner oh das wäre aber nicht serienreif .. das ist ja der sinn von studien das man schaut wie das in echt ausschaut!
 
So eine Karte wär echt eine Überlegung wert. Fraglich sind natürlich Dinge wie: Mischbestückung (kann ich auch stärkere bzw. schwächere GPU's einsetzten, die Rechenaufgaben dynamisch verteilen z.B. 2 3870, wenns die überhaupt mobil gibt und eine 3850 die dann die Physikberechnungen übernimmt wie es ATI schon einmal angekündigt hat), Aufrüstbarkeit, Stromverbrauch (da es mobile Karten sind wohl eher gering, jedoch weiß man ja nie wieviel dann tatsächlich aufgrund des Designs der "Mutter"-Karte verbraten wird), Microruckler.

Vom Aufbau her jedenfalls überzeugender als jede (G)X2. Und da ASUS sich für Crossfire entschied mach ich mir bei der Leistungsskalierung wie man auch anhand der Benchmarkergebnisse ersehen kann auch keine Sorgen.
 
ich frag mich wie lange noch die gpu hersteller warten bis sie 2 grafikkerneinheiten auf einem die bauen
 
Und ich freue mich auf die damit eventuell neuartige *Mikroruckler*-Diskussion.

Wahrscheinliches Marketing-Argument (also nicht von Fachleuten^^): dass ungleichzahlige GPUs das Phänomen nicht kennen
 
Wurden die Taktraten hier schon besprochen? Die haben ja gar nichts mehr mit der 50er gemein und kommen ja fast an die 70er ran! Und 512MB sind auch eine sehr gute Nachricht! Dass da nicht mehr zu geschrieben wird... -_- Aber ist klar, dass das Ding dann abräumt (wobei man das kaum so nennen kann, wenn die X2 schon auf 20.000 Punkte im BlödMark kommt).
 
Eine X3 Karte in klassischer Bauform wäre sicher günstiger. Allerdings kann ich mir vorstellen, dass mit steigenden Notebookverkaufszahlen MXM module auf Dauer immer günstiger werden. Mittelfristig ist dieser Lösungsansatz in meinen Augen deswegen schon reizvoll.
Was die Multicore-GPUs betrifft, da gab es doch vor einiger Zeit die Meldung, dass ATIs nächste GPU Generation so aufgebaut sein soll. Nur ein GPU-Kern wird produziert und je nach Leistungsklasse der Karte werden dann 1 bis 8 Kerne verbaut.
 
Die Technik ist schon beeindruckend, aber wie bei Sli und Crossfire nicht effektiv genug.

Labidar wird einfach behauptet die "Leistung reicht nicht für die und die Auflösung" bei Hardware hungrigen Spielen.
Über die nicht ausgenutzte Power, sprich die mangelnde Effizenz von Multigpu wird nichts gesagt. Treiber und Programmieren sind für mich die Zauberworte.

Statt wenigstens die "alte" Technik SLi\Crossfire nach Jahren auf mindestens 70% Mehrleistung bei JEDER Anwendung kommt
werden Triple und Quad Sli verkauft, nur um wieder Leistung zu Verschenken. Sry aber das mindert den Spaß an neuer Hardware. Ich weiß zwar das meine Karte die Leistung hat um xy darzustellen, nur läßt man sie nicht um mir so den viel besseren Nachfolger zu verkaufen.
 
Mich würde der Stromverbrauch mal interessieren.
 
nur so zur Info: NordicHardware ist nicht die ursprüngliche Quelle... der gute Kinc hat die Karte erst erhalten als die Bilder schon draußen waren
 
Zurück
Oben