News Lucids Hydra-Chip erstmals getestet

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
Und jetzt die wichtigste Frage:

Wie sieht es bei Lucids/MSIs Lösung mit Microrucklern aus?

Mich wundert aber, dass die Treiber von Nvidia und ATi so gut miteinander auskommen.
Ich dachte das geht nicht, beide Grafikkartentreiber auf einem System zu haben.
 
Auf dem x58 geht doch Crossfire oder SLi, oder?

Okay, natürlich nicht im Mischbetrieb, aber warum sollte man denn mischen?
nach dem Motto: "Die ATi rendert viel toller, dafür berechnet die nVidia mit Cuda viel schöner die Physik. ich mische dann mal." ?
 
Finde ich sehr beeindruckend das die das so technisch hinbekommen haben. Wenn bei dieser Lösung keine Microruckler sind, dann sehe ich für SLI und CROSSFIRE schwere zeiten kommen.
 
Im großen und ganzen ist es das Gleiche, was AMD momentan fabriziert.

Gehen ja beispielsweise eine 4870 und eine 4670 zu koppeln.
 
naja wie wäre es zb mit "ich will eine 5870 kaufen aber trotzdem physiX verwenden" ... in dem fall wäre ein mischbetrieb zb eine lösung. ansonsten evt auch die möglichkeite die "alte karte" als 2. karte weiterzuverwenden unabhängig vom hersteller.
 
@XShocker22

nein, bei der Umsetzung bestehen schon größere Unterschiede. Den 1 Bild wird von 2 GPU gerechnet, nicht abweshelt ein Bild GPU1 ein Bild GPU2.

Dadurch wird nämlich auch die µRuckler Problematik minimiert.


Persönlich bin ich durchaus überrascht wie gut die Technik funktioniert. Aber man ich erwarte noch einen Test von CB, der wiklich auf Herz und Nieren prüft. Außerdem wäre ein Vergleich mit normalem Crossfire / SLI wünschenswert.
Läuft den der Betrieb einer Grafikkarte auch über den Hydra Chip oder kommt dies einem Mainboard ohne Hydra gleich?

Das Problem sehe ich eher darin, dass noch mehr TreiberSchnittstellen nötig sind und viele Updates nötig sein dürften. Auch im Laufe der Zeit.


Edit:
Mal was anderes: Vielleicht kann man das noch softwaretechnisch hinbekommen, dass bei einem Mainboard mit IGP die Zusatzkarte komplett abgeschaltet wird und nur bei Bedarf aktiviert wird. Wie hies die verkorkste Technologie von Nvidia damals?

Wäre zumindest wünschenswert wenn man sich zb eine GTX295 + HD2100 ins System baut. Dann vielleicht 3D aber nur die gute Graka rendern lassen, glaub die HD2100 würde da nich viel bringen ;)
 
Zuletzt bearbeitet:
Ich frage mich ja, wieso es so lange dauert, diese Technik umzusetzen.

Das erste, was ich mit nämlich bei ATis CF-Lösung dachte war, wieso es nicht im gemischten Betrieb realisierbar sein soll.
Zwei Bilder abwechseld ausgeben kann ja nicht so das Problem sein und zwei Grafikkarten das gleiche berechnen zu lassen wird auch nicht schwer umsetzbar sein.
Hier werden ja weder die Bilder entsprechend ihrer Leistung gerendert noch sonstige Anpassungen vorgenommen.

Also was so genial hier sein soll... keine Ahnung..
 
Ich behaupte mal dass man trotzdem immer eine single slot karte der neueren generation einem sli/crossfire/lucid mischbetrieb vorziehen sollte.

ausserdem, welchen treiber isntalliert man denn dann?
 
Beide ;) NV und ATI.
 
RubyRhod schrieb:
Ich frage mich ja, wieso es so lange dauert, diese Technik umzusetzen.

Das erste, was ich mit nämlich bei ATis CF-Lösung dachte war, wieso es nicht im gemischten Betrieb realisierbar sein soll.
Zwei Bilder abwechseld ausgeben kann ja nicht so das Problem sein und zwei Grafikkarten das gleiche berechnen zu lassen wird auch nicht schwer umsetzbar sein.
Hier werden ja weder die Bilder entsprechend ihrer Leistung gerendert noch sonstige Anpassungen vorgenommen.

Also was so genial hier sein soll... keine Ahnung..

Ich glaube du siehst das "etwas" zu einfach...

Nach deiner Theorie müsste ja nur ein Spezieller Nvidia /ATI Mischtreiber genügen und voilá man hätte CrossSLI und würde sich freuen.

Das Ganze ist sicher nicht leicht umzusetzen, vorallem wenn man die Transparenz der gesamten Grafikschnittstelle betrachtet. Dx9-11, OpenGL etc.
Dadurch dass 1 Bild aufgeteilt berechnet wird steigt die Komplexität sicher um ein vielfaches. Das du steuern versucht wohl dieser Hydra Chip.

Mich würde eher interessieren ob immernoch der doppelte Ram benötigt wird.

Edit:

gerade die wichtigen min-Frames scheinen ja sehr davon zu profitieren dass ein Bild von beiden GPU berechnet wird - was auch Sinn macht.
 
Zuletzt bearbeitet:
Find die Idee an sich ganz gut. Der angebliche Einstandspreis wäre dann aber doch ein wenig zu hoch gegriffen.
So wird sich das, meiner Meinung nach nicht großartig durchsetzen. Die meisten werden Ihre alte Karte da wahrscheinlich
lieber verkaufen, als sich so eine Lösung ans Bein zu binden. Der Verlust dabei wäre wahrscheinlich geringer.

Allerdings würde mich jetzt mal interessieren ob bei dieser Lösung Lizenzgebühren für SLI bzw. Crossfire abgeführt werden müssen ?
Evtl. wird da ja auf lizensierte Techniken zurückgegriffen. Kann mir das jemand sagen ?
 
Find ich eigeltich recht praktisch di Technik.
Man baut sich jetzt nen System zusammen mit einer aktuellen Spitzenkarte und packt dann einfach in nem Jahr von miraus die nextGen dazu und kann diese unabhängig vom Hersteller wählen.
Bin nur gespannt auf die Preise der Boards und deren Gesamtperformance... bin nämlich von MSI als MaBo-Hersteller nicht so wirklich begeistert...
 
Krautmaster schrieb:
gerade die wichtigen min-Frames scheinen ja sehr davon zu profitieren dass ein Bild von beiden GPU berechnet wird - was auch Sinn macht.

Offenbar hast du mehr Informationen als ich - woher nimmst du, dass ein Bild geteilt gerendert wird (was man bei SLI und CF ja eben nicht macht und DAHER das Microruckler-Problem herrührt, es bei der Hydra-Lösung also nicht auftreten sollte).
Hast du Links?
 
ich finde gerade bei GTX250 + GTX285 die Ergenisse vielversprechend. Die wichtigen Frames werden der Leistung der jeweiligen GPU entsprechend sehr gut ergänzt.

285GTX min Frames 31
+ 250 = 38 Frames.

Hier addiert sich die Leistung der GTX250 sehr gut.

Es geht nich darum dass man ausschließlich nun ATI und NV mixen kann, sondern dass die neue Technik eventuell besser ist als das normale SLI / Crossfire. Gerade wenn zB möglich wird, dass der ram nicht doppelt verwendet werden muss oder µRuckler nicht mehr auftreten.


@RubyRhod

ist hier doch eindeutig beschrieben und mit Bildern belegt.

http://www.pcper.com/article.php?aid=815&type=expert&pid=1
You can see that individual items like the weapon, the foreground and the background are divided up between different GPUs based on the company’s internal load balancing algorithms.
 
Zuletzt bearbeitet:
Meiner Meinung nach, wird sich dieser Chip nicht durchsetzen.

mal gut, dass diese soviel gewicht hat, wie der platz zwischen wand und tapete!
ich bin klar FÜR den chip da er für nen gewissen wirbel unter den rot/grün sorgen könnte!
 
Ich warte weiterhin auf etwas Kaufbares, was dann auch unabhängig getestet wird. Hat sich jemand mal dieses Hydra-Entwicklungs Board angesehen, das scheint mir noch meilenweit von einer finalen Version entfernt.
 
luluthemonkey schrieb:
Meiner Meinung nach, wird sich dieser Chip nicht durchsetzen.

Eine Begründung dafür wäre schön gewesen.
Denn meiner Meinung nach hat das ganze sehr wohl Zukunft.

Es gibt dermaßen viele Posts hier im Forum mit der Frage, ob Karte X mit Karte Y läuft und was dort an Performance zu erwarten sei.

Der Hydra-Chip war längst überfällig und wird endlich den beknackten Chipsatzkrieg beenden. Alle Grafikkarten, sogar im CrossSLI, für jeden Chipsatz... fertig!
Somit soll Nvidia ruhig den NF200 behalten .. den will dann keiner mehr um sein Intelchipsatz SLIfähig zumachen.
 
Zuletzt bearbeitet:
Zurück
Oben