News MSI P55 „Big Bang“ bekommt Lucid-Hydra-Chip

Wow, wenn der Chip wirklich hält was er verspricht wäre das quasi eine kleine Revolution auf dem Grafikkartenmarkt: Keine MR, GraKas beleibig kombinieren, kein Rumfummeln mehr an irgendwelchen Profilen und vor allem keine Lizenzgebühren mehr für NV und AMD.

Dass das ganze mit 2 oder mehr GraKas des selben Herstellers funktionieren könnte, kann ich mir schon vorstellen, aber NV und ATI zusammen?
Hab zwar nicht so viel Ahnung von der Materie,aber ich seh da ein Problem:
ATI und NV benutzen ja für AA und AF unterschiedliche Algorithmen, die auch zu (leicht) unterschiedlichen Ergebnissen in der Qualität führen.
Wenn nun an einem Bild 2 GraKas versch. Hersteller Rechnen, müsste man doch den Unterschied sehen oder?
Man könnte natürlich auch das komplett fertige Bild von einer GraKa filtern lassen, aber dann müsste ja die andere solange warten --> Auslastung nicht optimal.

Habe ich da nen Denkfehler drin?

Wär cool wenn jmd. der mehr Ahnung hat, mal was dazu sagen könnte.
 
Interessante Sache - vielleicht wird eine Multi-GPU-Lösung dann für mich interessant ;)
Was auch heiß wird ist der Preis - expreview meinte was von 100$ für den Chip allein...
btw gabs schon im Februar auch hier Meldungen über (Industrie/Render) Lösungen, die bis 4 Grakas nutzen können...

na ma sehn, kommt ja aufn P55. Hoffentlich gibt es dann irgendwann in absehbarer Zeit ein Board mit diesem Chip, USB 3.0 und SATA 3.0 ;)
 
Die unterschiedlichen AA und AF Methoden werden aber mit Hilfe des Treibers realisiert.
Wie das auf dem Chip mit Treibern ausschaut ist noch unbekannt. Aber ich vermute mal wenn man eine ATI und eine Nvidia Karte zum rendern verwendet wird die Performance nicht optimal ausgenutzt, weil der Chip sich für einen AA/AF Modus entscheiden muss und dieser nicht auf beiden Karten optimiert ist.
 
Bleibt zu hoffen, dass die nicht auch von nV aufgekauft werden und die Idee wieder zugunsten von SLI vom Markt verschwindet. Mit Ageia wars auch so...
 
Das Board sieht nahezu fertig aus. Dürfte zeitnah mit dem P55 erscheinen. Bin gespannt. Es muss mindestens mit SLI und CF mithalten was Skalierung und Performance angeht sonst machts wenig Sinn...
 
stna1981 schrieb:
Laut ATi und nVidia ist AFR das einzig sinnvolle, aber ich glaube nicht, dass ATi und nVidia in allen Punkten die Wahrheit sagen, denn immerhin wollen die ihre Produkte verkaufen.

Ich weiß nicht mehr, was genau die Probleme bei dieser Methode waren, irgendwie war da was mit den Pixelshadern etc., das weiß aber sicher jemand von den Experten hier :)

Fipsi16 schrieb:
Kann Cf nicht auch SuperTiling und SFR, genauso wie SLI SFR kann?
Soweit ich mich erinnere verwendeten die ersten SLI Karten auch nur SFR, wieso mache die das heute nicht mehr?
Bessere Effizienz als mit AFR kann ich mir nicht vorstellen. Bei AFR berechnet ja jede GPU ein Bild. Also genau das gleiche als wenn nur eine GPU einzeln arbeiten würde. (nur das eben nur jedes 2. Bild berechnet wird)
Nachteil ist aber, dass die Bildfolge nicht gleichmäßig sind -> µ-Ruckler

SFR ist totaler Mumpitz. Da arbeiten 2 GPUs an einem Bild. Die Geometrie muss aber trotzdem von beiden bearbeitet werden. Effizienz ist grottig. Kann man perfekt am ersten Quad-SLI sehen (GeForce 7).
Dank dem PrerenderLimit von 3 war AFR mit 4 GPUs unter Direct3D nicht möglich.
https://www.computerbase.de/artikel...#abschnitt_afr_of_sfr__oder_was_schief_laeuft

Deswegen wäre es ja interessant zu wissen was Lucis da so alles besser macht.
 
Zuletzt bearbeitet:
Crossfire und SLI machen auch gar keinen Sinn mit mehr als 3 GPUs, da der Input Lag viel zu groß wird. Bei 4 GPUs wären immer 3 Frames im Voraus berechnet, für halbwegs schnelle Shooter absolut unbrauchbar. Mit 2 Karten gehts vielleicht noch. Diese Probleme hätte man nicht, wenn alle 4+ Karten am gleichen Frame arbeiten, da nichts vorab berechnet wird und die Arbeit gleichmäßig verteilt wird. Daher lineare Skalierung. Die alles entscheidende Frage ist, wie diese Lastaufteilung vorgenommen wird...
 
@stna 1981: "SFR ist totaler Mumpitz. Da arbeiten 2 GPUs an einem Bild. Die Geometrie muss aber trotzdem von beiden bearbeitet werden. Effizienz ist grottig. Kann man perfekt am ersten Quad-SLI sehen (GeForce 7)."

edit:
Viele Menschen haben sich in den vergangenen Monaten Gedanken gemacht, wie man SLI/CF efficienter gestalten könnte. Jetzt kommt ein niemand dahergestreunert und behauptet ein Wunderheilmittel für alle Multi-GPU-Probleme parat zu haben, mag aber nicht verraten, wie das auch nur annähernd funktionieren soll. Lucid wollte in die Schlagzeilen, da stehen sie jetzt, bis der letzte merkt, dass das versprochene niemals auf Hardwareebene realisiert werden kann.
 
Zuletzt bearbeitet:
Viele Menschen haben sich in den vergangenen Monaten Gedanken gemacht, wie man SLI/CF efficienter gestalten könnte. Jetzt kommt ein niemand dahergestreunert und behauptet ein Wunderheilmittel für alle Multi-GPU-Probleme parat zu haben, mag aber nicht verraten, wie das auch nur annähernd funktionieren soll. Lucid wollte in die Schlagzeilen, da stehen sie jetzt, bis der letzte merkt, dass das versprochene niemals auf Hardwareebene realisiert werden kann.

JETZT schonmal gar nicht! den Chip gibt es schon länger, zumindest hab ich davon schon vor bestimmt 1-2 jahren gehört! wieso sollte es ein "niemand" nicht schaffen können? einfach die richtige idee gehabt, umgesetzt und fertig! lustigerweise hats bei den 3DFX Karten damals auch hervorragend geklappt. das NV da nichts draus gezogen hat wundert mich bis heute. lassen wir uns überraschen da sicherlich genügend tests auftauchen werden die uns usern klarheit verschaffen.
 
Ist doch das gleiche wie mit Ageia, die wurden am Anfang auch ausgelacht, von wegen Blödsinn, den keiner braucht, Physikberechnung kann doch auch die CPU etc. und plötzlich waren sie weg vom Fenster. Scheinbar hat nVidia erkannt, dass die Physikberechnung eine wichtige Komponente ist und Ageia geschluckt, bevor sie zu einem starken Rivalen wurden. Und plötzlich war es möglich, mit der Graka Physik zu berechnen, vorher sollte sich jeder eine zweite Grafikkarte einbauen etc., auf einmal alles unnötig. Schon sehr komisch...

Und so ist es hier auch. Eine Firma setzt das um, was die "Großen" sicher auch könnten, aber nicht wollen... und irgendwann werden sie dann geschluckt und das Know-How integriert. In 1-2 Jahren kann man dann mit anderen Boards und Grakas auch lineare Skalierung genießen...
 
VR-Zone schrieb:
As for now we can't tell which one of the versions of the Hydra is placed on the motherboard, and how it performs ,
but a source inside one of the companies told us that the Hydra Chip is working as planned

http://vr-zone.com/forums/469128/msi-p55-the-big-bang--lucid-hydra-inside--ati-work-with-nvidia.html

Und wenn Firmen wie Intel und MSI den Chip verbauen, wirds wohl kein Mumpitz sein. Ich finde es total spannend und kann die ersten Tests kaum erwarten. :D

@ stna1981
Nene, vorher sollte jeder eine Physik Karte einbauen und jetzt plötzlich soll sich jeder eine zweite nVidia Karte einbauen ;-) So siehts aus...
 
Naja, den Chip jetzt schon zu verurteilen ist dämlich. Genauso wenig sollte man ihn jetzt schon feiern.
Einfach mal abwarten was die ersten Tests zeigen.
Nur weil SFR richtig schlecht ist, muss es ja nicht unmöglich sein effizient an einem Bild zu arbeiten.

Ich kann es mir nur eben nicht vorstellen, dass das alles so problemlos laufen soll.


@DvP
Naja auf Mainboardhersteller braucht man nicht viel zu geben. Die verbauen alles, solange sich das Marketingtechnisch ausschlachten lässt. :D
 
Wir als Kunden sollten froh sein wenn es funktioniert. Stelle sich vor unabhängig der Plattform (zB 790FX , X58, etc) und GPU-Herstellers ein Multi-GPU System betreiben zu können. Möglich das der Markt ja so gering ist, anderseits wenn die Skalierung etc besser als bei den jetzigen SLI/CF Varianten ist wer weiß ob die Verbreitung nicht anwächst. Derzeit schrecken Profile etc viele Leute ab.

Ausserdem wenn nicht irre gelesen zu haben kann der Lucid-Hydra besser mit sogennanten Hybrid (Kleine GPU für desktop, starke für Gaming etc) umgehen. Dieser Punkt täte viel mehr Leute betreffen als nur Multi-GPU für Leistungsgewinn.
 
bensen schrieb:
@DvP
Naja auf Mainboardhersteller braucht man nicht viel zu geben. Die verbauen alles, solange sich das Marketingtechnisch ausschlachten lässt. :D

Intel!? Es gibt auch Fotos von einem X58 Referenzboard mit Hydra ;-)

Hier sieht man übrigens wie die Aufteilung vonstatten geht. Ist also komplett Content bezogen wobei ich mich da frage wie viel doppelt berechnet werden muss.

http://news.cnet.com/8301-17938_105-10021005-1.html

Detailiertester Artikel zu dem Thema:
http://www.pcper.com/article.php?aid=607
 
DvP schrieb:
http://vr-zone.com/forums/469128/msi-p55-the-big-bang--lucid-hydra-inside--ati-work-with-nvidia.html@ stna1981
Nene, vorher sollte jeder eine Physik Karte einbauen und jetzt plötzlich soll sich jeder eine zweite nVidia Karte einbauen ;-) So siehts aus...

Klar. Nur kann man ja auch mit nur einer Geforce GPU-Beschleunigung nutzen. Sieht man ja z. B. bei Mirror's Edge oder Cryostasis. Die laufen mit PhysX auf einer Geforce viel viel schneller als auf einer Radeon, wo die CPU die Physik berechnen muss...

Ich hatte auch schonmal CrossfireX, mit zwei HD4850. Die waren zwar insgesamt von den fps ein wenig besser als meine jetzige GTX280@285, aber dafür sind mir die Mikroruckler sehr unangenehm aufgefallen. Hatte bei Crysis ~30fps, aber das war nicht schön. Eine GTX 280 liefert zwar ein paar fps weniger, aber das ist immer noch flüssigerals mit einem CFX-Gespann.
 
http://news.cnet.com/8301-17938_105-10021005-1.html

Aber da steht doch eindeutig:

Also, just to be clear, you will not be able to use graphics cards from both Nvidia and ATI at the same time. This is because Windows does not support the use of two different graphics drivers while rendering a 3D application.
 
Lucid hat außerdem Intel als "Sponsor" im Rücken, da es quasi ein von denen finanziertes Startup ist.

@bensen: AFR, wie es heute eingesetzt wird, ist leider absolut ineffizient, da nämlich Bilder im vorraus berechnet werden ohne neuerlichen Input anzunehmen. Daher ist das Ergebnis eigentlich generell unbrauchbar (zumindest beim aktiven Spielen, da meine Eingaben später umgesetzt werden als mit ner (in der Framerate vielleicht niedrigeren Single Lösung).

So wie Lucid seine Technik beschreibt, haben sie genau die Probleme welche bei SFR auftreten gelöst, da sie nämlich kein SFR benutzen (Bildteilung an einer scharfen Trennlinie, durch zusammengehörende Elemente bzw. gegenseitige Einflussnahme unmöglich) sondern die Grafikkarten mit zusammengehörenden Teilen eines Frames füttern, die sie selbstständig fertigstellen können. Der Lucid Chip rechnet dann die unterschiedlichen Teilelemente zusammen.

Ich habe schon vor einem Jahr einen Live Bericht gesehen, wo dies bei Crysis hervorragend funktioniert haben soll...
also jetzt einfach mal abwarten, anscheinend wird die technik schon bald Consumer-Reife erlangen.
 
Zurück
Oben