News MSI P55 „Big Bang“ bekommt Lucid-Hydra-Chip

Das wirklich interessante an dem Hydra-Chip ist ja nicht das man ATi und Nvidia-Karten zusammen benutzen kann, sondern das Lucid verspricht dass die Rechenleistung sich mit jeder zusätzlichen Karte linear steigert. Wenn das der Fall ist wird das Ding ein Renner, wenn man bedenkt das die Steigerung heutzutage zwischen 10 und 70 % liegt.
 
Wenn der VRAM wirklich getrennt genutzt wird, dann wäre das schon ein Hammer.
Vor allem für Leute mit großen Monitoren/Auflösungen. Somit könnte man viele Spiele mit besseren Texturen spielen und trotzdem noch FullHD + 4xAA/16xAF lassen.

Aber wir sollten nicht zu viel spekulieren sondern eher auf Tests von vertrauenswürdigen Seiten warten.
 
So ein Typ be xtremesystems, der gewöhnlich gut bescheid weiss, hat geschrieben, dass es sich nur um einen Prototyp handelt und der Chip wahrscheinlich frühestens in der dritten P55 Generation zum Einsatz kommt . . .
 
Nvidia und ATI Ingenieure beissen sich seit Jahren die Zähne an der MultiGPU-Problematik aus. Und jetzt soll ein "Voodoo"-Chip kommen, der auf unerklärte Weise alle Probleme löst?
Klingt nicht sehr glaubwürdig... zumindest ein White-Paper o.ä. sollten sie schon vorzeigen können.

Bezüglich SplitFrameRendering/AlternateFrameRendering:
- Ersteres funktioniert nicht mit RenderToTexture, was eigentlich alle modernen Spieleengines fürs Postprocessing(HDR usw) machen. Deshalb ist es "aus der Mode gekommen".
- Letzteres funktioniert mit allen Rendertechniken, erzeugt aber bekannterweise Mikroruckler und Inputlag

Edit: oops, hatte die erste Slide hier übersehen:
http://www.pcper.com/article.php?aid=607&type=expert&pid=1
Also sortieren sie heurestisch je Drawcall auf eine Karte... das könnte im typischen Fall klappen. Transparente Meshes und Postprocessing gehen so aber nicht imho.
Naja man wird sehen, immerhin eine neuer Ansatz... skeptisch bin ich noch immer;)
 
Zuletzt bearbeitet:
luckysh0t schrieb:
Frage mich nur wie des dann mit den Treibern abläuft dachte Nv und Ati Treiber lassen eine gleichzeitige installation gar nicht zu oder irre ich mich da ?

Falsch, du kannst zB. ne NV IGP betreiben + ner ATI Graka. Dabei hast du Forcewave und Catalyst Treiber auf dem System.
 
@Nighthawk
Weder ATI noch Nvidia haben ein besonderes Interesse an einer solchen Technik, besonders die Kombination aus zwei GPUs verschiedener Firmen scheint für sie gänzlich uninteressant. Daher ist es nicht sehr unrealistisch, dass gerade einem Underdog wie Lucid der Durchbruch gelingt.

Falls es ihnen wirklich gelingen sollte, fände ich dies Klasse. Hoffe, dass auch Mainboards von ECS mit solch einem Chip rauskommen werden
MfG
 
Nighthawk13 schrieb:
Nvidia und ATI Ingenieure beissen sich seit Jahren die Zähne an der MultiGPU-Problematik aus.
Woher weißt du das denn?
Vllt. wollen ATI und NV einfach kein Geld in die Weiterentwicklung einer Technik stecken, die sich auch so schon gut genug verkauft. Die pumpen ihr Geld lieber in Treibertuning und die Entwicklung neuer Grafikkarten.
 
@FoxMcCloud: Klar, am Mischbetrieb hat weder ATI noch Nvidia Interesse.

Aber an Multi-GPU an sich schon:
- Denen wäre es sicher recht, wenn sie pro Kunde 2 Karten verkaufen könnten.
- Der Hersteller mit der schnellsten Lösung hat einen Prestigegewinn... auch wenn sie für die meisten Kunden unwirtschaftlich ist.
- Je komplexer die Chips werden, je grösser ist das Risiko von Ausschuss(Stichwort Yields). Da ist man mit mehreren kleinen Chips besser dran als mit einem Riesenteil.
- Man kann den gleichen Chip für Mittelklasse und Highend(als Dualkarte) vermarkten.
 
"Also, just to be clear, you will not be able to use graphics cards from both Nvidia and ATI at the same time. This is because Windows does not support the use of two different graphics drivers while rendering a 3D application"
Quelle: http://news.cnet.com/8301-17938_105-10021005-1.html

der englishe artikel ist sehr interessant. es ist auch nachvollziehbar. 3d rendering mit zwei unterschiedlichen grafikkartentreibern ist wirklich nun mal NICHT möglich, es sei denn man schafft einen wrapper zwischen direct 3d und dem grafikkartentreiber. die ist aber reine softwarelösung.

hydra verwendet kein SFR oder AFR, auch wenn die news es dort irreführend als ein realtime mix bezeichnen. in wirklichkeit soll hydra anscheinen vertex-bündel abfangen und verteilt sie entweder auf die eine oder andere karte. bilder werden dann wohl unter berücksichtigung von z/w-buffer zusammengesetzt.

das verfahren wird sicherlich kaum wahrnehmbare aber vorhandene artefakte ans licht bringen. ich würde hydra trotzdem als revolutionär bezeichnen. microruckler und schlechte sfr skalierung dürfen damit nicht mehr vorhanden sein. auch geometrieberechnung muss nicht auf jeder karte doppelt gemacht werden.

eine bessere lösung als hydra es macht wird es für rasterisierungs-rendering nicht mehr geben. damit wird sie wirklich bis auf wenige prozent genau die lineare skalierung erreichen.

da culling bereits von der cpu erledigt wird, stellt es für dieses verfahren kein problem dar.
clipping ist durch z-buffer sichergestellt.

allerdings sehe ich die gefahr dass die shader hier große probleme bereiten können. wenn ein shader wasser-oberfläche berechnet und die darunterliegende geometrie für refraktionen nicht hat, weil das die andere grafikkarte zugeteilt bekommen hat, gibts ein megaproblem!
 
Zuletzt bearbeitet:
Ich wünsch mir nen Chip womit man 2 Grakas auto. steuern /deaktivieren kann. Sprich unter Windows nur die lahme 4350 passiv und sobald Leistung gefordert ist soll sich die 2. Graka 4890 dazuschalten.
 
yurij schrieb:
das verfahren wird sicherlich kaum wahrnehmbare aber vorhandene artefakte ans licht bringen.
Entstehen die Artefakte beim wieder zusammenfügen der Bildfragmente oder wie?
Wär nett wenn du mir das etwas genauer erklären könntest, bitte.

Anscheinend versuchen die Leute bei Lucid gerade Artefakte auf ein Minimum zu reduzieren, ich hoffe sie kriegens hin :D
How can Lucid be sure their task based distribution methods accurately represent what the game designers intended? An interesting dilemma - with the company essentially taking control of the graphics pipeline there are all kinds of ways for the company to accidently screw some things up. Lucid answered this by telling us their quality assurance program was already well under way. In fact, they use a pixel-by-pixel comparison engine comparing the HYDRA images to a single GPU render to check for errors or problems.
Quelle
 
tree-snake schrieb:
Ich wünsch mir nen Chip womit man 2 Grakas auto. steuern /deaktivieren kann. Sprich unter Windows nur die lahme 4350 passiv und sobald Leistung gefordert ist soll sich die 2. Graka 4890 dazuschalten.

Gibt es doch schon mehr oder weniger mit Hybrid SLI.
 
Das Problem sit das man dazu ein NV Board und eine passende Karte braucht. Außerdem wurde es ja von NV eingestellt.

Bei irgendein Notebook ist es aber irgendiwe möglich zwischen der Intel onboard und der ATI dedizierten hin und her zu schalten.
 
@Grantig: die schreiben nur dass sie perpixel engine benutzen um fehler zu entdecken. eine andere frage ist es wie sie diese fehler korrigieren können, und ob es überhaupt möglich ist manche fehler zu korrigieren.

es gibt immer wieder perlen unter den spielen wie gothic 3, welche deferred rendering verwenden. hier wird die sache unheimlich kompliziert.
 
Also ich hab mir mal die geposteten News zum Hydra-Chip durchgelesen... Meiner Meinung nach sollte es mit einem funktionierenden Hydra-Chip (im Idealfall) sogar einer mehr als 100% Skalierung geben. Das lieg daran, dass einige Teile des Bildes nich doppelt berechnet werden müssen und daher Platz im VRam "frei bleibt". Bei großen Texturen, großen Auflösungen etc. könnten so zwei gleiche Grakas mit z.B. jeweils 512 Mb Ram schneller sein als eine einzige, die an die Grenze ihrer 512Mb Ram stößt. Dass heutige Spiele durchaus soviel Ram beanspruchen ist auch in einigen CB Artikeln nachzulesen.
Wenn es aber daran geht Refraktionen an der Wasseroberfäche etc. zu berechen benötigt die graka ja die geometiedaten... Da der Treiber des Lucid Chips zwischen DirectX und Grafikkartentreiber sitzt sollte es aber möglich sein die erforderlichen Daten der entsprechenden GPU zukommen zu lassen. In dem Fall, dass fast der gesamte Bildinhalt von einer GPU berechnet werden müsste(Refraktionen etc.) so wäre die Skalierung natürlich schlecht und die FPS-Zahl kaum höher als bei einer GPU. Genial ist aber eigentlich, dass eine Grafikanwendung mit mehreren GPU's nie langsamer agiert als mit einer GPU.
Schwierig wird es aber wohl für Lucid ihre Treiber immer aktuell zu halten um eventuelle neue Engines zu unterstützen.
Meiner Meinung nach ein grandioses Projekt! Und wenn Mainboardhersteller a la MSI sowas auf ein Board klatschen, dann kann es ja nicht so schlecht sein ;)
Übrigens soll der Chip nur etwa 5 Watt aus der Dose ziehen :)
Und obwohl viele das Angepriesene für ein Wunder hielten - unmöglich ist es nicht. Abwarten!
 
elh4jj4j schrieb:
Gibt es doch schon mehr oder weniger mit Hybrid SLI.
Mit Hydra könnte Hybrid-SLI tatsächlich wieder attraktiv werden. Bei 25Watt Idle Verbrauch(GT200) lohnt sich Hybrid SLI allein von den Kosten her nicht, das hat der Markt gezeigt. Aber wenn man plötzlich wieder 2 oder mehr Grafikkarten im System hat will man die ja dann auch komplett abschalten. Die Frage bleibt, ist die Mehrheit bereit teure Grafikkarten zu kaufen um solche Features möglich zu machen. Nein ist sie nicht! Bis jetzt ist ja jeder nur Geil auf €/FPS was der Entwicklung von GPUs nicht gerade gut tut. Siehe HD 4800, die Dinger haben 60Watt im Idle, das summiert sich dann ganz schnell, mit Hydra ist sowas quasi untragbar, aber an den Verkaufszahlen der 4890 sieht man ja wieder, keiner will ein effektives Power Play haben also kommt es auch nicht...:rolleyes:

Würd mich echt wundern, wenn die HD 5000 im Idle Strom spart, nichtmal bei der 4770(30Watt im Idle) hat ATI den Stromsparmodus richtig umgesetzt und es ist zurecht immer noch eine sehr gute Karte und wird gekauft wie verrückt.(wenn verfügbar)

MfG Kasmo
 
Zuletzt bearbeitet:
Hier gibts noch den schematischen Aufbau des Chips und die Info dass es angeblich nur PCI-E 1.1 beherrscht.

Click mich!
 
Der "Produkt Brief" ist aber falsch, denn es handelt sich nicht um "Hydra 100" sondern um eine neuere Version.
 
Zurück
Oben