News MSI P55 „Big Bang“ bekommt Lucid-Hydra-Chip

@ stna1981
Ich weiß, es ging mit nur um die Aussage, dass man früher 2 Grafikkarten verbauen sollte und jetzt wäre das nach deinem Satz nicht mehr nötig oder erwünscht von nVidia.

@ DJKno
In dem Artikle den ich verlinkt habe steht auch "but combining AMD and NVIDIA just won't work. Let's hope for the future... " aber jetzt ist eben ein Jahr vergangen und somit "Zukunft" :rolleyes:
Vielleicht ist das aber auch eine Ente.
 
@ DvP

Hatte ich auch shon gepostet (#32). Kann mir auch nich vorstellen, dass Intel das so einfach auf nem High-End Board verbaut ohne das ausführlich getestet zu haben.

Naja die Hoffnung stirbt zuletzt :)
 
Naja generell interessant ist das bestimmt, bevor die ersten Tests zu sehen sind glaub ich zumindest denen mal gar nix ;D
Ich mein erstens wird das preislich relativ hoch sein, zweitens gibts das bisher nur für intel boards, drittens wird die frage sein wie gut das eben skaliert.
aber vielleicht haben wir bis in 2 jahren ja tatsächlich alle nen hydra chip drin *gg*
 
Gut Ok, XP und 7 unterstützen 2 parallele Treiber.
Aber geht das auch im 3D-Modus oder nur in 2D?

Mir fehlt da eindeutig das Fachwissen :-)
 
mit lucid geht ati + nv jetzt ...

gibt auch ne herstellerpage ...

und ja es geht auch im 3d, sonst wäre es ja sinnlars ...
 
Questions We Asked

Here are some more details we inquired about that you are likely interested in:

How can Lucid be sure their task based distribution methods accurately represent what the game designers intended? An interesting dilemma - with the company essentially taking control of the graphics pipeline there are all kinds of ways for the company to accidently screw some things up. Lucid answered this by telling us their quality assurance program was already well under way. In fact, they use a pixel-by-pixel comparison engine comparing the HYDRA images to a single GPU render to check for errors or problems.

What about the possibility of combining an AMD and NVIDIA GPU to work together to render one image?
This was my biggest hope after hearing the initial introduction. Apparently it won't be happening though as the operating system prevents multiple graphics drivers from running 3D applications at the same time. Since a 6800 and 9800 use the same driver from NVIDIA, both may operate in 3D mode without a hassle but combining AMD and NVIDIA just won't work. Let's hope for the future...

How will tasks be distributed in greatly exaggerated card matchups? For example, in that 6800 and 9800 combination mentioned above? With the HYDRA Engine it is apparently very easy - the software and chip recognize the potential for each and distribute the appropriate number of tasks to each card. Maybe 5 tasks to 1 or something like that; the results are then combined by the HYDRA chip and sent to a single GPU for output.

http://www.pcper.com/article.php?aid=607&type=expert

heißt in Windows 7 sollte das gehen, und rein von der Technologie her steht dem eigentlich auch nichts im Wege.
 
Irgendwie ein Wunderchip. Keiner kann sich irgendwie vorstellen wie das auf einmal klappen soll. Braucht das Ding spezielle Treiber? Müssen die extra an jedes Game angepasst werden? Fragen die erst ein Test klären kann.

Also wenn plötzlich Multi-GPU einwandfrei funktioniert, dann ist NV zur Zeit ein bisschen besser aufgestellt, weil sie einfach mehr Karten mit 2GB im Angebot haben. https://www.computerbase.de/forum/threads/sammelthread-grafikkarten-mit-mehr-als-1gb-vram.562654/
Wobei vielleicht funktioniert Hydra ja nicht wie gewohnt und der Vram Addiert sich?

@Kraut
Ja Win 7 lässt 2 Treiberinstallationen zu aber 2x 3D mit den 2 Treibern bin ich mir nicht sicher. ATI + NV PhysX hat ja schon geklappt, aber die NV Karte musste ja nicht 3D Rednern sondern nur PhysX berechnen. http://www.abload.de/image.php?img=windows7_ati_nv_physxojp9.png
Und was man so hört hat das NV treiberseitig sperren lassen.
http://www.abload.de/image.php?img=vantageggdu.png
 
Zuletzt bearbeitet:
Summieren wird er sich sicher nicht, sind ja getrennte Karten, aber da jede Karte nur einen Teil eines Frames berechnen muss, wird wohl weniger Speicher benötigt, könnte ich mir vorstellen...
 
Wiesi21 schrieb:
@bensen: AFR, wie es heute eingesetzt wird, ist leider absolut ineffizient, da nämlich Bilder im vorraus berechnet werden ohne neuerlichen Input anzunehmen. Daher ist das Ergebnis eigentlich generell unbrauchbar (zumindest beim aktiven Spielen, da meine Eingaben später umgesetzt werden als mit ner (in der Framerate vielleicht niedrigeren Single Lösung).
Naja bei mir ist dei Effizienz die Performance Steigerung; wie gut kann die 2. GPU genutzt werden. Die ist gut bei AFR. Die Probleme µ-Ruckler oder eben oder das Delay um 2-x Frames hat imho nichts mit Effizienz zu tun. Letzteres halte ich allerdings bei 2 GPUs für fast vernachläassigbar.

Das Lucid SFR nutzt hat ja auch niemand behauptet. Nur es gibt noch keine unabhängigen Tests die zeigen dass deren Methode auch funktioniert. Sie schreiben ja auch nicht wie sie es realisieren. Von daher glaub ich noch gar nichts.
Wie genau wird das Bild aufgeteilt? Wie wird die Stärke einer Graka eingeschätzt und somit die Bildteile die eine Karte berechnen muss. Ne Radeon hat immens viel Rechenleistung, ne Geforce viel Texturleistung. Wie realisieren sie zB diverse Postprocessing "Effekte"? Wie Antialiasing?

Und vor allem: Sie zerstückeln das Bild und setzen es zusammen. Hat das kein Verzögerung bis zur Bildausgabe?
 
Naja die wären ja auch blöd, wenn sie vor Markteinführung verraten würden, wie sie es machen, und sich dann die Butter vom Brot nehmen lassen.

Dass da nicht eine gewisse Rechenleistung anfällt, z. B. um die Bilder wieder zusammenzusetzen, hat niemand behauptet, oder was meinst du, was die Risc-CPU, die Teil des SoC ist, die ganze Zeit macht? ;-)
 
1. Jo klar. Nur weil sie ein paar Infos rausrücken kann es jeder nachbauen. :rolleyes:
Die sollen ja nicht alle Details verraten, sondern nur wie es grob funktioniert.

2. Hab ich gesagt dass das wer behauptet hat? Nur ob dabei eine Verzögerung stattfindet oder nicht kann man schlecht schon jetzt vorhersagen oder? Und dann wäre ein Vorteil schon hops.
 
Klingt gut, jedoch find ich den Namen unpassend.
Lässt irgendwie direkt an nvidia denken (Big Bang)

Bin gespannt ob sich durch diesen Chip villeicht die Multi GPU Probleme mindern lassen werden und wie ich verstanden habe wird man damit auch ATI und nvidia Karten gleichzeitig betreiben können. Damit kann man endlich offiziel PhysX und CUDA auch als ATI User nutzen usw.

Wobei es sich wahrscheinlich und hoffentlich mit DX11/OpenCL ändern wird.
 
Und die letzte Variante nennt sich S-Cross / Crossi

SLI und CF zusammen ... hehe^^

never
 
Krautmaster schrieb:
@bensen
stell dich nich blöder an als du bist.
Was machst du mich denn dumm an?
Solche Artikel gibt es massig und wie ich schon ne Seite vorher sagte haben die kaum Informationsgehalt. Geht nicht weit über Marketingblabla hinaus.
Oder kannst du mir jetzt nach dem lesen des Artikels sagen wie das realisiert wird? Das einzelne Teile von verschiedene GPUs einzeln berechnet werden und wieder zusammengefügt werden ist klar. Wie soll es auch sonst funktionieren?
 
Moin,
weiß einer ob die geschwungenen Leiterbahnen unten links im Bild nur zur Laufzeitkorrektur sind oder dort auch die Filtereigenschaften relevant sind?
Hab das schon mehrmals gesehen und weiß nicht genau wie von so einer Anordnung die Eigenschaften sind.

Grüße
 
@Kasmopaya

naja ich glaube, dass die Ram Anforderungen durch den Lucid Chip eher sinken werden, da die Karten eben nie einen vollen Frame berechnen müssen und die Daten auch nicht alle brauchen. Nach den Sample Pictures anderer Seiten, teilt der Hydra nur in komplett von einander unabhängige Bereiche des Bildes auf, alles andere würde ja auch die Performance ähnlich wie beim normalen SFR in den Keller treiben.

@bensen: das Problem beim AFR ist, dass es nicht möglich ist z.B. die zweite Karte mit in der Zwischenzeit aktualisierten Input Daten zu füttern (warum auch immer). Daher wird quasi "errechnet" wo ich mich beim nächsten Bild befinde --> was aber logischer Weise nur bei konstanter, gleichgerichteter Bewegung möglich ist.

Bewege ich in der Zwischenzeit die Maus, folgt noch ein "falscher Frame" der zweiten Karte, bevor die erste wieder die Änderung berücksichtigt. Dieser zweite Frame erhöht zwar die Bildwiederholrate, ist aber schlicht fehlerhaft und repräsentiert nicht das gewollte Spielgeschehen. Deshalb ist z.B. bei schnellen Shootern AFR defakto auch bei nur 2 GPUs von Nachteil.

Beim Hydra stellt sich die Frage ob nicht durch den Mehraufwand des Datenflußes durch den Hydrachip ein Lag produziert wird bzw. die Bandbreite vom PCIe X16 2.0 nicht mehr ausreicht...
 
sry Herr Adminral
warnich bös gemeint ;) ich wollt dir nur die Quelle für den Artikel geben und etwas ausfallend sein ^^

ich glaube dennoch es wir mit der detaillierteste Artikel sein den man hierzu findet.
 
Das klingt wirklich sehr geil, da würd ich doch glatt >200€ fürn Board ausgeben, muss man beim Aufrüsten halt nicht neu kaufen :)

Wie genau das funktioniert wäre schön zu sehen, wenn der Chip tatsächlich 4 GPUs mit 16 Lanes versorgen bräucht ich mir auch Q1 2010 keine Gedanken um Bloomfield machen, hach wär das schön.

octacore schrieb:
Ausserdem wenn nicht irre gelesen zu haben kann der Lucid-Hydra besser mit sogennanten Hybrid (Kleine GPU für desktop, starke für Gaming etc) umgehen. Dieser Punkt täte viel mehr Leute betreffen als nur Multi-GPU für Leistungsgewinn.
Das wäre auch sehr cool, dann nach heutiger Lage eine 7300LE fürn Desktop und eine GTX295 fürs Gaming, vorausgesetzt der Chip kann auch bei internem SLI die MR deaktivieren.
 
Zurück
Oben