News MSI-Mainboard mit ATi/Nvidia-Mischbetrieb

Pickebuh schrieb:
Deshalb ist diese Funktion nur Win7 only. ;)

Und warum nicht mit XP dieses akzeptiert meines wissens nach auch zwei unterschiedliche grafiktreiber;)
 
Zuletzt bearbeitet:
Weil XP nur 2 GPUs verwalten kann. Und XP nicht offiziell zwei Treiber unterstützt.
 
Vista weigert sich 2 verschiedene Treiber zu installieren ?

Wie kann ich dann hier sowohl Intel-igp treiber als auch dedizierte Ati Treiber im Notebook haben und beide Karten nach gutdünken wechseln ?

Im Gerätemanager sind unter Grafik auch beide zu finden....
 
Lustig, was für utopische Wunschträume sich hier bilden. Ich sehe bisher keinen große Zweck an diesem Chi und der Fakt, dass der Hersteller selbst alles unklar lässt, ist nun wirklich kein Grund vorrauseilend zu hofen und sich von dieser übertriebenen Werbekampagne des Unternehmens den Kopf verrückt machen zu lassen. Ich hab 1990/'91 (als Ossie bin ich mir im Jahr relativ sicher) mal in einem meiner ersten Mickes-Maus-Hefte gelesen, wie solche Werbekampagnen funktionieren: Man sagt über sein produkt absolut nichts, lässt alles im Unklaren und schon stürzen sich alle Medien mit den wildesten Speklationen auf das Produkt, am Ende gibts einen schnöden Kleinwagen wie jeden anderen auch, aber er ist der beliebteste Kleinwagen, obwohl er nichts besser kann - Micke maus Logik , die ich im Alter von 8 Jahren vertsanden hatte...
 
Zuletzt bearbeitet:
CB, vom 12. August 2009, 12:47 Uhr:

Hier das MSI-Forum dazu

von pcper.com, mit Film:

Lucid HYDRA Multi-GPU Technology Launches - End of SLI and CrossFire?

HYDRA Engine by Lucid - Multi-GPU Technology with No Strings Attached
 
Zuletzt bearbeitet:
Und was soll mir das sagen? Zur Erinnerung, auf Seite 1 dieses Threads merkt der ebenfalls CB-Redakteur an:

Volker schrieb:
... Da dementieren sie alles erstmal, weils halt von nem Dritten kommt. Ich denke SLI oder CF wird nicht gehen, schon gar nicht noch gemischt^^
...

Die Medien, CB eingeschlossen, ließen sich dazu verleiten, diese Spekulationen zu veröffentlichen, der Hersteller selbst sagt dazu (fast) nichts, es gibt nur Andeutungen. Jetzt lassen sich alle dzu verleiten, diese utopische Vorstellung, zwei unterschiedliche immernoch von den Fixed-Function-Fähigkeiten abhängige Grafikchips würde nahezu perfekt skalierend zusammenarbeiten können. Ich seh das wie Volker, ich lass mich gern überraschen, aber ich mach mich nicht verrückt, nur weil ein Hersteller einen Chip ankündigt, über dessen genaue Fähigkeiten er sich ausschweigt.
 
Zuletzt bearbeitet:
ich denke, dass der chip es ermöglichen wird eine mischkonfiguration egal mit welchen karten zu fahren. der treiber des hydra sorgt für eine ausgeglichene verteilung der aufgaben auf mehrere grafikchips und koordiniert dann das zusammensetzen und ausgeben der fertigen frames. das system müsste aber sehr ausgeklügelt sein, um die probleme die mit afr bei multigpu-rendering heute schon auftreten zu verhindern. das größte problem dürfte sein für konstante frametimes zu sorgen. eben das problem, dass heute gemeinhin als mikroruckler bezeichnet wird.

sollte das funktionieren, dann wird hydra über kurz oder lang von einem der zwei großen chiphersteller aufgekauft, denn es würde die ganze AFR-problematik lösen ohne die nachteile von anderen rendering methoden in kauf nehmen zu müssen.
 
Realsmasher schrieb:
Ich meine, wenn aus der cpu nur 16 lanes kommen, wie will man dann bitte einen größeren Downstream erreichen ?

Gar nicht, lediglich beliebig verteilen kann man den Datenaufwand. Aber das ist beim NF200 ja auch nicht anders.

Realsmasher schrieb:
Das ist doch wischiwaschi, für 4 gpus reichen die daten die über 16 lanes von der cpu kommen niemals (für 2 mags grad noch gehen). da hilft es auch nichts wenn man sich untereinander aushelfen kann.

Nunja, das Spiel kann man auch weiter spielen, ein 4,8 GT/s-QPI mit 16 Links (I7 920/940) reicht gerade so um 16 pcie2.0-Lanes zu versorgen. (Intern soll der I5 ja den pcie-Controller mit dem L3-Cache wie die s1366-I7 über QPI anbinden)
Für die 32 NB-angebundenen pcie2-Lanes, die Tylersburg beim x58 mitbringt, reicht selbst der 6,4GT/s-QPI der Extreme-I7 nicht.
Bei HT siehts ähnlich aus, und FSB... nunja, der reicht hinten und vorne nicht für 16 pcie2-Lanes + RAMdaten.

Im Endeffekt schafft es keine Desktop-Plattform die Bandbreite von signifikant mehr als 16 pcie2.0-Lanes (also z.B. 24, 32) zu den L-Caches der CPU zu bringen.


Gruß
Raubwanze
 
wird auch endlich zeit das dieser kindergartenkrieg zwischen sli und cf aufhört. genau wie der krieg um cuda bzw. physx. Von einer kompatiblen lösung profitieren alle, besonders die kunden.
 
Das ist ein Hack und kein Treiber !
Es gibt keine Garantie das es bei jedem Board funktioniert und ob es überhaupt auf längere Sicht funktionieren wird.
 
Nenn es wie du willst aber es funktioniert und auch auf anderen Boards oder meinste ein Board ist auf einmal anders?!

Wollte nur damit zeigen, dass man für SLi keine super mega Spezialteile auf einem Board braucht!

MfG M.R.
 
ich freue mich schon auf genauere details der platine.
preise, reviews, usererfahrungswerte etc.

ich finde msi geht mit dem brett den richtigen weg und setzt sich erstmal von den anderen herstellern ab.
 
@M.R.: Natürlich braucht man für SLI keine andere Hardware als für CF. Es ist nur eine Treibersperre wenn man so will. Und solche Hacks für SLI auf Intelboards gibt es meines wissens nach schon seit 975XE Chipsätzen. Nur da es Hacks sind, wird man selten auf seriösen Boards sowas finden. (Daniel K. Treiber lassen grüßen) Kein wunder das man die SLI Treiber nicht offiziell downloaden kann -.-

BTT: Spezielle Hardware hin oder her, erklärt mir dennoch noch lange nicht wie man Karten von 2 Herstellern dazu bewegt zusammenzuarbeiten.
Man schafft es ja noch nicht mal, im CF/SLI den Videospeicher zu verdoppeln, wie soll man die Leistung zweier Architekturen kombinieren? Noch dazu mit nem imo kleinen unspektakulären Chip.
Hinzukommt die evtl Unterschiedliche Bildquali...etc.
Jetz nen Chip hinzulöten, und zu sagen der lässt unterschiedlichste Karten zu 100% skaliern klingt mir doch zu einfach....
 
Screemer schrieb:
sollte das funktionieren, dann wird hydra über kurz oder lang von einem der zwei großen chiphersteller aufgekauft, denn es würde die ganze AFR-problematik lösen ohne die nachteile von anderen rendering methoden in kauf nehmen zu müssen.
Das glaube ich nicht, eher wird Intel zuschlagen. Schließlich haben sie das Unternehmen ja finanziell schon ganz ordentlich unterstützt. Und gerade in Hinsicht auf Intels Pläne in Bezug auf Onboard-Grafik würde es auch Sinn machen, sich das Unternehmen einzuverleiben.

r4yn3 schrieb:
BTT: Spezielle Hardware hin oder her, erklärt mir dennoch noch lange nicht wie man Karten von 2 Herstellern dazu bewegt zusammenzuarbeiten.
Man schafft es ja noch nicht mal, im CF/SLI den Videospeicher zu verdoppeln, wie soll man die Leistung zweier Architekturen kombinieren? Noch dazu mit nem imo kleinen unspektakulären Chip.
Hinzukommt die evtl Unterschiedliche Bildquali...etc.
Jetz nen Chip hinzulöten, und zu sagen der lässt unterschiedlichste Karten zu 100% skaliern klingt mir doch zu einfach....
So schwer ist es doch eigentlich gar nicht. Im Grunde genommen verteilt nicht mehr die CPU die Arbeit an die Grafikkarte, sondern der zwischen CPU und GPU gesetzte Hydra-Chip. Hat Grafikkarte A noch Luft, bekommt sie etwas mehr zu tun und umgekehrt. Es geht ja in erster Linie nur um die reine Rechenleistung der Karten, nicht um die herstellerspezifischen Features.
 
Ja, theoretisch...
Ich kann auch hergehen und sagen es ist nicht schwer eine GPU mit einem 1 Petaflop zu bauen, einfach drölftausen Transistoren drauf und gut ist.

Wo hat denn der kleine Hydrachip, die Logik drinnen, die erkennt wie aufwendig die aktuelle Anwendung ist?
Die Erkennung der potentiellen Leistung beider Karten, um diese auch im richten Verhältnis mit Daten zu füttern. Welche der beiden Karten gibt das Bild aus? Wie machen sie das mit dem VRam?

EDIT: Wenn ich mir das so recht überlege, will man mit dem Hydrachip mehr oder weniger die Treiber oder Chipsatzbeschränkung umgehen. Der Hydra wäre dann nicht weiter als ein NF200, der die Lanes bereitstellt und die Daten aufteilt. Was beim Hydra allerdings anders wäre, ist vermutlich das es ihm egal ist ob das eine Nvidia oder eine ATI ist. Nicht mehr, nicht weniger.

Von perfekter Skalierung, MR Beseitigung etcetc sind wir da trotzdem imo noch Meilen weit entfernt.
 
Zuletzt bearbeitet:
homann5 schrieb:
... Es geht ja in erster Linie nur um die reine Rechenleistung der Karten, nicht um die herstellerspezifischen Features.
Solange es nicht um reine GPGPU-Anwendung geht, lässt sich das glaube ich nicht trennen.
 
Ich finde jeglichen Versuch den Verbraucher zu mehr als einer Grafikkarte zu zwingen eine totale Verschwendung von Unternehmensressourcen. NVIDIA ist daran gescheitert und so wird es jedem ergehen der ebenfalls versucht einen zweiten Föhn in die Consumer Gehäuse zu zwängen.
 
es geht ja nciht darum den usern mehrere karten aufzuzwingen, sondern vielmehr darum die maximale Leistung zu erreichen. Außerdem kann man bei der perfektionierung der multi-gpu lösungen auf günstigere grafikkarten hoffen, weil sich die verschiedenen leistungsklassen nicht mehr über die chips ansich, sonder vielmehr über die anzahl der chips definieren. Dadurch werden weniger verschiedene karten benötigt, die dafür jedoch in höheren stückzahlen produziert/verkauft werden können. Dadurch wird zum einen die karte an sich günstiger und zum anderen bekommt man für das doppelte geld auch (fast) die doppelte Leistung
 
Zurück
Oben