News MSI-Mainboard mit ATi/Nvidia-Mischbetrieb

HappyMutant schrieb:
Frage ist nur was sie eigentlich versprechen. Schlicht getrennte Grafikkarten an einem jeweils anderen Monitor zu betreiben.

Das war bisher nicht möglich?

Ich kann doch irgend ein x-beliebiges Board nehmen, das mindestens zwei PCIe 16x-Slots bzw PCIe 16x kompatible Slots bereit stellt und dann eine ATi und eine nVidia Grafikkarte einbauen.

Beides mal installiert man die Treiber - NICHT! den Foreceware oder das CCC - sondern nur die Gerätetreiber (notfalls von einem Drittanbieter) - und gut ist.

Ich habe es noch nicht ausprobiert, weil ich lieber das CCC nutze, aber wie gesagt: Ich sehe prinzipiell hier keine Hürde, die da angeblich genommen werden soll.

Übrigens:
Der Chip Verteilt keine Lanes und erstellt praktisch gesehen auch keine - die angebotenen Lanes werden lediglich wie bei einem Netzwerkswitch geteilt - wenn eine Karte die vollen 16 Lanes braucht, bleibt für die andere nichts übrig.

Und dafür dann 70 Tacken ausgeben?
Denkt euch, was ich hier sagen würde, wenn es nicht wieder gegen sämtliche Forenregeln verstoßen würde.
 
k.A. was das alles soll
habe mir seit der Ci7 auf dem markt ist , ein x58 von asus gekauft , und da kann ich mit max. 4 gpu's (nvidia) oder 3 CF laufen lassen

Ich habe es noch nicht ausprobiert, weil ich lieber das CCC nutze, aber wie gesagt: Ich sehe prinzipiell hier keine Hürde, die da angeblich genommen werden soll.

@RubyRhod : bin ganz deiner meinung
die leute von MSI , haben da irgentwas verpennt :hammer_alt:
 
Forum-Fraggle schrieb:
Wow, da kommt mir direkt auch eine Frage, vermutlich liegt es am Kaffemangel nach dem ausschlafen ;)

Könnte dieser Chip vielleicht auch ein Grund wenn nicht sogar der Grund sein warum Mikroruckler weder von NV noch ATI richtig angegangen wurden? Ich habe keine Erfahrungen mir MRs, lese nur immer davon

Ich hab einen AMD-Prozessor, einen Ati-Chipsatz und zwei HD3450 im Crossfire. Und hab keine Mikroruckler, bei keinem von meinen Spielen. Es mikroruckelt meiner Erfahrung nach mit Intelprozessoren. Wer mir das nicht glaubt (und das ist so ziemlich jeder), solls selber mal probieren.
 
@Screemer

Zu jeder News ohne präzisere infos, gehören wilde Spekulationen hier im Forum einfach dazu. ;)
Ich bin gespannt, wie praxistauglich/erfolgreich das Board wirklich sein wird.
 
Na das wäre es doch.
Wenn sie jetzt noch Boards mit Tripple-channel mit dem Ding verkaufen, vorzugsweise von Asus, dann hol ich mir so eins, eine ATI für Eyefinity und eine GT300 für Phys-X und genügend Leistung.
 
Also wenn das wirklich so (gut) funktionieren wird wie im Link oben, dann hut ab.


Aber so ganz möchte ich daran noch nicht glauben, das ist fast zu schön.
 
Es ist wirklich erstaunlich wieviel Müll hier in den kommentaren steht obwohl im Artikel eigentlich alles erklärt bzw. verlinkt wird.. (bei leuten die kein englisch können verstehe ichs grade noch).
Der Chip wird einschlagen wie eine Bombe und SLI bzw. Crossfire ablösen. Keine Mikroruckler (und das hat nix mit Intel CPUs zu tun) und perfekte Leistungsausbeute in jeder Anwendung.
CUDA und ATI Stream werden mit dem offenen OpenCL standard sowieso überflüssig und dann lassen sich per Hydra chip auch NV und ATI Karten gleichzeitig für berechnungen verwenden.
Der EINIZGE nachteil an diesem Chip ist der Preis, aber highend ware war schon immer teuer.

Was ich krass finde ist wie stark sich manche hier an die Marketingausdrücke wie SLI und CF binden. Wieso sollte ein Hydra Chip SLI oder Crossfire zertifiziert werden wenn er weder SLI noch CF macht?
Es ist eine MultiGPU technologie, aber eine dritte die ausser einem ähnlichen ergebnis nichts mit SLI/CF gemeinsam hat.

Zudem wäre mit Hydra evtl. das möglich was viele User schon lange fordern: Im Officebetrieb die onboard graka benutzen und bei games die normale graka aktivieren! Also quasi das was NV und ATI schon mehrfach angekündigt aber nie verwirklicht haben.
 
Zuletzt bearbeitet:
Doch das funzt zumindest bei NV mit bestimmten Geforcekarten schon. Nur braucht das kein Anwender seitdem die GTX Karten auf einerträgliches Strommaß IDLE reduziert wurden...

Ist vergleichbar mit einer Start-Stop-Funktion im Auto. Soll viel bringen, nervt aber meistens. Bei manchen Notebooks muß man sogar neustarten, um zwischen den GPUs hin- und herzuschalten. Bäh.

Also lieber eine Zockerkarte, die unter 2D vernünftig runtertaktet und runtervoltet. Wer nur einen Internet-PC daheim hat, sollte sich aus Gründen des Stromverbrauchs eh ein Notebook kaufen.
 
@ h00bi

Der Autor dieser News hier hat auf Seite 1 gesagt:

Volker schrieb:
Japp, dazu passt das Q&A von Legit Reviews mit AMD und NVidia. Da dementieren sie alles erstmal, weils halt von nem Dritten kommt. Ich denke SLI oder CF wird nicht gehen, schon gar nicht noch gemischt^^
Aber ich lass mich gern überraschen.

Also wieso soll ich das, was Dritte diesem Chip andichten, glauben? Solange der hersteller selbst nicht klipp und klar sagt, dass die unterschiedlichen Karten da an der gleichen Ausgabe rechnen können würden, glaube ich solche utopischen Wunschträume auch nicht.
 
Artikel-Update: Laut gerade herein geflatterter deutscher Pressemitteilung soll die „Big Bang“-Serie ab Anfang November im deutschen Handel stehen. Genaue Details außer der „bahnbrechenden neuen Technik für Multi-Grafikkartensysteme“ und „zahlreichen Extras und Neuentwicklungen für Gamer und Spiele-Enthusiasten“ gibt die Aussendung aber auch nicht bekannt, so dass man sich weiterhin bis Ende Oktober gedulden muss.
 
Es wurden doch schon Demo-Systeme mit einer ATi und einer nVidia gezeigt, die gleichzeitig liefen und das Bild berechneten...
 
@cube83
Und was soll und das genau beweisen? Es zeigt nur, dass 2 Grakas auf dem Board stecken, aber nicht den Performancevorteil. Sie hätten auch ganz einfach nur eine von beiden rechnen lassen können und du würdest keinen Unterschied merken.

Erst wenn bewiesen ist, dass man mehr FPS bekommt, erst dann glaube ich an das alles.
Fast wie mit der "abgeschnittenen" Fermi :rolleyes:. Man braucht einfach etwas um es zu präsentieren.

Dass eine fast 100% Skalierung möglich ist und technisch umsetzbar ist, ist nichts neues und leider hat Nvidia diese Technik verworfen. Siehe 3dfx voodoo 6000.
 
^^ nettes Video

interessante Sache vielleicht lohnt es sich ja doch auf P55 und die i5/7/9 umzusteigen...

Gibbet schon irgendwo Tests zum MSI Bing Bang? Hab auf die schnelle nix im Netz gefunden
 
Und wenn Hydra wirklich zu 100% skaliert dann fängt man an wie 3dfx und klatscht sich 100 GPUs auf sein Mainboard und entwickelt nicht mehr weiter.

einzig gut finde ich, dass man beim aufrüsten jetzt nicht mehr an einen hersteller gebunden ist, was aber sicher auch dazu verleitet in zukunft einfach die alte karte wieder aufs mainboard zu bauen oO
 
@TRixxY
News überhaupt gelesen oder nur Bildchen geguckt und Überschrift gelesen?

btt
Stehe der Sache etwas skeptisch gegenüber. Versteht mich nicht falsch, es wäre toll, wenn so etwas möglich wäre, doch so recht dran glauben mag ich (bisher) noch nicht. Gehen wir mal von dem dann auftreten Treibergewirr mal weg (wie läuft das mit Treiberupdates/Hotfixes usw. ab?), wie will dieser Chip das mit dem unterschiedlichen AA und AF Modi auf die Reihe bekommen? Da bestehen ja bekanntlich große Unterschiede zwischen ATi und nVidia. Ich glaube kaum, dass die ATi Karte zur AA Darstellung genutzt werden kann und die nVidia Karte zu AF ;) (wenn ihr versteht wie ich das meine :))

Da sind so viele Fragen bei dieser Technik, bin mal gespannt was da am Ende bei rauskommt.
 
Köpft mich... aber was für´n Sockel ist das denn? Ich wurde aus dem Text irgendwie nicht schlau Ö.Ö
 
siehe Trixxy-Posting über mir:
gutes Beispiel für Wirksamkeit solcher Marketingtricks mit Informationsrückhaltung. Er fragt Tests an obwohl der CB-News klar zu entnehmen ist daß das Mainboard Ende des Monats erst einmal vorgestellt wird -> Wie kann es da schon Tests geben außer vielleicht von MSI oder Lucid selbst?
Und trotz allem Informationsmangel über die Technik wird schon über Kauf nachgedacht.

Ebenso auch das Video von cube83: Was zeigt das Video anderes als das wenige bisher Bekannte? Ok, der Lucid-PR-Mitarbeiter berichtet, daß ein Treiber der die ganze Technik erst einmal wirksam ermöglicht frühestens in einem Quartal veröffentlicht wird. Das heißt sie haben noch keinen, so daß auch Lucid selbst noch gar nichts genaues über die Wirksamkeit weiß.
Das belegt auch die Tatsache, daß sie in dem Video zwar vorgeführt haben daß Windows mit unterschiedlichen Karten, auch nVidia + ATi, läuft, gar auch ein Spiel läuft, aber kein weiterer Sinn ersichtlich wird. Gäbe es beispielsweise einen Performancegewinn wäre es ja schließlich ein leichtes gewesen die gestiegene Framerate (per Fraps o.ä.) zu zeigen.
 
Zurück
Oben