Test Test: MSI Big Bang Fuzion mit Hydra-Chip

Schade bin sehr entäuscht das SLI hier nicht mit getestet wurde.
Nur weil ATI momentan die stärkste Grafik lösung bietet?

MFG
 
schöner test, war auch sehr gespannt auf die ergebnisse.
Ich finde man sieht stellenweise schon das hydra wöllte wenn es könnte ;-)

Aber wenn mal wieder die richtigen Treiber fehlen ist das schade
 
schöner test was ja auch nich anders zu erwarten war...noch machen die treiber probleme aber das sind hoffentlich nur kinderkrankheiten die bald behoben werden...
was mich stört ist: beim ersten foto werden die SATA steckplätze von der grafikkarte überdeckt...
das ist ein absolutes no go für mich

aber ansonsten...gelungenes teil...
 
In meinen Augen werden die Mikroruckler wieder einmal völlig überbewertet.
Es ist zwar richtig, dass aufgrund dieses Phänomens die reine FPS-Zahl nicht immer als Mass für die Spielbarkeit gewertet werden kann,
allerdings wird der Effekt in der Community durch die anhaltende Berichterstattung vollkommen verzerrt wahrgenommen.
Wenn man Aussagen wie diese liest, sieht man das deutlich:
User XYZ schrieb:
Solange die die Mikroruckler nicht in den Griff kriegen, ist Crossfire/SLI für mich gestorben.
Das einzige Problem bei Mikrorucklern ist die Tatsache, dass man sich bei den Qualitätseinstellungen auf seine Augen verlassen muss und nicht nur auf den FRAPS Counter.
Zumal, wie Frameverläufe eindrücklich belegen, 30FPS Average nie als Bewertungskriterium taugen.

Das habe ich auch schon während meiner Single-GPU Zeit erfahren müssen.
Das Spiel läuft flüssig (25-35 FPS) bis es irgendwann richtig kracht, dann ruckelts. Das ist zB in Battlefield super toll, weil das meistens die entscheidenden Szenen sind.
Teilweise tritt das auch bei gewissen Effekten auf: ZB lief damals Dark Messiah of Might and Magic stets flüssig, bis ich die Frost-Daggers herausgenommen habe - mit denen in der Hand verkam das Spiel zu einer Ruckel-Orgie.

Fazit: Man wählt dann besser tiefere Einstellungen, als eigentlich nötig wären.

Bei den Mirkorucklern ist es halt einfach so, dass man seine Einstellungen nach dem subjektiven Empfinden wählen muss. Je nach Spiel, Betrachter und Szene sind das dann evtl 35-40 FPS.
Der Punkt bei der ganzen Geschichte ist, dass das bei den meisten Spielen schlicht Max.-Settings bedeutet, während eine Single-GPU dann evtl. schon reduzieren muss.

Es ist richtig auf Mikroruckler hinzuweisen(schon nur um den Treiber-Programmierern etwas Druck aufzusetzen), allerdings wird es dermassen aufgebauscht, dass der Eindruck entstehen könnte, dies sei ein konstantes Problem, mit dem man als Multi-GPU-Besitzer einfach zu kämpfen hat.

Dies ist jedoch schlicht falsch.

Auch die Prognose, dass Mikroruckler, auch wenn sie vielleicht momentan kein Problem darstellen, schon bald bei "zukünftigen Spielen" eines werden, ist mit vorsicht zu geniessen.
Crysis wird immer als Beispiel genannt, doch dieses Spiel ist mittlerweile 2 1/2 Jahre alt. Seither hat sich (leider) nicht viel getan und da sich die Konsolen in absehbarer Zeit nicht weiterentwickeln und PC-only-Titel immer seltener werden, wird sich das auch nicht gross ändern.
Diese Statistik wird natürlich von Spielen wie zB GTA IV verzerrt, allerdings liegt da die Ursache des Problems in schlampiger Protierung/Programmierung und nicht bei den Grafikkarten.

Im Spätsommer dieses Jahres feiert meine Karte ihr zweijähriges Jubiläum in meinem PC(genauer 21.08. - sie freut sich immer über Glückwünsche). Da ich bisher noch jedes Spiel ohne nennenswerte Abstriche spielen konnte, wird es vermutlich 2011 bis ich ernsthaft über einen Ersatz nachdenken muss.
Zweieinhalb Jahre wäre eine gute Lebensdauer. Ist man bereit gewisse Abstriche hinzunehmen, dann würde sie es bestimmt auch noch etwas länger machen.

Letztendlich bin ich froh, dass ich mich nicht vom Mikroruckler Hype habe blenden lassen, es wären mir viele schöne Stunden voller Grafikpracht entgangen.
 
Zuletzt bearbeitet:
Visualist schrieb:
Schade bin sehr entäuscht das SLI hier nicht mit getestet wurde.
Nur weil ATI momentan die stärkste Grafik lösung bietet?

MFG

nein denke eher es liegt daran dass sli auf dem board nicht läuft cf aber schon.
 
Der Prozessor des Testsystems ist schon der Intel Core i5 750?
 
naja das geflame und geheule ist für das cb-forum mal wieder typisch ...

selber nichts leisten, ausser dumm im inet die gratis-infos abgreifen und rumflamen, wie scheisse diverese produkte sind, obwohl sie es eh NIE kaufen würden ...

ich denke auch, dass der HWLuxx Test so gut ausgefallen ist, weil die genau wussten, wo es probleme gibt.
immerhin war MSI mit dem teil selbst hier in jena und erste probleme wurden direkt an den hersteller übergeben, sodass schnellstens ein neues bios zu stande kommt, was erst OC-Probs behebt ...

so arbeiten redaktionen effektiv mit den herstellern zusammen ...
 
Kleine Kritik an einem sonst richtig guten test:
Wenn man den Test so liest bekommt man die Impressionen, dass nur die ATi Karten schuld an der schlechten Performence seien. Dies liegt doch offensichtlich an dem Hydra-Chip.
 
Ergo noch zuviel Probleme, typisch Bananenprodukt, reift wenn überhaupt beim Kunden. Mal wieder abwarten was die Software noch macht.
 
Hartes Fazit aber genau das was ich vermutet habe. Ein Mischbetrieb zweier Garfikkarten mit unterschiedlicher Architekturen und den völlig unterschiedlichen Treibern läßt sich mit einem kleinen Chip wohl kaum brauchbar realisieren.
Hydra ist und bleibt wohl nur eine Werbeplattform für MSI-Boards und wird sich kaum lohnen.
 
hmm.. ich tu mir ja schon sehr schwer, denn sinn von crossfire oder SLI zu verstehen... da ist wohl auch nicht viel.

aber das hier? warum sollte ich diesen unsinn auch noch mit zwei unterschiedlichen grafikkarten machen wollen? ehrliche frage - was spricht FÜR dieses produkt, von der mangelhaften technischen umsetzung mal abgesehen? ich versteh es nicht.

lg
Lion
 
So wie ich das verstehe muss Hydra für jedes Spiel angepasst werden, alleine daran wird es scheitern. Nicht unbedingt von technischen Aufwand aber vom finanziellen.

Ansonsten trifft es die Beschreibung "Bananenprodukt" ganz gut, eigentlich schade war aber (leider) schon im Vorfeld abzusehen.
 
ich frag mich, ob msi das vor dem "ankauf der technik" überhaupt ausprobiert hat. Ein hersteller muss doch sein produkt vorher testen und wenn man solche gravierenden fehler sieht, muss man doch sagen: "nein so eine technik wollen wir uns nicht antun"
eventuell hat ja der hersteller des hydra chips msi als kostenlosen testprobanden ausgewählt.
rein theoretisch könnte viel aus dem projekt werden.
ich denke am anfang wars mit reinem sli/crossfire auch nicht anders, dass da nicht alles gepasst hat
 
Danke CB für den Test.

Schade, scheint ja nicht so ausgereift zu sein.

Gruss Seft
 
Mäxchen77 schrieb:
... Kauf mir doch nicht einen Sack voll Probleme für 300 Euro!
Denke da genauso ! :schluck:

StuffedLion schrieb:
... warum sollte ich diesen unsinn auch noch mit zwei unterschiedlichen grafikkarten machen wollen? ehrliche frage - was spricht FÜR dieses produkt, von der mangelhaften technischen umsetzung mal abgesehen? ich versteh es nicht.
Der Sinn? - Na ist doch einfach: beim aufrüsten was macht man da mit der "alten" Grafikkarte ?
So kann mann noch die "alte" für andere zwecke verwenden oder witer nutzen.
 
Zuletzt bearbeitet:
Irgendwie hab ichs doch vorhergesagt. Das Ding funktioniert nicht. DirectX-Befehle Abfangen und 2 Karten an einem Bild rechnen lassen? Dafür siehts ja doch irgendwie zu sehr nach AFR aus... und die Probleme mit der unterschiedlichen BQ hab ich irgendwie auch erwartet ;-)

(wer will kann ja meine Posts aus dem anderen Thread raussuchen ;-)
 
hmmm...iner einer der letzten PCGH Ausgaben war ein Video Vergleich von 2x5850 (Call of Duty World at War). Dort sah es aber so aus als hätte CF keine Chance gegen Hydra -> kaum Mikroruckler, viel stabilere FPS Verläufe (wesentlich höhre min FPS). Es wurden auch die hier genannten Probleme angesprochen, aber das Urteil viel bei weitem nicht vernichtend aus ( eher genau das Gegenteil).
Aber man weiß auch nicht wie weit MSI die Finger im Spiel hat. Bin gerade etwas erschrocken über diesen Test. (nicht negativ gemeint)

Immerhin kann der Chip überhaupt ATI + NV zusammenbringen. Und SLI + CF ist auch vom Treiber bzw. CF/SLI Profil abhängig, anfangs war die Unterstützung auch nicht die beste. Man sollte Lucid etwas Zeit geben.

Grüße
 
Zuletzt bearbeitet:
Ich habs auch eher positiv in Erinnerung. Quasi keine µRuckler, aber der Treibersupport muss noch viel besser werden. Und CB schreibt ja das SLI bessere FPS raushaut wie Hydra. Wer hat nun recht? Bzw. welche Fakten stimmen nun?

Naja wie auch immer, es wird gemunkelt das NV mit Fermi und einer GTX 490 eventuell die µRuckler komplett unter Kontrolle hat. Mal schaun, mal schaun. Spannend wie immer. :D
 
Zurück
Oben