Crossfire/SLI-Mikroruckler - endlich ein Video!

liegt das erkennen der Mikroruckler eigentlich mehr am Monitor oder am Anwender?
 
Ich würde auf "Anwender" tippen. Es ist ja immer sehr subjektiv was man als "flüssig" oder "ruckelig" betrachtet.
 
Also als Faustregel:

- schnelles TN-Panel
- Kabelmaus
- Single-GPU oder Multi-GPU mit kostant 60+ FPS

Richtig ?
Nein. :)

- Kein TN-Panel verwenden, wenn du dir selbst einen Gefallen tun möchtest. (Außer dein Anwendungsgebiet liegt nur bei Games und Filmen.) Auf meinem damaligen 19er TN hat mir nicht mal Office "Spaß" gemacht..
- Kabel oder Laser/Infrarot machen bei der Übertragung keinen Unterschied. (Einzelne Extreme bestätigen die Regel.) Bluetooth hab ich nicht getestet. Ich würde meine "freie" Maus und Tastatur nicht mehr gegen gebundenes Material tauschen.
- Single-GPU bei Bildschirmen unter 22, 24 Zoll. (Mit den neuen ATI / Nvidia erst recht.) Ab 19 * 12 wird CF / SLI interessant, ohne Zweifel, aber wenn man es mit AA und AF nicht übertreibt, kommen die neuen Single-Karten auch auf der Auflösung sehr gut zur Geltung.

Du, es gibt Monitore, da ist es wirklich sehr stark ausgeprägt. Das spürt jeder User.
Aber normalerweise liegt es wirklich am Anwender und an der Anwendung, die der Anwender benutzt.
 
Zuletzt bearbeitet:
Humanforce schrieb:
Du, es gibt Monitore, da ist es wirklich sehr stark ausgeprägt. Das spürt jeder User.
Aber normalerweise liegt es wirklich am Anwender und an der Anwendung, die der Anwender benutzt.


Das ist ein Widerspruch in sich, aber genau das war meine Frage, liegt es am Anwender ODER am Monitor?

Ich persönlich denke, dass es an der Hardware liegen könnte.
Einerseits habe ich bei meinem alten 19 Zoll Hercules TFT noch nichts von Microrucklern mit bekommen, andererseits stört mich das flimmern eines 50Hz Fernsehers gewaltig.
 
"Ausnahmen bestätigen die Regel." ? ;)
Es gibt das Extrem, dass der Monitor wirklich für alle Benutzer unbrauchbar ist.

In der Regel liegt es aber am Anwender selbst und an den Anwendungen die er benutzt.

Einerseits habe ich bei meinem alten 19 Zoll Hercules TFT noch nichts von Microrucklern mit bekommen, andererseits stört mich das flimmern eines 50Hz Fernsehers gewaltig.
Das ganze Thema habe ich noch nicht bei 17 und 19 Zoll TFTs gehabt. Das beginnt erst bei 20 Zoll Widescreens und entsprechenden Pannel-Lösungen.
Ob auch 19 Zoll Widescreens davon betroffen sind kann ich dir nicht sagen.
Bisher hatte ich nur Standard 15, 17 und 19er + 20, 21, 22, 24 und 26er Widescreen in den Fingern.

Das ist ein Widerspruch in sich, aber genau das war meine Frage, liegt es am Anwender ODER am Monitor?
Liegt der Grund eines fehlerhaften Rechners am Rechner selbst oder am Anwender, der Sche.. gebaut hat? ;)
Exakt trennen kann man beide Aussagen nicht. Subjektiv gesehen wird sich der Anwender nie selbst die Schuld geben. Kleinste Fehler fallen ihm vielleicht nicht auf oder er ignoriert sie einfach. Sobald er spürbar davon beeinträchtigt wird, beginnt das Geschrei.

Selbes Prinzip bei TFTs mit Input-Lag.
Jeder TFT ist technisch nicht in der Lage eine 100% unverzögerte Darstellung abzuliefern. Beim Anwender entscheidet es sich dann, ob der Bildschirm mit 99,1% oder 99,5 % am Idealzustand dran ist und damit fehlerfrei/gut funktioniert oder zurück zum Hersteller muss.

.. wo waren wir gleich wieder?
Ach, genau: Bei Grafikkarten.
 
Zuletzt bearbeitet:
Aber man muss ja das Gesamtbild betrachten... wenn man seine Probleme nur auf die Grafikkarte schieben will, macht man einen Fehler.

- Kein TN-Panel verwenden, wenn du dir selbst einen Gefallen tun möchtest. (Außer dein Anwendungsgebiet liegt nur bei Games und Filmen.) Auf meinem damaligen 19er TN hat mir nicht mal Office "Spaß" gemacht..

Die Zeiten haben sich aber geändert ;) Ich selber besitze seit kurzem den Samsung Syncmaster T206 (26" Widescreen) und bin extrem zufrieden mit diesem Gerät. Deswegen verstehe ich Humanforce nicht wieso er was gegen TN-Panels hat. Im Spielebereich konnte ich den "Lag" noch nicht testen, aber im 2D-Officebetrieb und auch in diversen Benchmarks sind keinerlei schwächen zu erkennen. Man liest zwar immer was von wegen schlechter Farbdarstellung oder Farb-Winkel-Untreue... kann ich aber nicht festellen, wenn ich nicht direkt mit der Nase am Monitor sitze ;)

Und eigentlich gehts doch darum, wie man diese Lags wegbekommt und ein lahmes PVA-Panel hilft da nicht weiter.
 
Wenn du 1x ein wirklich hochwertiges S-IPS oder S-PVA .. oder andere in höheren Preiskategorien vor dir stehen hattest und damit alles gemacht hast. Dann wirst du erkennen, dass der einzige Vorteil eines reaktionsfreudigen TN-Pannels schnell vergessen ist. :)

Vielleicht bin ich in der Hinsicht etwas zu verwöhnt und etwas voreingenommen gegenüber ALLEN TN-TFTs, egal ob sie 150 oder 350 Euro kosten.

Wenn ich mir schon eine teure Grafikkarte in den Rechner baue, möchte ich auch satte und kontrastreiche - gleichmäßig ausgeleuchtete - Farben sehen und keine Einschränkung meines Sitz- und Arbeitsplatzes haben, weil das Sichtverhältnis eingeschränkt ist.

Und eigentlich gehts doch darum, wie man diese Lags wegbekommt und ein lahmes PVA-Panel hilft da nicht weiter.
Das wiederum ist ein Vorurteil deinerseits. :D
PVAs sind zum zocken geeignet.
Mein momentaner BenQ 91GP (19 Zoll) hat ein VA-Panel und ist absolut top. (also die ganz alte Schule)
Der kommende Eizo FlexScan S2431WH mit S-PVA Panel ist ebenfalls ein vollwertiger Spielerfreund. :)
 
Zuletzt bearbeitet:
Humanforce dann bin ich auf den HP Pavilion w2408h (TN imho) gespannt den ich in kürze bekomme.
Die zwei 4870er Readons mitsamt 4,5GHz QX langweilen sich massiv mit einen 19" :rolleyes:
 
Hm, ist es möglich das mein Gehirn als Behindert eingestuft werden kann und ich damit glücklicher als die meisten sein dürfte?
Mir fällt in dem Video nämlich nichts auf, ich sehe da garkein mikroruckeln.
ich hab bei single und cf das gleiche flüssige/unflüssige gefühl.
:o

warum ist das eigtl. so schwer zu entfernen, sollen die doch einfach einen Bildkondensator vorn ausgang machen der alle ausgegeben bilder kruz speichert und selbst einen interwall festlegt auf dem die bilder regelmäßig ausgesendet werden. das geht teilweise zwar auf die FPS aber ob jetzt 50 fps mit mikro oder 35 ohne dürfte ja dann die 35 besser sein?
naja ich stell mir das so einfach vor mit meinem behindi hirn :D
 
Zuletzt bearbeitet:
ExcaliburCasi schrieb:
warum ist das eigtl. so schwer zu entfernen, sollen die doch einfach einen Bildkondensator vorn ausgang machen der alle ausgegeben bilder kruz speichert und selbst einen interwall festlegt auf dem die bilder regelmäßig ausgesendet werden. das geht teilweise zwar auf die FPS aber ob jetzt 50 fps mit mikro oder 35 ohne dürfte ja dann die 35 besser sein?
naja ich stell mir das so einfach vor mit meinem behindi hirn :D

Genau das habe ich ja oben schon vorgeschlagen... hat nur mal wieder keiner gelesen :9 Zwar nicht mit einem Kondensator, aber eine ähnliche Art der Synchronisation. Praktisch wäre, wenn man sowas im Treiber dann ein- oder ausstellen kann, für die "Empfindlichen" ;)
 
Ehrlich gesagt ruckelt für mich beides.
Haben die fürs spiel eine HD3450 verwendet?
Aber man merkt schon deutlich den Nachteil der Mikroruckeler.
Also leiber eine HD4870 als ein HD3850 Crossfre System.
 
Naja, ein HD4870 Crossfire System ist von der Preis-Leistung her nicht mehr zu Toppen.
Nur ein GTX280 SLI System ist schneller - und kostet auch 600€ mehr.
 
Ein GTX260 SLI-System ist ca. 18% schneller als ein HD4870 CF-System und kostet ca. 20% mehr. Also auch durchaus interessant!

Zumindest, dass nur ein GTX280-SLI-System schneller sein soll stimmt so nicht. Da reicht ein GTX260-SLI-System. P/L-Technisch ist ATi aber dennoch etwas besser aufgestellt.
 
Zuletzt bearbeitet:
@AvenDexx:

Ähh ne eigentlich nicht... Ein GTX 260 SLI-System kostet etwa 500 Euro. Ein 4850 CF-System kostet etwa 290 Euro. Differenz also 210 Euro, also rund 70 % höherer Preis für 18 % mehr Leistung. Also keine Überlegung wert...
 
@Wuffi schrieb:
@AvenDexx:
Ähh ne eigentlich nicht... Ein GTX 260 SLI-System kostet etwa 500 Euro. Ein 4850 CF-System kostet etwa 290 Euro. Differenz also 210 Euro, also rund 70 % höherer Preis für 18 % mehr Leistung. Also keine Überlegung wert...

Sorry, war ein Tippfehler meinerseits. Meinte natürlich die HD4870. Ich wollte auf den Post von Marcel55 antworten, der von einem HD4870-CF-System sprach. Habs korrigiert. An den Daten ändert sich nichts, nur der Name der Karte musste korrigiert werden.

Also 18% schneller als 4870-CF und 20% teurer als 4870-CF.
 
Zuletzt bearbeitet:
Naja,
Aber auf jeden fall kann die 4870 durchaus mithalten.
Nun aber Back to Topic.
 
Ich denke mal, das Topic ist durch, bevor wirs noch ganz zerreden ;)
 
Versucht man beide Signale zu synchronisieren, so muss es man zwangsläufig auf das langsamere Signal warten bis das Gesamtsignal ausgegeben werden kann.

Wie viel Prozent an Leistung würde so eine Maßnahme kosten?
 
Zurück
Oben