News ATi präsentiert Radeon HD 4350

gruffi schrieb:
Und dass nVidia Chips auf G80 Basis ALUs besser auslasten können, wäre auch erst noch zu beweisen. Bisher habe ich noch keine stichhaltigen Informationen dazu gesehen. Aber wenn du Quellen hast, nur her damit.

Hier sieht mans ziemlich gut:

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=6

NVIDIA verfolgt quasi eine Strategie einer schnellen einspurigen Straße, da muss alles durch.

Bei ATI ists mehr ne 5-spurige Straße, die aber je nach Software sehr gut oder aber nicht so gut genutzt werden kann, so als ob entweder nur blaue (oder alle gleichfarbigen) Autos nebeneinander fahren können. Oder überhaupt keine. Wenn die Spiele mehr auf die ATIs optimiert werden würde, hätte NVIDIA ein echtes Problem, weil 5 spurig nunmal schneller ist.
 
Das ist aber kein Beweis für die Aussage. In dem Artikel steht doch sogar, dass ATI selbst bei seriellem Code Vorteile haben kann. ZB aufgrund weniger Thread Switches oder geringeren Latenzen, wenn ich das richtig verstehe. Du scheinst die Funktionsweise der Shader nicht ganz verstanden zu haben. Du musst nicht immer Vektoren mit 5 Elementen haben, um die Shader auszulasten. Du kannst diese Vektoren auch mit 5 unabhängigen Werten füllen und dann durch die ALUs schicken. Sozusagen aus 1x5D mach 5x1D. Und das steht ja auch bei AnandTech, die deutlich grössere Anzahl an Streamprozessoren bzw die höhere Flexibilität der Shader ist letztendlich performanter. Aber dafür braucht es auch entsprechende Software, die sicherlich etwas anspruchsvoller zu implementieren ist als bei nVidias Architektur. Das mag bei Spielen auch ein Kriterium sein und warum nVidia nicht völlig zurückfällt. Spielt hier aber keine Rolle. Die Rede war erstmal nur von der Hardware.
 
Zuletzt bearbeitet:
Die Karte eignet sich auch hervorragend als notkarte. falls mans mitm OC mal wieder übertrieben hat sollte man des gute stück immer im schrank haben. ansonsten würde ich für htpc und ähnliche späße schon zur 4550 greifen :)
 
Den größten Nachteil den ich bei mir sehe (Gigabyte GA-MA78GM-S2H, 780G) ist, das der IGP nicht beide Digitalen Schnittstellen gleichzeitig nutzen kann. Da mein Monitor über DVI und mein Fernseher über HDMI da dranhängt hab ich da schon nen nerviges Problem, Wenn ich Filme vom PC über den Fernseher gucken will muss ich erst jedesmal unter den Tisch krabbeln und das DVI Kabel abziehen und den HDMI dranstecken. Das ist auch keine gescheite Lösung.

Deshalb bin ich am überlegen mir so ne HD4550 einzubauen. Aber mich würde mal interessieren wie da der Stromverbrauch steigt? Fahre im Moment bei 50 Watt / Idle und 60-80 Watt /Load (Blu-Ray schauen)
 
Hallo bernd n,

ich suche eine günstige ATI-Karte mit zwei digitalen Anschlüssen und wollt gerne wissen, ob mit der Asus EAH4350 zwei Monitore als erweiterter Desktop digital angeschlossen werden können oder ob man DVI und HDMI nur im Klon-Modus gleichzeitig benutzen kann.

Vielen Dank.
 
Ja das funktioniert, HDMI und DVI sind unabhängig und werden getrennt im CCC angezeigt.

Beide Ausgänge lassen sich auf verschiedenen Auflösungen einstellen. Das war Pflicht, weil der Beamer 1368x768 und der Fernseher 1920x1080 Auflösung haben und die Boardgrafik damit überfordert ist.
 
Zurück
Oben