News ATi-Karten nun in Unreal-Engine-3-Spielen mit AA

Ich werde mich nie an die Unreal3 Engine gewöhnen. Ich finde mit der sieht alles einfach schrecklich aus, dass sieht alles so künstlich und nach Plastik aus.
 
was ist los? ati ist hier mit 2 grakas am start und kann sich erst in den hohen qualitäten von EINER ultrra absetzen. für mich ist das schlimm, denn so muss ich noch warten damit was ordentliches auf den markt kommt -.- mehr stromverbrauch ist mir diese mehrleistung nicht wert und nen TREIBER-cheat ist es bei weitem nicht, wenn man seinen kunden zusätzliche features ermöglicht......(von vergangenem abgesehen)

mfg pino
 
Zuletzt bearbeitet:
LatinoRamon schrieb:
Der einzig größte unterschied ist bei "1280x1024 8xAA/16xAF:"
wir sprechen von 2x GPU gegen 1x GPU...

& auch Pinocchio

Teure Karte sind für hohe Auflösungen. Wenn ihr keine Ahnung habt, dann hängt euch doch bitte nicht so weit aus dem Fenster.
Was man hier in den Grafikkartenthreads liest geht wirklich langsam auf keine Kuhhaut mehr. Bleibt doch mal objektiv und belegt eure Meinung (!) mit Quellen. Dann kann man vllt. auch sachlich darüber diskutieren. Aber scheinbar gehts eh nur darum, andere zu beleidigen und seine Hardwareauswahl zu rechtfertigen, mit welchen "Argumenten" auch immer. Das ist einfach peinlich.

Wieso brauche ich mit 100 frames unter der mini Auflösung 1280x1024 bitte 100% Mehrleistung gegenüber der Konkurrenz? Brauche ich nicht, denn es ist ohnehin absolut flüssig spielbar mit allem Zubehör. Erst wenn ich 1600x1200 oder 1920x1200 wähle, dann sieht man, was die Karten wirklich leisten.
Wenn ihr so einen Monitor nicht habt, dann verallgemeinert bitte nicht eure Aussagen auf die Allgemeinheit. Das nervt tierisch.

Genauso wie das mit "AMD-Ati benutzt 2 Karten, das ist aber unfair". Leider kosten diese "2 Karten" aber nur unwesentlich mehr als eine 8800gtx (ohne idle Stromsparfunktion) und erheblich weniger als eine Ultra. Übrigens kann man sowohl die Hd3870 x2 als auch die Ultra übertakten. Von daher...

@Topic
Mit AA sieht das Gesamtbild einfach schärfer aus. Das von AMD gefällt mir eine Idee besser, wobei das allerdings hinfällig ist, weil die Lichtquellen und Effekte nicht 100% vergleichbar sind. (Grüne Lampe)
 
so leistungsstarke Karten sind verdammt teuer. Dazu noch SLI.

Weniger ist auch mehr, da geh ich mir lieber ne console posten.
 
Zwirbelkatz schrieb:
& auch Pinocchio

Teure Karte sind für hohe Auflösungen. Wenn ihr keine Ahnung habt, dann hängt euch doch bitte nicht so weit aus dem Fenster.
Was man hier in den Grafikkartenthreads liest geht wirklich langsam auf keine Kuhhaut mehr. Bleibt doch mal objektiv und belegt eure Meinung (!) mit Quellen. Dann kann man vllt. auch sachlich darüber diskutieren. Aber scheinbar gehts eh nur darum, andere zu beleidigen und seine Hardwareauswahl zu rechtfertigen, mit welchen "Argumenten" auch immer. Das ist einfach peinlich.

Wieso brauche ich mit 100 frames unter der mini Auflösung 1280x1024 bitte 100% Mehrleistung gegenüber der Konkurrenz? Brauche ich nicht, denn es ist ohnehin absolut flüssig spielbar mit allem Zubehör. Erst wenn ich 1600x1200 oder 1920x1200 wähle, dann sieht man, was die Karten wirklich leisten.
Wenn ihr so einen Monitor nicht habt, dann verallgemeinert bitte nicht eure Aussagen auf die Allgemeinheit. Das nervt tierisch.

Genauso wie das mit "AMD-Ati benutzt 2 Karten, das ist aber unfair". Leider kosten diese "2 Karten" aber nur unwesentlich mehr als eine 8800gtx (ohne idle Stromsparfunktion) und erheblich weniger als eine Ultra. Übrigens kann man sowohl die Hd3870 x2 als auch die Ultra übertakten. Von daher...

@Topic
Mit AA sieht das Gesamtbild einfach schärfer aus. Das von AMD gefällt mir eine Idee besser, wobei das allerdings hinfällig ist, weil die Lichtquellen und Effekte nicht 100% vergleichbar sind. (Grüne Lampe)

ne die hd3870x2 kannst du noch nicht übertakten, zumindest ging es bei sämtlichen reviews nicht, da man nur ein kern übertaktet hat :P
ansonsten hast du recht, wobei ich eine sache anmerken muss: komisch das die ultra in 1600x1200 so schwach is, bei höheren auflösungen ist sie ja verhältnismässig ja wieder besser dran. und das ist in einigen games so.

und doch es ist vergleichbar, wurde doch schon gesagt das die lichter auf jeder graka verschwinden und der screen einfach nur n kacktiming hat. wobei ich nicht verstehe warum man dann so einen screen nimmt ^^
 
Pinocchio schrieb:
mehr stromverbrauch ist mir diese mehrleistung nicht wert


Also weniger Strom im Idle find ich wichtiger als den Stromverbrauch bei Last (da der wesentlich seltener vorkommt) und genau DA ist die 3870X2 ne ganze Ecke besser als die Ultra!
 
Zwirbelkatz schrieb:
& auch Pinocchio

Teure Karte sind für hohe Auflösungen. Wenn ihr keine Ahnung habt, dann hängt euch doch bitte nicht so weit aus dem Fenster.
Was man hier in den Grafikkartenthreads liest geht wirklich langsam auf keine Kuhhaut mehr. Bleibt doch mal objektiv und belegt eure Meinung (!) mit Quellen. Dann kann man vllt. auch sachlich darüber diskutieren. Aber scheinbar gehts eh nur darum, andere zu beleidigen und seine Hardwareauswahl zu rechtfertigen, mit welchen "Argumenten" auch immer. Das ist einfach peinlich.

Wieso brauche ich mit 100 frames unter der mini Auflösung 1280x1024 bitte 100% Mehrleistung gegenüber der Konkurrenz? Brauche ich nicht, denn es ist ohnehin absolut flüssig spielbar mit allem Zubehör. Erst wenn ich 1600x1200 oder 1920x1200 wähle, dann sieht man, was die Karten wirklich leisten.
Wenn ihr so einen Monitor nicht habt, dann verallgemeinert bitte nicht eure Aussagen auf die Allgemeinheit. Das nervt tierisch.

Genauso wie das mit "AMD-Ati benutzt 2 Karten, das ist aber unfair". Leider kosten diese "2 Karten" aber nur unwesentlich mehr als eine 8800gtx (ohne idle Stromsparfunktion) und erheblich weniger als eine Ultra. Übrigens kann man sowohl die Hd3870 x2 als auch die Ultra übertakten. Von daher...

@Topic
Mit AA sieht das Gesamtbild einfach schärfer aus. Das von AMD gefällt mir eine Idee besser, wobei das allerdings hinfällig ist, weil die Lichtquellen und Effekte nicht 100% vergleichbar sind. (Grüne Lampe)

was willst du mir damit sagen? damals bei der ultra hieß es schon, das sie nur sinn macht wenn man in hohen auflösungen spielt, von daher ist es mir klar, wo bei den grakas die prioritäten liegen. es ging auch nur darum, ob mich diese leisttung überzeugt bei dem stromverbrauch, oder och ich lieber auf ein wunder in der chip/architekturherstellung hoffe. Weiters hab ich gesagt, das hier der vergleich mit einer ultra gemacht wird, der vergleich mit ner ultra(sli) oder der neuen gf wäre für mich eine kaufberatung. ......

mfg pino

bei mikr ist immer hdro oder ein stream game am laufen...... idle niedrig ist aber klar ne super sache.... so und jetzt kommts:
ich hab mir den stromverbrauch der ati noch nichtmal angeschaut, bin also einfach mal vom standard-sli problem ausgeganen, was sehr dumm war. ... ob das ne amd oder nv ist, ist mir egal, der direkte vergleich wird mal lustig.....
 
Zuletzt bearbeitet:
Na das ist doch ne gute nachricht für alle die das auch voll nutzen können (mit genug Grafikpower) ;)
 
@Pepsito

Glaubst du das tatsächlich? Die neue ATi soll die schnellste Einzelkarte bleiben?

Dann bist du ein Träumer, Nvidia spielt mit ATi im Highend Segment, sie haben ATi voll im Griff. ATi steht seit dem G80 richtig unter Zugzwang :)
 
Bleiben wird sie es sicher nicht aber Nvidia muss jetzt ers mal was dagegen setzten, ob die neue gx2 so viel schneller wird wie die 3870x2 wage ich mal zu bezweifeln, sind ja "nur" Zwei g92 Gpus die auf 550mhz Takten (angeblich).

Der Preis spielt dann sicher auch noch eine Rolle den eine 3870X2 bekommt man schon für 360€
 
Unyu schrieb:
Flimmernde Kanten springen imho direkt ins Auge. Bei Bewegung stören sie also deutlich mehr als auf Screenshots und bereits dort sind sie sehr störend.

Ja klar sieht man den Unterschied zwischen keinem AA und aktiviertem AA, aber ich meinte auch damit, dass der Unterschied zwischen 4x AA und 8x AA unwesentlich und kaum merkbar ist ;)
 
Erstaunlich. Der Treiber vom 23. lässt AA bei UT3 sogar auf meiner ollen 1900XTX zu :D (unter Vista x64). Läuft sogar flüssig (die Demo) auf max Details und 4x AA.
 
Seit gestern gibts ja nun den Catalyst 8.3 in 32 und 64bit für Vista.

Laut CB-Artikel hat ATI angekündigt, dass bei UT3 eine AA-Aktivierung im Spiel möglich sein soll. Bei mir ist allerdings nichts zu sehen.

Wie schauts da bei euch aus?
 
Zurück
Oben