News Erste DirectX-11-Karten von ATi bereits im Juli?

Von mir wars ja anfänglich gut gemeint.

Wenn du fragen wolltest ob eine HD4870 55nm mit einer (fiktiven) HD4870 40nm im CF zusammenarbeiten kann, dann würde ich jetzt mal ja sagen. Die GTX260 mit 65nm soll ja auch mit der GTX260 55nm im SLI zusammenarbeiten können. Aber 100%ige Versprechungen kann ich dir nicht geben.
 
Immer wieder lustig wie soviele Leute auf solche Pressemeldungen reinfallen.

Diese Meldungen dienen nicht als Information für Marktintressierte oder die Konkurenz.
Nvidia hat genau wie Ati schon länger alle plane für DX11 leigen und deren Ref-Modelle sind bestimmt schon lange auf dme Papier vorliegend.

Also was soll das?

Mal wieder n paar Fanboys erwischen die die Firma (ATI in diesme Fall) hypen.


Lonely Shepherd schrieb:
Von mir wars ja anfänglich gut gemeint.

Wenn du fragen wolltest ob eine HD4870 55nm mit einer (fiktiven) HD4870 40nm im CF zusammenarbeiten kann, dann würde ich jetzt mal ja sagen. Die GTX260 mit 65nm soll ja auch mit der GTX260 55nm im SLI zusammenarbeiten können. Aber 100%ige Versprechungen kann ich dir nicht geben.


btw:


man kann auch unterschiedliche Karten im SLI oder CF betreiben, kann aber unter Umständen nicht die erwartete Leistung bringen oder instabil laufen.
 
DVD_ schrieb:
@TheK
Also bei dem Vergleich Phenom II 920 vs. Athlon X2 6000+ seh ich deutlich mehr als nur 10% mehr Leistung.

Richtig, es sind 16% (also weniger als zwischen GTX275 und der ersten 260er, das wären 20%!). Schon mit einem 805er Phenom sind dann nur noch 3% übrig und das fällt schon fast unter Messschwankung. Nach oben gewinnst du "gigantische" 14%, wenn du die Ausgaben für die CPU praktisch ins unendliche steigerst...
 
Dir ist schon bewusst, das bei den CPU-Tests eine lahme 9800 GTX+ zum Einsatz kam?
 
Ok,wenn Direct X 11 karten schon Mitte dieses Jahres kommen sollen,dann kaufe ich mir keine GTX 285 mehr,belasse es bei meiner alten GTX 260 XXX mit 192 Streaming Prozzis und werde abwarten,was Nvidia dann auf den Markt wirft,sollten diese Angaben korrekt sein.

Greetz!
 
Von der GTX260 auf ne GTX285 aufzurüsten ist sowieso sinnfrei.
 
Wieso? Geringerer Verbrauch, leiser und klar schneller [+25%]. Wenn man n gutes Angebot bekommt ... why not.
 
wow schon die ersten DX11 karten, eig. finde ich das total schei0e weil nicht mal DX10 richtig ausgereift ist und nicht so viele spiele es nuttzen, schauen wir mal DX9 zum beispiel, spiele wie Crysis auf maximalen details haben fast gar keinen unterschied zwischen DX9 und DX10 dann noch DX11 raus bringen finde ich totaler Schwachsinn

wieso klar schneller die GTX260 lasst sich super [bertakten und mit ein paar gute Taktraten ist der unterschied nicht mehr so gros das grantier ich aber klar hast du recht ist die GTX285 klar schneller aber in 1 bis 2 spielen kannst du den vorteil raus holen

MfG
Chirvan
 
Was ist am Fortschritt Schwachsinn? Deine jetzige Grafikkarte wird mit D3D 11 nicht schlechter. Wenn du mit ihr jetzt zufrieden bist, bist du das auch noch wenn D3D 11 Karten kommen. Wenn du nicht zufrieden bist, freu dich dass leistungsfähigere Karten kommen. Oder liegt es daran, dass du mit der Grafikkarte nichtmehr angeben kannst :D
 
Durch DX10 werden Spiele ja auch nicht einfach mal so schöner. Banal gesagt kann man bestimmte Berechnungen schneller ausführen und diesen Geschwindigkeitsvorteil in eine bessere Optik stecken.
die GTX260 lasst sich super übertakten
Eine GTX285 kann man auch übertakten :rolleyes:
 
Gringerer verbrauch?
Das musste mir malnäher erklären.
Klar schneller 25%, ja wow.. da muss ich unbedingt noch ne Karte aus dieser Generation kaufen...
Da wird man ja arm.
 
Zuletzt bearbeitet:
Das nächste Battlefield soll ja dann immerhin schon DX11 unterstützen.

Was mich mal interessieren würde:

Weiß einer ob es Ati technisch möglich ist ihre 5D Architektur die in 10Flops rechnet und ja für DX 10 entwickelt wurde (HD2900-4800) auch mit DirectX11 umgehen kann oder ist Ati gezwungen die Architektur zu ändern?

Nvidia will ja nun ebenfals angeblich mehr mehrdimensionale Shader beim GT300 verwenden, allerdings wohl eher weil der GT200 im Vergleich zum RV770 ein riesiger und teurerer Chip war
 
Schaffe89 schrieb:
Gringerer verbrauch?
In 2D.
Schaffe89 schrieb:
Klar schneller 25%, ja wow.. da muss ich unbedingt noch ne Karte aus dieser Generation kaufen
Ich sagte, bei einem guten Angebot :rolleyes: Zudem zwingt dich ja keiner.
Schaffe89 schrieb:
Da wird man ja arm.
Manche Leute haben mehr Geld, andere weniger. Du mit deinen zwei X2s musst dich ja wohl nicht beklagen - billig waren die nicht. Ob sie was taugen ist die andere Frage.
CB schrieb:
Das Problem der unrunden Bildabfolge, nur gar noch schlimmer, haben auch Triple- und Quad-CrossFire. Im Prinzip ist jede Anwendung absolut unspielbar [...]
 
Zuletzt bearbeitet:
man sieht, dass jetzt genauso ein hype um DX11 gemacht wird, wie damals um DX10.

Bis heute gibts eine Handvoll Spiele mit DX10 und die Unterschiede zur jeweiligen DX9 Version muss man mit der Lupe suchen, abgesehen davon, dass sie mehr leistung brauchen. Mit DX 10.1 hätte zumindest die Leitung etwas besser werden können, aber "The way it´s meant to be played" sah eben anders aus :evillol:

Die meisten Spiele kommen immer noch mit lediglich DX9. Ich denke mal ATI muss ihre DX11 karten etwas aufbauschen, denn zur Zeit hat Nvidia mit der PhysX-Unterstützung ihrer Karten einen großen Vorteil.
Dadurch, dass ATI diese Effekte nicht darstellen kann ist es genauso, als wenn man damit ein Spiel nur in mittleren Details spielen kann.

Reine Spieleleistung oberhalb der heutigen High-End Karten ist doch dagegen kaum nutzbar in Spielen. Ich kann z.b. in 95% aller aktuellen Spiele (Crysis und Clear Sky mal ausgenommen) mit meiner 2 Jahre alten Ultra immer noch alle Regler voll aufdrehen und dazu noch AF und AA zuschalten und trotzdem läuft alles flüssig.
 
Wozu braucht man dann Quad-Crossfire?
Gar nicht, zum zocken taugt das nämlich nicht. Ist gut für den Schwan*mark, das wars dann aber auch schon.
die Unterschiede zur jeweiligen DX9 Version muss man mit der Lupe suchen
Bei WiC, CoH, CoJ und HAWX sinds Welten ... nur mal so als Beispiele.
Reine Spieleleistung oberhalb der heutigen High-End Karten ist doch dagegen kaum nutzbar in Spielen.
Dann zock halt nicht mit 4x MSAA, sondern mit 16xS oder 4x4 SSAA. Und nicht in 1.280 sondern in 1.920. Da ist auch eine GTX285 idR überfordert ... und flüssig sind imo konstant über 40 Fps.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Dann zock halt nicht mit 4x MSAA, sondern mit 16xS oder 4x4 SSAA. Und nicht in 1.280 sondern in 1.920. Da ist auch eine GTX285 idR überfordert ... und flüssig sind imo konstant über 40 Fps.

Aus dem Grunde kaufe ich mir auch keinen 24" Monitor für meine 3870. Ich denke auf eine DX11 Karte zu warten lohnt sich da schon.
 
TheK schrieb:
Richtig, es sind 16% (also weniger als zwischen GTX275 und der ersten 260er, das wären 20%!). Schon mit einem 805er Phenom sind dann nur noch 3% übrig und das fällt schon fast unter Messschwankung. Nach oben gewinnst du "gigantische" 14%, wenn du die Ausgaben für die CPU praktisch ins unendliche steigerst...

- Wie y33H@ schon andeutete, wenn man die CPU nicht mit maximal möglichen Daten füttert, dann kann sie auch nicht mehr beschleunigen.
Mit zb. meiner aktuellen GTX285, sind die Abstände schon deutlich größer, als mit einer 9800+ GTX.

- Spiele haben zu dem von Natur aus einen hochen sequenziellen Anteil, Codeseitig.
Auf zwei Kerne optimieren ist oft keine große Sache, bei mehr wird es ab schon schwer für die meisten Bitschupserbuden, drei oder vier Kerne sinnvoll und ständig auszulasten.
Aber der Fall GTA4 zeigt dann doch deutlich, wo die Grenzen der Dual Cores sind.
Mangels Benchmark, kann ich nur eine Vermutung aufstellen, aber ich schätze, selbst ein 2,5GHz PII 805 hängt dann einen 3,1GHz A64 6000+ mit ca. 30% mehr Frames ab, statt nur 3%.

- Wenn ein AMD Phenom II X4 920 nur noch knapp über 150€ kostet, dann wird ein AMD Phenom II X4 805 was kosten?
Ich konnte noch keine Preislisten im Netz entdecken...
Vermutlich 115 - 125€ !?.. dafür kann man auch keine riesige Mehrleistung erwarten, das ist ein Einsteiger Quad für Spieler, bzw ein sehr günstiger Arbeits-Quad für alle die, die viel mit Videoschnitt zutun haben.
Denn dort rechnet der kleine Quad mehr als doppelt so schnell wie ein 600Mhz schneller Dualcore.
 
Zurück
Oben