News ATis Hiobsbotschaft: der R520 verspätet sich

spaceman2702 schrieb:
Von Spekulationen über ein Re-disign halte ich wenig. ATI hat in mit den letzten chips immer bewiesen das sie gute Designs haben und so viel schneller als die letzte Generation ist 7800gtx nun auch nicht.

ich hab mit nem bekannten von mir gesprochen...er arbeitet bei Inno3D und hat die graka schon getestet.
ergebnis: sogar der athlon 64 4000+ bremst die graka stark aus.

also wenn das nicht ein enormer leistungsanstieg is, weiß ich net -.-
 
Na toll, und was soll man mit dem alles überragenden Leistungsanstieg, wenn es keine (bezahlbaren) CPUs gibt, die ihn ausnutzen?
 
auf neue cpus warten?
bzw auf dualcore-support warten -.-
 
schnopsnosn schrieb:
ich hab mit nem bekannten von mir gesprochen...er arbeitet bei Inno3D und hat die graka schon getestet.
ergebnis: sogar der athlon 64 4000+ bremst die graka stark aus.

also wenn das nicht ein enormer leistungsanstieg is, weiß ich net -.-


Ja aber nur in Rohpower! Bei Qualitätssettings spielt die CPU kaum noch eine Rolle! Und wer wird nicht mit AA/AF spielen, wenn man sich schon eine GTX kauft? :rolleyes:
 
canada schrieb:
@ Bobbyy

> FPS ist nicht alles, funktionen wie HDR, Purevideo(videobeschl.), PS3.0 wird pflicht

Aha, erklär mir mal den Unterschied zwischen Shader 2.b und Shader 3.0, ah warte mal genau, die Instruktionen sind länger bei Shader 3, ist einfacher zu programmieren und das wars.
Kurz auch der olle Shader 2.b kann HDR (langsamer) und den ganzen Mist den keiner braucht, Videobeschleunigung hat auch ATI, zwar noch nicht für den neuen HD-Standard, aber wer braucht den jetzt schon ey es in Europa massen tauglich ist, haben nV & ATI schon längst zwei neue Generationen herraus gebracht.

Wenn du wissen willst was der unterschied ist, sollte du mal die bild qualität in splinter cell chaos theory ansehen. ich glaub vom NVIDIA DVD Decoder hast du auch nichts gehörts durch De-Interlacing und Filtereffekte ist die bild qualität sogar besser als die vom powerdvd. Die source engine wird in den nächsten monaten HDR bieten.Wenn die grafikqualität auf einer gefroce6800gt besser aussieht als auf einer 850Xt die fast doppelt soviel kostet, dann weis ich auch nicht wieso du ati verteildigst.wie schon gesagt es geht nicht um nvidia oder ati nur die 6reihe ist der xreihe überlegen.werde aufjeden fall warten was ati zu bieten hat und werd mich für den besseren entscheiden.
 
Zuletzt bearbeitet:
Bobbyy schrieb:
Wenn du wissen willst was der unterschied ist, sollte du mal die bild qualität in splinter cell chaos theory ansehen. ich glaub vom NVIDIA DVD Decoder hast du auch nichts gehörts durch De-Interlacing und Filtereffekte ist die bild qualität sogar besser als die vom powerdvd. Die source engine wird in den nächsten monaten HDR bieten.Wenn die grafikqualität auf einer gefroce6800gt besser aussieht als auf einer 850Xt die fast doppelt soviel kostet, dann weis ich auch nicht wieso du ati verteildigst.wie schon gesagt es geht nicht um nvidia oder ati nur die 6reihe ist der xreihe überlegen.werde aufjeden fall warten was ati zu bieten hat und werd mich für den besseren entscheiden.
Und du kannst nicht lesen:
HDR läuft auch auf jeder ATi, du brauchst dafür NICHT Pixel-Shader 3.0 und Splintercell Chaos Theory ist ein sagenhaft unsinniges Beispiel, da eben ein Pixel-Shader 1.1 Spiel, das eben auf seiner Basis zusätzlich noch ein paar Effekte ausschließlich mit Pixel-Shader 3.0 bekommen hat, die aber auch auf ATI möglich gewesen wären.

Und was am Nvidia-DVD-Decoder so irre überlegen sein soll weiß ich auch nicht, Hardware-MPEG2-Dekodierung auf Grafikkarten ist seit 2000 Standard in der Oberklasse, bei ATi wird die CPU dabei auch besser entlastet als bei Nvidia. Hardware-bewegungskompensation bieten auch seit Jahren viele Grafikkarten und das tolle: mit Bildqualität hat das nicht das geringste zu tun, sondern allein mit CPU-Entlastung, De-Interlacing bringt auch keine bessere Qualität,weil am PC sowieso in Progressive ausgegeben werden muss, wenn ein Video interlaced aufgenommen ist ist es interlaced aufgenommen, daraus eine progressive Ausgabe zu formen ist immer mit Problemen verbunden. Um das Bild auf deinen monitor zu bringen wird das Video also so der so "deinterlaced", was die Nvidia-Lösung dabei schafft ist vielleicht Performance - aber bei DVD-Wiedergabe ist die mittlerweile selbst bei aktuellen "Billig-Rechnern" nicht mehr kritisch. ;) Es gibt gute und schlechte Deinterlacing-Technik, aber schlechte gibts eigentlich eher bei Wiohnzimmergeräten, da PC-Software heute Leistung bezogen auf DVD-Wiedergabe im Überschuss hat. Was anderes ist das sicher bei DivX/XviD, WMV9, H264, aber die sollten sowieso immer auch als progressive Aufnahme angeboten werden. ;)

Es ging ihm sicher nicht darum ATI zu "hypen", sondern dich gegen deinen Glauben an überzogene Marketing-Aussagen etwas aufzuklähren. ;)

Dass HDR nur mit aktuellen Geforces möglich wäre ist nicht nur eine Halb-, sondern sogar eine richtige Unwahrheit. ;)
 
Zuletzt bearbeitet:
Dann verzögert se sich halt.
wayne ?

Solange es eh noch keine CPUs gibt, die die entsprechende Leistung haben um den theoretischen Vorteil gegenüber Geforce 6/RX850 zu nutzen kann ich auch noch ein paar Monate auf den Release warten.

Wer 500 Euro und mehr für ne Graka ausgibt hat imo eh einen an der Klatsche.
btw: Ich spiel Source auf 1280x1024 mit ner Radeon 9700 NP, ich brauch die 30fps aber nicht als Ausrede für mangelnden Skill, sowas find ich erbärmlich.
 
arghh
wann hört entlich dieses cpu-limitiert geblubber auf
auf 1280x1024+16xaf &4xaa, ist kein neus spiel cpu-limitiert
und keiner wird darunter spielen mit so einer graka eher noch höher
 
@ MountWalker

Danke für die Unterstützung :-)

Wie MountWalker schon sagte ging es mir nicht darum ATI zu hypen (auch wenn ich gerade eine ATI besitze). Und ich hatte zu dem nur auf deinen Post Bobbyy reagiert um dir zu sagen das du falsch liegst mit deiner Aussage. Klar sieht SplinterCell auf nV Karten besser aus, ist ja auch kein Wunder da diese einen eigenen Renderpfad bekommen haben (Shader 3), alle anderen Karten müssen den alten Shader 1.1 Pfad nutzen (wie ATI-Karten), wenn man jetzt noch Bild beim Start SplinterCell anschaut sollte einen auffallen wieso das so ist :-).

Desweiteren ist nun mal nur einzigste Unterschied zwischen Shader 2.x vs 3.x der das 3.x mehr Instruktion bzw. längere ab arbeiten kann als 2.x, das hat aber nicht mit neuen Effekten zutun. Weitere Vorteile sind halt das 3.x schneller ist und einfacher zu programmieren ist.

Davon kannst du dich auch selbst überzeugen, im Netz gibts genug Grafikdemos mit HDR und den ganzen Schnick-Schnack und lasse dies mal auf einer ATI Karte wieder geben und du wirst sehen wer recht hat.
 
@69 zustimm

Jeder der wie ich mit nem TFT zockt wird 1200*1024 spielen mit max aa und af was die karte halt hergibt. aber selbst bei 4xaa und 8xaf limitiert nie wirklich die cpu.

und selbst bei einer radeon 8500 kann ich wenn ich will behaupten ein a64 3800+ limitiert in bestimmten games noch.
 
Jetzt kommt nicht mit so Werbegags wie af und aa an, den unterschied merkt man doch nur wenn man ihn mit der lupe danach sucht.
Wer 100fps braucht um mit UT glücklich zu werden, der braucht mit Sicherheit kein aa/af. Ich hab mich in CS noch nie an Treppcheneffekten gestört, mir sind nichtmal welche aufgefallen.
 
Bobbyy schrieb:
Wenn du wissen willst was der unterschied ist, sollte du mal die bild qualität in splinter cell chaos theory ansehen. ich glaub vom NVIDIA DVD Decoder hast du auch nichts gehörts durch De-Interlacing und Filtereffekte ist die bild qualität sogar besser als die vom powerdvd. Die source engine wird in den nächsten monaten HDR bieten.Wenn die grafikqualität auf einer gefroce6800gt besser aussieht als auf einer 850Xt die fast doppelt soviel kostet, dann weis ich auch nicht wieso du ati verteildigst.wie schon gesagt es geht nicht um nvidia oder ati nur die 6reihe ist der xreihe überlegen.werde aufjeden fall warten was ati zu bieten hat und werd mich für den besseren entscheiden.

Die X850XT ist auch nich das Pendant zur 6800GT. Ne X800Pro oder XL bekommt man auch für 230-270€.
Splintercell CT ist bislang das einzige wo kein SM2.0 Pfad integriert wurde, deshalb die hohen optischen Unterschiede. In Game merkt man eh kaum was, da man das Nachtsichtgerät meistens an hat.
 
Lol ich komme mir vor wie der letzte Steinzeitmensch...ich zogge UT2k4 mit nem 2400+, 1 GB RAM, GF-Ti 4200 (128MB).
naja ich zogge es auch auf low detail 1024x768, und die fps ist meist auch unter 45, aber was solls hauptsache es macht spass...naja aber mit aufrüsten fange ich schon an, hab jetzt nen GB 400er RAM gekauft, nen lüfter der meinen zukünftigen AMD64 kühlen wird...in 2 monaten kommt dann nen board, dann die CPU in 4 Monaten und irgendwann einmal ne PCIe Grafikkarte...und die darf nicht mehr als 200 € kosten. Das ganze wird mir wieder 3jahre zum zoggen reichen !!!
 
Was ich mich frage ist, inwiefern sich die Verspätung des R520 auch auf die Verfügbarkeit bzw. planmäßiger Launch der XBOX 360 auswirken mag.....??

Greetz, Giniemaster.
 
@ nemomh

Ist es nicht klüger, alle Komponenten auf einmal zu kaufen anstatt nacheinander? Denn wenn ich mir die Eintelteile über 1/2 Jahr oder gar länger hinweg kaufe, dann kann sich in der Zeit schon so einiges an den Preisen getan haben. Ich würde lieber solange sparen, bis man sich alles komplett auf einmal kaufen kann. Man kauft sich ja z.B. nicht jetzt eine 200€ Graka, die ich erst in ein paar Monaten benutzen kann und die es bis dahin u.U. schon für 150€ gibt.
 
Giniemaster schrieb:
Was ich mich frage ist, inwiefern sich die Verspätung des R520 auch auf die Verfügbarkeit bzw. planmäßiger Launch der XBOX 360 auswirken mag.....??

Greetz, Giniemaster.


Das hat damit nichts zu tun! Der ATI Chip in der Xbox360 ist doch eine ganz andere Entwicklung als der R520!
 
ob 30FPS ruckeln oder nicht, da kann man streiten. Das menschliche auge kann ab 25 FPS schon nicht mehr zwischen einzelnen bildern unterscheiden (das fernsehn sendet auch nur mit 25FPS) - aber das jemand noch mit 60FPS ein ruckeln bemerkt, dass kann mir keiner erzählen. wahrscheinlich ist es nur ne billige ausrede bei jeder niederlage beim zocken...
 
Man nimmt starke Unteschiede in der Bildrate wahr, sonst nichts. Würde der PC ständig 50fps liefern, und das konstant, würde sich niemand beschweren. Die stark schwankende fps-Rate hingegen macht sich schon bemerkbar. So nimmt man auch Schwankungen von 80 auf 40fps wahr.
Ob man dadurch im Spiel schlechter wird halte ich für so gut wie unmöglich. ;)
 
Blaubierhund schrieb:
ob 30FPS ruckeln oder nicht, da kann man streiten. Das menschliche auge kann ab 25 FPS schon nicht mehr zwischen einzelnen bildern unterscheiden (das fernsehn sendet auch nur mit 25FPS) - aber das jemand noch mit 60FPS ein ruckeln bemerkt, dass kann mir keiner erzählen. wahrscheinlich ist es nur ne billige ausrede bei jeder niederlage beim zocken...

natürlich ist das ne ausrede, aber vielleicht hat der mensch ja so gute augen, wer weiss.
 
Z.B. bei Far Cry habe ich, je niedriger die fps ist, eine merkbar schwammigere Steuerung mit meiner Logitech MX500 Maus (da helfen auch sämtliche mögliche Mauseinstellungen des Spiels nicht), was sich vor allem bei Frameraten unter 40 durch Smoothing negativ bemerkbar macht.

Und auch mit meinem System bei 1280x1024 + 8xAF / 4xAA kommen da oft Frameraten unter 40 zustande. Von daher würde mich brennend interessieren, wie sich eine 7800GTX oder der kommende R520 sich verhalten würde => max fps sind eher uninteressant, sondern die min fps, die mich am meisten stören.

Das ATI CCC (5.6) mit AI hat mich im übrigen in Bezug auf Far Cry positiv überrascht (vorher hatte ich strikt das CCC gemieden): Der Framecounter bleibt oft genau bei auffälligen 43 fps bei mir stehen, als würde der Treiber versuchen, genau diese fps zu halten, was das Spielen angenehmer macht. Zuvor ohne CCC hatte ich doch deutliche fps Schwankungen und generell leicht niedrigere fps. Ob das nur an AI / CCC liegt?

PS: Also ab 60-70 fps sehe und merke ich auch keine Unterschiede mehr im Vergleich zu 80 fps oder 100 fps. Jedoch zwischen 40 fps und 60-70 fps merkt man es vor allem bei Ego-Shootern schon, ganz zu schweigen von weniger als 40 fps. Wie gesagt, kommt auf das Spiel an und auf die Person vor dem Schirm. Einige merken nicht einmal einen sonderlich großen Unterschied zwischen einem 50 Hz und einem 100 Hz Fernseher, was mir sofort auffällt. Und aus Erfahrung muss ich zugeben, dass vor allem auf einem CRT die fps-Unrerschiede stärker auffallen als auf meinen beiden TFT´s.
 
Zuletzt bearbeitet:
Zurück
Oben