News ATis R520 im August und R580 Anfang 2006

Da irrst du dich ganz und ganz gewaltig. NV hat genug Probleme mit dem Treiber und ATI bringt nicht jeden Monat einen neuen Treiber heraus. Die Nvida-Hype verstehe ich nicht. Ich sehe keine Verbesserungen bei NV in der Bildqualität lediglich der Tranparent FSAA. Ansonsten nur Rohleistungsaufstopfung. 7800GTX haben die wenigsten. Große gewinne weden im Mainstream gemacht. Nichts desto trotzt wird die R520 deutlich schneller sein als die 7800GTX. Vorteil da ATI gleichzeitig kleine Karten raussbringt die sich viele Leisten können.
 
@ 61

Nun, kommende woche komm der 7800 Gt, danach kommen die kleinen, und bis ATI überhaupt auf dem Markt ist, gibt es NV schon zukaufen.

Nochmal, R520 wird nicht deutlich schneller sein als G70, wie willst du das den bitte machen? 16/1/1/1 gegen 24/1/2/1 ? Nur mit Mhz geht das schlecht.
 
Da irrst du dich ganz und ganz gewaltig. NV hat genug Probleme mit dem Treiber und ATI bringt nicht jeden Monat einen neuen Treiber heraus. Die Nvida-Hype verstehe ich nicht. Ich sehe keine Verbesserungen bei NV in der Bildqualität lediglich der Tranparent FSAA. Ansonsten nur Rohleistungsaufstopfung.

Äh du vergisst hier mehr Power für HDR, besseres AA (hast du gesagt), weniger Stromaufnahme, Taktverhalten eines Mobilen Chips, sehr leise, relativ kühl und und und.
Außerdem scheinst du zu vergessen, dass Nvidia seit 1 Jahr die Technik auf dem Markt hat die gefordert ist. Von ATI gibt es hier bisher überhaupt nix. Deshalb könnten die Leute mal das dumme Gelaber sein lassen, dass der G70 nichts neues bringt. Nvidia braucht nichts neues zu bringen. Vom Featureset sind sie seit dem NV30 ihrem Konkurenten um Meilen voraus.
Hier muss also ATI endlich mal was zeigen. Die R4xx Reihe war in dieser Hinsicht nur noch peinlich und das wurde ja Gott sei Dank nun auch vom Kunden bitter bestraft.

7800GTX haben die wenigsten. Große gewinne weden im Mainstream gemacht. Nichts desto trotzt wird die R520 deutlich schneller sein als die 7800GTX. Vorteil da ATI gleichzeitig kleine Karten raussbringt die sich viele Leisten können.

Aber es ist doch genau das Mainstream Segment, wo ATI mit heruntergelassenen Hosen dasteht. Es gibt kein Konkurenzprodukt zur 6600GT und die macht ATI ganz schön fertig. Die 6800GT und nonU fallen im Preis und erzeugen noch mehr Druck. Nvidia kann es sich leisten. Sie haben ihren NV40 Mini Refresh ausgelassen und Kosten gespart. Ihre Produkte sind ein wenig länger am Markt und sie können nun mit der 7800GTX und 7800GT im HIgh End nachlegen und somit die geringeren Verkaufspreise für die 6800U und 6800GT sowie 6800nonU auffangen bzw. abfedern. ATI dagegen hat überhaupt nichts zum abfedern. Ihre Margen sind auf 29% im Sinkflug angelangt. Die Preise fallen und sie haben keinen Ersatz im HIgh End Segment, weil der R520 sich erheblich verspätet hat. Du hast schon Recht, dass das Geld im Mainstream und Low End gemacht wird und genau da sieht ATI seit gut 9 Monaten jämmerlich aus und verliert Kunden.
 
Hm..Soweit ich weiß bekommt der R520 ebenso 24 oder sogar 32 Pipelines und keine 16, wie einer meiner Vorredner meinte ;)
 
WulleReloaded schrieb:
Hm..Soweit ich weiß bekommt der R520 ebenso 24 oder sogar 32 Pipelines und keine 16, wie einer meiner Vorredner meinte ;)
Das wissen im Moment wohl nur ganz wenige Leute;)
Vielleicht sinds ja auch 40 (nicht ernstnehmen)
 
Also mit 16 wäre ziemlich arm ;) Aber so langsam tendiere ich auch wieder zu einer Nvidia ;) Na erstmal nen Käufer für meine X850 XT finden ;)
 
was willst du dir denn dannanstelle holen? 2 6800er im sli oder wie?

mit der x850Xt biste docgh schon gut beraten. :D
 
Richthofen schrieb:
Äh du vergisst hier mehr Power für HDR, besseres AA (hast du gesagt), weniger Stromaufnahme, Taktverhalten eines Mobilen Chips, sehr leise, relativ kühl und und und.
Außerdem scheinst du zu vergessen, dass Nvidia seit 1 Jahr die Technik auf dem Markt hat die gefordert ist. Von ATI gibt es hier bisher überhaupt nix. Deshalb könnten die Leute mal das dumme Gelaber sein lassen, dass der G70 nichts neues bringt. Nvidia braucht nichts neues zu bringen. Vom Featureset sind sie seit dem NV30 ihrem Konkurenten um Meilen voraus.
Hier muss also ATI endlich mal was zeigen. Die R4xx Reihe war in dieser Hinsicht nur noch peinlich und das wurde ja Gott sei Dank nun auch vom Kunden bitter bestraft.

das wollte ich aber auchmal gesagt haben... mit der GF5, GF6 und jetz der GF7 führt NVidia immer neue Features mit ein (großteils komplette Eigenentwicklungen - von ATI fällt mir lediglich 1ne Technologie ein). Die resultierend-höhere Transistorzahl macht höhere Taktraten natürlich schwerer, und deshalb konnte ATi in letzter Zeit punkten. Doch jetz, wo ATi etwas neues einbauen muss (das SM3.0) hammse natürlich auch Probleme. NVidia hat schon Erfahrung damit, kann deswegen jetz ziemlich gelassen ranngehen.
 
WulleReloaded schrieb:
Also mit 16 wäre ziemlich arm ;) Aber so langsam tendiere ich auch wieder zu einer Nvidia ;) Na erstmal nen Käufer für meine X850 XT finden ;)
Warum wären vier Pixel-Prozessoren unbedingt arm? Solange der Chiptakt entsprechend hoch ist (und die Yields trotzdem gut genug), sehe ich da kein Problem.
 
@ 63) Das Fanboy Gelaber hört sich schlecht an. Bist bestimmt einer der auch schnell früher auf die Hype von Nvidia Reingefallen war. Falls du von ahnung hast. Richtig warum soll Nvidia wieder neue Features bringen? BTW: Kühlung, Stromaufnahme, Lautstärke hat ATI schon seit längeren hinbekommen.
Zahlen und Fakten kannst du nicht vorlegen. Einfach nur ein Hype auf Nvidia (seit dem NV 30????) ---> Natürlich Nvidia braucht jetzt nichts neues zu bringen???. NV hat alles super geleistet die und kann Kunden mal richtig zu verarschen. SM3.0 bringt zurzeit nix. Diese Technick wurde nicht Gefordert. Das Einzige Feature welches dumm gelaber immer wieder anführen.
 
vinacis_vivids: ist es denn so schrecklich, wenn nvidia ein feature verbaut, das noch nicht viel bringt, aber die karte zukunftsicherer macht? darf ich dich mal darauf hinweisen, dass es 64 bit prozessoren gibt, dessen 64 bit unterstützung zum zeitpunkt des erscheinens komplett unnütz war, und du ebenfalls einen A64 besitzt?
des weiteren hat sich bei der 7800 einiges bezüglich kühlung und stromverbrauch getan, bei stark gesteigerter transistorzahlen.
also so gesehen lasse ich deine argumente nicht ganz gelten!
mfg
IRID1UM
 
Solange Benchmarks nur im "Q"-Modus und nicht in "HQ" mit sämtlichen abschaltbaren optimierunghen abgeschaltet durchgeführt werden bleiben Benchmarkergebnisse für mich uninteressant. In Q flimmerts bei GF6 und immer, auf der 7 sogar stärker ls auf der 6 und auf der 7 ist das flimmern selbst in HQ vorhanden, was zwar am Treiber liegen soll, aber dennoch wurden die Benchmarks mit diesem Treiber durchgeführt. Wenns sowieso flimmert brauche ich gar nicht erst Mipmappen und ganz ohne Mip-Mapping wären die Performancesteigerungen noch wesentlich größer. Wie wärs NV und ATI? Wo ihr schon AF in allen Winkeln oder vernünftig umgesetztes Mip-Mappingbraucht: Wer braucht schon 32b-Rendering auf Raucheffekte? Wer braucht schon vernüntiges Z-Buffering? usw. Mann was es da noch für "Optimierungsmöglichkeiten" gibt!

Anno 2000 wurde ich von Nvidia überzeugt, dass Bildqualität bedeutend ist, nachdem ich jahrelang mit Voodoo gelebt hatte sah ich plötzlich Sinn in höherer Bildqualität und wuchs nach einem Jahr fest in den NV-Kundenstamm ein, "Wir sind der Entwickler der Bildqualität" hatte mich vollends gebunden, sogar noch bis zur Geforce4. Was zur Hölle ist daraus beim Geforce FX und dessen, treiberbedingten, aber den kompletten Releasezyklus vorgeschriebenen Brilinearen Filter geworden? Verlohren und vergessen, wen interessiert schon ein ohnehin in dieser Branche schnell schrumfender alter Kundenstamm...

@Thema

Und damit er in den Benchmarks mit G70 mithalten kann wird er eben auch mit weniger Mip-Map-Stzufen auskommen, wen interessiert schon Bildqualität.
 
Zuletzt bearbeitet:
jedes halbe jahr die gleiche diskussion auf neue. wird euch das nicht langweilig (?), mal ist der eine schneller, mal der andere, mehr ist da nicht. das thema ist ausgeschöpft.
abgesehen davon es ist ja nicht so, dass es keine brauchbaren grakas im lowcost, midrange oder highend bereich geben würde.
naja, ich sehe ja auch, dass zb ne x800 xt pe bereits die vorletzte generation darstellt, und wer will schon so 'ne lahme krücke kaufen ? jaja, wir brauchen gaaanz dringend den r520 und den 7800 gtx.

gruß
 
MountWalker schrieb:
Wenns sowieso flimmert brauche ich gar nicht erst Mipmappen und ganz ohne Mip-Mapping wären die Performancesteigerungen noch wesentlich größer.


Da irrst du, ohne Mimapping bricht die Performance katastrophal ein, ist ja auch logisch, weil dann immer aus der Basismap die Texel gelesen und verrechnet werden muessen.
 
@iridium
genau, wie sollen die entwickler features integrieren wenn keine hardware diese darstellen kann?
und der nv40 hatte viele features mehr als der r400
man darf halt nicht nur aufs marketing geblubber hören wo immer nur hdr steht
 
kisser schrieb:
Da irrst du, ohne Mimapping bricht die Performance katastrophal ein, ist ja auch logisch, weil dann immer aus der Basismap die Texel gelesen und verrechnet werden muessen.
Ich irre nicht, du irrst, du kannst das gerne in alten Spielen nachprüfen in denen man MipMapping noch abschalten konnte, z.B. mit Sports Car GT, probier das mit einer V-Banshee oä. und du wirst sehen, wenn du Mip-Mapping einschaltest bricht die Framerate ein. Nur wenn die Karte bereits gut mit Multi-Texturing umgehen kann (also mehr als eine Pixel-Pipeline hat) hält sich der Performanceverlust durch Mip-Mapping im Ramen, ist aber dennoch vorhanden. ;)
 
MountWalker schrieb:
Ich irre nicht, du irrst,


Tut mir leider, aber du irrst definitiv.
Starte Quake3, lade eine Level und schalte mal alle Filteroptionen durch (Von GL_Nearest bis GL_Linear_Mipmap_Linear). Poste die Ergebnisse hier.


/edit: es sind gerne auch andere zu diesem Test eingeladen, ich muss derzeit leider passen, weil sich Teile meines Rechners letzte Wochen mit lautem Knall verabschiedet haben und ich fruehestens heute abend Ersatz bekomme.
 
Halb so tragisch ihnen gehts jetz mit der neuen technologie halt so wie nvidia mit der 5800ultra und anstatt das sie so nen foehn auf den markt bringen machen sie halt das layout neu und das dauert halt..
ati wirds verschmerzen nvidia wirds freuen das ati auch mal so nen schnitzer hat...
 
Zurück
Oben