Erste unabhängige (?) NV-30 Benchmarks

Auch wenn die Speicherbandbreite bei der FX geringer ist, dafür ist das Speicherinterface Effektiver.

Es ist nun mal klar das ein 4x32 Bit Bus Effektiver Arbeitet (nicht schneller von der Bandbreite) als ein 4x64 Bit Interface. Dazu noch die Kompressionsalgos die gerade bei FSAA Effektiv Arbeiten sollten der FX eigentlich ausreichen, so schlimm ist es also nicht das ATI eine höhere Speicherbandbreite hat.

Allerdings wundert es mich doch sehr sehr stark das bei dem Chiptakt die Shader so langsam sein sollen, entweder stellt der Nature Test mit den Treibern ein Problem dar oder es ist gefaktet (was ich eher annehme).

Ich kann mir kaum vorstellen das die FX GPU schlechter Skaliert wie die GF4, denn man kann sich ja ausrechnen was eine GeForce 4 bei gleichem Chiptakt wie die FX theoretisch leisten würde.
 
@Carsten:

Hab ich nicht gewusst :)..aber die R9700 kann ja 6xfsaa..also wieso nicht anmachen :)
Hab den r350 vergessen..der steht ja auch noch vor der tür..der profitiert vieleicht mehr von DDR-II..und ein .13 micron r300 mit höheren taktraten dürfte vieleicht auch noch von DDR-II profitieren..wer weiss? :)
 
für mich sind's 1000, es ist belanglos ob man 250 mal 4 Operationen pro Takt hat oder gleich 1000 mal 1.

Wenn nvidia nicht schleunigst dass speicher interface verdoppelt, kuckt der FX
in die Röhre.

Natürlich werden die praktischen Benchmarks mehr aussagen, aber die technischen
Daten sind nicht sooo beeindruckend wie sie sein könnten.
 
Ich hab ja selber gesagt dass DDR-II = QDR ist, was ich auch mal irgendwo gelesen habe. Aber da das angeblich ein 2 ns Speicher ist, wärens ja 500 echte MHz bzw. dann doch richtiges DDR (double eben). Weiß jemand etwas genaues?
 
Original erstellt von Jan
Es tut mir leid, aber wer dem Bericht von Computer-Trend glaubt, würde wahrscheinlich auch heute noch jedem glauben, der behauptet, die Erde ist eine Scheibe.
Versteht ihr nicht, was die Jungs gemacht haben? Bilder eines Beta-Samples von irgendeiner Website geklaut, Handbuch einer alten Gainward-Karte abgelichtet, Techs von anderen Seiten abgeschrieben, neue Detos ausgedacht (datiert auf den 31.12.2002 - wer's glaubt), und ein paar Ergebnisse gewürfelt!
Wer denkt, dass nVidia oder irgendein Hersteller ein Sample an eine Seite raus gibt, die weniger Besucher am Tag hat, als irgendeine Dackel-Fanpage und deren Betreiber die Deutsche Rechtschreibung für eine Tüte Haribo halten, irrt gewaltig.
Und was ist dabei rausgekommen? Mit Lug und Trug haben sie in den letzten Tagen mehr Besucher gehabt, als alle Dackel-Seiten deutschlandweit zusammen genommen.

Kann mans besser zusammenfassen? :) Nein! ;)

Noch was: Q3 interessiert doch nicht mehr die Bohne, da bietet jede derzeit erhätliche Grafikkarte mehr als genug FPS. UT2K3 ist ganz schön... Aber mich interessiert Botmatch, AUCH wenn der schlechter zu testen ist. 3D Murks ist sowieso so ne Sache... Trotzdem seltsam, warum GFFX da nicht auch davonzieht.

Insgesamt: GFFX MUSS die R9700 Pro schlagen!!! Sonst wärs lächerlich. ;) Und wenn der Preis unter 500€ anpeilt, wärs gut... Aber im Moment sollens noch 499$ sein, also 550€ und die Karten können wir wahrscheinlich erst Ende Februar erwarten... Ob da nicht vielleicht ATI was neues zu bieten hat? :)
 
Original erstellt von Stan
@Carsten:

Hab ich nicht gewusst :)..aber die R9700 kann ja 6xfsaa..also wieso nicht anmachen :)
Hab den r350 vergessen..der steht ja auch noch vor der tür..der profitiert vieleicht mehr von DDR-II..und ein .13 micron r300 mit höheren taktraten dürfte vieleicht auch noch von DDR-II profitieren..wer weiss? :)

Zu 6xFSAA: siehe Kommentar zu Byteschlumpf: Bildqualität nicht direkt vergleichbar, also irrelevant, da bei der R300 ein rotated Grid zum Einsatz kommt, bei der GeForce dagegen ein Supersampling-Anteil.

Zu R350: Ja, gut möglich, dass er von schnellerem Speicher profitieren kann, doch nur, wenn auch seine Füllrate steigt. Ansonsten gibt's "nur" 6xFSAA mit weniger Leistungseinbruch.

Zu 0,13µ: Einen Chip einfach so 1:1 zu shrinken ist bei den kurzen Produktionszyklen der Graka-Industrie IMO kein sinnvoller Schachzug, es sei denn, man macht dies mit OEM-Produkten, die länger im Einsatz bleiben sollen oder an denen man den Prozess testen möchte (R7500/R9000, GF2Ti).
Auch wenn nVidia jetzt bei TSMC die größten Geburtswehen des 0,13µ-Prozesses ausbaden mussten, so einfach wie einen Brief an TSMC schreiben "Bitte R300 jetzt auf 0,13µ umstellen" geht das nicht. Da wird noch ordentlich Manpower benötigt.
 
@Carsten: Das shrinken kann TSMC selbst sowieso nicht machen..da müssen die ingenieure nochmals an die arbeit..das ist ja nicht einfach eine variable die irgendwo verändert wird :)..da brauchts natürlich ein bisschen arbeit..aber zu der zeit dass nVidia den GF FX rausbringt, ist es doch schon sehr wahrscheinlich dass ATI nebenbei (entwickeln ja an 2 orten oder? ATI selbst und (ex)-ArtX) noch den .13 micron r300 fertig hat und gleichzeitig den r350 launchen (auch .13 micron) wird..war ja bei dem übergang von der Radeon DDR zu Radeon 7x00/8500 ja genauso
 
Original erstellt von Corvin
Ähm, wusste gar nicht, dass zwischen 16 und 19 GB/s so viel liegt, also wesendlich geringer ist das für mich nicht. 1000MHz sinds auch nicht, es sind 250 MHz QDR oder auch DDR-II. :)

ne da hast du was falsch verstanden - bei DDR2 werden immer noch 2 Pakete (nicht 4) pro Takt übertragen, effektiv 1GHz-Ramtakt, technisch gesehen jedoch nur 500MHz DDR...
 
1. Quake 3 als Bench zu nehmen ist noch OK, denn das Spiel Skaliert halt eben einfach sau gut mit und so kann man einfach die Leistung der GraKa ablesen.

2. Ein Botmatch in UT ist völliger Käse um eine Grafikkarte gegen eine andere zu vergleichen, hier geht es nämlich um die Rohleistung der Zeichengeschwindindigkeit der Karte und man sollte so wenig CPU beinflussende sachen mit reinziehen wie es nur geht. Der Botmatch ist bei meiner GF4 mit meinem P4 System um EINIGES schneller wie bei nem Freund von mir auf seiner Radeon 9700 mit seinem AMD 1600 !
 
https://www.computerbase.de/stuff/frank/images/Computer-Trend-Review.jpg

Jan, als er sich das GeForce FX "Review" von Computer-Trend ansieht! Und das ist nichtmal gestellt :D
 
Ich bin der Meinung, dass die Person (A. D. aus S.), mit dem Account Neo-LoH auf FB registriert, auf Lebenszeit gebannt wird.
Er hat sich schon mehrfach eines Vergehens schuldig gemacht (Design von CB geklaut, bestritten, sich als andere Person ausgegeben, angeblich Reue gezeigt usw..), aber jetzt hat er sich nun selbst den Gnadenschuss gegeben. :headshot:

Und was er mit seinem ach so tollen Gewinnspiel beabsichtigt hat, bezweifle sehr ob den PC wirklich je gegeben hat, kann sich jeder ausmalen.
 
Original erstellt von TheShaft
ne da hast du was falsch verstanden - bei DDR2 werden immer noch 2 Pakete (nicht 4) pro Takt übertragen, effektiv 1GHz-Ramtakt, technisch gesehen jedoch nur 500MHz DDR...

Thx Shafti :), man lernt ja nie aus :D, lol
(außerdem hatte ich mich ja schon fast selbst berichtigt ;))
 
@Jan: haha :D

nunja es ist ja auch wirklich billig..sowas unglaubwürdiges sieht man selten..also wenns WENIGSTENS orignal-bilder hätte ok dann wär es fast zu glauben aber das da ist nur werbung für die site..erst noch schlechte :D
 
Original erstellt von Riptor


Insgesamt: GFFX MUSS die R9700 Pro schlagen!!! Sonst wärs lächerlich. ;) Und wenn der Preis unter 500€ anpeilt, wärs gut... Aber im Moment sollens noch 499$ sein, also 550€ und die Karten können wir wahrscheinlich erst Ende Februar erwarten... Ob da nicht vielleicht ATI was neues zu bieten hat? :)

1 Euro = 1,0424 US-Dollar ;)

Also irgendwie würd sichs dann auszahlen in den USA zu bestellen!
 
Original erstellt von Corvin
Vieleicht glaubst du ja diesen Werten :) (noch ein Preview)


Der ganze Artikel ist ein fake.
Alle Daten und Fotos sind aus Previews und Nvidia Dokumenten geklaut gewesen.

Dreimal darfst du raten warum die seitew Jetzt vom Netz ist ?
 
Nich auf mir rumhacken. :(
Außerdem hab ich die Seite gepostet, da hat sich noch keiner hier drüber unterhalten. :p
-> Hab nie gesagt, dass ich sie glaube. Nur auf den Artikel verwiesen. :)
 
Hätte mich jetzt auch gewundert wenn DDR II qdr gehabt hätte,
was ist denn eigentlich der Unterschied zwischen DDR I und II ?
Oder ist das alles nur wieder eine minimale Veränderung und Marketingpropaganda,
was ich jetzt einfach mal vermute.
 
Jan ist süss wie immer *g*
 
@DaChef:

Also DDR unterscheidet sich von SDR ja davon, dass gleichzeitig "empfangen" und "gesendet" werden kann..und nunja DDR-II ist doppelt so schnell als DDR-I..QDR kanns nicht sein...also ich denk DDR-II kann doppelt soviele pakete senden/empfangen als DDR-I...je immer 2..bin da aber auch nicht ganz sicher lol

aber 128 bittiges DDR-II ist etwa gleichschnell wie 256 bittiges DDR-I
 
ich gratulier computer-trend dazu, dass sie es selbst auf chip.de geschafft haben. in den news zu den benchmarks der FX wurde nämlich auch eine gewisse computer-trend seite erwähnt.
 
Zurück
Oben