News nVidia präsentiert nV30 "GeForce FX"

@iggy
ati hat .13u nicht, weil sie ihre high-end graka schon vor 4 MONATEN raus hatten! Du, in deiner vollidiotie, wirst noch bis FEBRUAR 2003 warten muessen.

ausserdem, 0.13um und trotzdem externer power anschluss! von der wahnwitzigen kuelungskonstruktion nicht zu sprechen... Nvidia != finesse!
 
ATi hat doch erfolgreich gezeigt, wie ein 256Bit in Rauch verpufft, so eine große Mehrleistung hat die auch nicht.

@DaChef: Nur werden wir keinen Grafikchip von Bitboys mehr sehen, um nicht Bankrott zu gehen entwickeln sie momentan nur PDA-Grafikchips und haben alles andere eingestampft.

Ich will nicht nVidia schon reden, ich will Ergebnisse sehen bevor ich meine Meinung über die NV30 fälle.
 
nur ganz kurz...

findet ihr es nicht auch idiotisch wie sich der grafikkarten- und prozessormarkt entwickelt? ..ist ja nicht mehr lustig
 
also ich sehe es so, die jungs die diese karte entwickelt haben, haben echt nen plan, insofern würde ichs cho sagen das die genau gewusst haben was sie da entwickeln, un hey.. 125Mio. transis sind echt fett.
ich finde, das sie echt nen lob verdiehnt habn..!!!
dieser chip dürfte so ziemlich das klomplexeste sein was es auf diesem planeten überhaupt gibt.. also so sehe ich das..!!!!
einige hier sollten echt nich nur meckern un so... ich find ihn nich schlecht, was da an ideen drinnen steckt.. ich wills nie wissen.
bei der entwicklung von, haben die entwickler bestimmt von geträumt, weil sie sich so mit beschäftigten.. dies ist schon eine arbeit in die man sich reinkniehn muss, sonst wird nix draus, is meine meinung..!!!!

ade.
 
@der elektriker:
Bitte benimm dich ein bißchen. Deine Ausdrucksweise unseren anderen Lesern gegenüber ist nicht tolerabel. ( -> Stichwort: Vollidiotie)
 
Bin kein Ati Fan aber ich glaube Nv kann einpacken im Februar kommt die überarbeitete 9700 Pro (ultra) raus und dann geht Nv die augen auf.128 Bit na Klasse ich sag euch eins ok die Fx ist vieleicht ohne FSAA schneller aber mit bricht sie wieder total mit der Leistung ein ganz bestimmt toll das mit LMA III da glaube ich aber noch nicht dran.
 
@da chef

Die Bitboys haben auch nur ein 128bit Speicherinterface gehabt und das nur für SDRAM!!!!

Die 1024 bit waren nur für den EDRAM (embedded DRAM also im chip integriert) von 12MB gedacht das Problem dabei ist das nur bis zu einer bestimmten Auflösung und 32bit Farbtiefe dieser schnelle Speicher genutzt werden kann geht man mit der Auflösung + FSAA zu hoch wird der extrem langsame 128bit SDRAM zum Bremsklotz

@Weihnachtsmann

ein Armutszeugnis also aha. Wenn ich mich an die Zeit erinnere als Quake3 rauskam war eine Geforce256 DDR die schnellste Karte und die schaffte in 1024x768x32 high Quality 74 FPShttp://www.tomshardware.de/graphic/02q2/020419/vgacharts-03.html (mit den 28.32Treibern die damals noch in weiter ferne lagen). Wenn man bedenkt das der Test von DOOM3 unter 1280x1024x32 und High Quality getestet wurde und die Treiber sicher noch Reserven haben ist das für mich alles andere als ein Armutszeugnis.

Einfach mal abwarten...

Aber was is dann mit der Radeon 9700 die is um 40% langsamer ?????
 
Ich glaube nicht, dass NV so blöd ist und eine Karte produziert,
die nicht mehr als deutlich die Konkurrenz, in diesem Fall ATI
übertrumpfen kann.
Dafür sind die Entwicklungskosten einfach zu groß gewesen. :)

Nun "nur 128bit".
Die Frage ist nicht, wieviel Bandbreite man hat, sondern was man daraus macht.
Wie schon mehrmals erwähnt, liegt die höhere Effizienz klar bei NV.

Die Ergebnisse in Benchmarks und der Blick auf die Retail-Karten werden sicher weiteren Aufschluss geben.
Aber irgendwann kann man Scheiße auch nicht mehr unter gutem Namen verkaufen...
 
Für alle tollen Typen hier, die immer auf nVidia rumhacken. Die GeForce FX ist sicher kein Armutszeugnis! Wenn ihr alle so blöd seid fast 500 Euro für eine ATI-Karte auszugeben, dann kann ich euch auch nicht helfen. Und die Low-Cost-Modelle von ATI bringen immer eine beschissene Leistung und kosten trotzdem noch Unsummen. Bei nVidia ist das anders (Ti4200).

Wenn die GeForce FX dann endlich da ist und ihr gesehen habt, dass sie schneller ist, schimpft ihr dann plötzlich auf ATI? Oder gebt ihr die Überlegenheit dann einfach nicht zu, weil ihr so eine supertolle ATI-Karte in eurem Rechner habt? Die Radeon 9700 Pro ist z. Zt. sicher die schnellste GraKa. Das bestreitet auch keiner (wäre verdammt blöd). Aber wenn die FX erhältlich ist, dann dreht sich der Spieß rum! Und die nächste Karte von ATI wird sicher wieder schneller als die FX usw. Wo ist jetzt das Problem? Soll doch jeder kaufen was er will! Wer immer die schnellste Hardware haben will, müßte demnach eigentlich zwischen ATI und nVidia wechseln.

@Weihnachtsmann
Warum sind 46,5 Frames ein Armutszeugnis, wenn die Radeon 9700 Pro nur 33,1 schafft? Und sag mir jetzt nicht, dass die FX viel schneller sein müßte, weil sie ganz neu ist oder sowas. Die FX kannst du genausowenig als direkte Konkurrenz zur Radeon 9700 Pro ansehen, wie die Radeon 9700 Pro zur GeForce 4 Ti4600. Das kannst du alleine wegen dem zeitlichen Unterschied schon nicht machen. Außerdem sind 40% mehr Leistung doch schon ordentlich. Wenn die nächste GraKa von ATI 40% mehr Leistung bringt als die FX, schreist du dann direkt: SCHEIß ATI? Sicher nicht. Dann sind 40% plötzlich ganz toll!
Und red nicht so einen Schwachsinn von DOOM 3! Wenn das erscheint, dann sind wir locker schon eine Grafikkartengeneration weiter. Dann stimmen sicher auch die Frameraten. Und zum Verkauf von DOOM 3 sei gesagt: UT 2003 bringt auf dem Durchschnittsrechner der Spieler wahrscheinlich weniger als 46,5 Fps und ist trotzdem im Moment das bestverkaufte Spiel! Kann ja nicht jeder Spieler so viel Geld locker machen, um immer die aktuellste Hardware zu haben.
Aber zum Glück glaube ich ja nicht an den Weihnachtsmann!!!
 
;o) Hey. Man darf nicht vergessen, dass mit dem externen Stromanschluss Probleme mit der AGP-Stromversorgung ausgeschlossen sind. Das man den Strombedarf einer Grafikkarte die eine GPU mit 125 Mio. Transistoren beherbergt nicht über den AGP decken kann war ja wohl klar! -An alle Fans von 256-Bit-Speicherinterfaces: Dass ein 256-Bit Speicherinterface nicht unbedingt effizienter sein muss sieht man ja bei der Matrox Parhelia. Die konnte noch nicht mal der GF4ti bei der tatsächlichen Speicherbandbreite das Wasser reichen. Theoretische und tatsächliche Bandbreite sind oft 2 Paar Stiefel.-;o) MfG Uhum P.s. Die GeforceFx soll für etwa 400 Euro auf den deutschen Markt kommen. Das wäre absolut fair.
Bis dahin sollten wir ersteinmal auf die ersten Benchmarks warten. Wenn das mit 46,5 zu 33,1 Fps (etwa 40% mehr!!!) bei Doom3 wirklich stimmt, dann wäre dass wirklich eine sehr gute Leistung, da es sich um Vorserienkarten handelt,deren Treiber (im Gegnsatz zur ATI 9700er) noch überhaupt nicht optimiert sind. Und die Programmierer bei Nvidia sind ja bekanntlich Künstler, wenn es darum geht mehr Leistung aus den Treibern zu Quetschen.
 
Mal was anderes : Mal sehn ob auch die VGA-Signalqualität "ala Radeon9700pro" sein wird bei der GeforceFX. (scharfes Bild ohne Schatten auch bei hohen Auflösungen)
 
wenn der benchmark von doom3 nicht getürkt ist (wenn auch nur mit extra NV30 engine), dann wird ATI höchstens gleichauf sein wenn sie DDR2 und 0.13µ einführen. und nvidia hat ja schon angekündigt nicht lange nach dem release eine noch schnellere version vom NV30 herauszubringen.
mal auf nen paar andere benchmarks warten...

achja, und wer in den ersten PCI slot ne karte reinpackt sollte so eine high end karte sowieso nicht benutzten, denn ihr habt keine ahnung.
 
hmm...muß in allen belangen dem Itzmir recht geben.Ich finde eine Leistungssteigerung von 40% schon recht CooL.Und für etwa 400 Euro wird es viele geben die sich das Teil kaufen(z.b. ich) aber ich denke ATI is auch net schlecht ist halt einstellungssache ob ATI oder GeForce habtsache unsere Kisten laufen und wir können Online zocken hehe.
 
ich glaube "vollidiotie" ist nicht stark genug um auszudruecken was hier an unwahrheiten und sinnloses gelaber verbreitet werden.

ein beispiel: die 40% zahl kommt nicht von unabhaengigen tests, sondern wurde Anandtech einfach von Nvidia selbst ueberreicht, ein benchmark von einer nebuloesen Doom III demo getitelt "nvdemo3". Ist es also soooo schwierig sich vorzustellen, dass diese Doom demo auf GFFX optimiert ist?
 
@der elektriker

In der Doom III alpha02-demo findet sich nicht zufällig der Eintrag "NV30" in einer der Config-Datein. Weis ich von : .... ;-)
Vielleicht aber auch nur um OpenGL-Erweiterung besser zuzuordnen, keine Ahnung eigentlich - der Eintrag dort ist aber Fakt.
 
sowas von sinnlos was ihr da jetzt brabbelt. wartet doch einfach ein bisschen und dann wisst ihr es.
 
na und?
auch wenn der test "getuerkt" waer, so wie du sagst, ist das trotzdem noch ne ordentliche leistung, allein durch optimierung der demo auf die gFX zu 40% mehrleistung zu kommen... und das in nur 4 monaten...
warten wir einfach noch eine zeit lang ab, dann werden wir sehen wies ausschaut,..
und @AGP port only stromversorungsfans...
tz... wie alt is jetzt schon der agp standard? 6 jahre? sowas in die richtung...
wartet doch einfach auch neue mobos ab... im moment gibt es ja sowieso einige bremes bei highend systemen,...
fsb bei p4 hoeher als der des ram, veraltete mobo layouts....
es wird zeit, dass was neues kommt....

btw, bravo nViDiA
 
Aber ich verstehe nicht was ihr gegen den Kühler habt... ich persönlich
finde den voll cool. Bin kein Modder ... bei denen ist er sicher ein noch größerer
Augenschmaus. Und wenn die GPU gut und leise gekühlt wird. Mit kalter Luft von
draußen muss der sicher nicht so schnell drehen wie ein kühler der die Luft im Ge-
häuse benützt. Vor allem was die einzelnen Hersteller draus machen können.
Es soll doch jeder auf ner LAN sehen was man drinnen hat. Freue mich schon voll
auf die ASUS Deluxe Karte :oD
 
Hab ich wohl ein wenig provoziert mit dem Armutszeugnis was? Also ich hab weder eine Grake für 500€, noch eine ATI oder Nvidia. Ich kann also von "außen" die Sache ganz nüchtern betrachten. Der Test ist trotzdem ganz schön heikel. Erstens sieht die 4600er hier so mies aus, das an sich fragen muß ob Nvidia nicht ein wenig zu weit gegangen ist. Immerhin wird damit praktisch die 4600er als ein Haufen Elend dargestellt. Die kann man also danach gar nicht mehr kaufen. Unspielbar!!! Das ist doch total hohl!!! Das würde selbst Intel nicht machen wenn die was neues bringen. Außerdem möcht ich den Test sehen, ohne AA/Aniso wo die 9700er in der Auflösung fast doppelt so schnell ist wie die 4600er.

Also heißt das, der Test ist geschönt und speziell auf die FX zugeschnitten.
 
Zurück
Oben