GeForce 5, sie kommt

  • Ersteller Ersteller Unregistered
  • Erstellt am Erstellt am
U

Unregistered

Gast
Geforce 5

Als ich gestern so die Zeitschrift http://www.pcgameshardware.de/ so durchgeblättert habe fand ich im Artikel über die Cebit2002 ein Interveiw mit "Dan Vivoli" von Nvidia wo er meinnte "...Im Desktopmarkt wird der Geforce5 im zweiten Halbjahr 2002 für Furore sorgen..."

Geforce5 schon im zweiten, diesem Halbjahr ? Das kanns aber nicht sein oder :( ???
 
Re: Geforce 5

Original erstellt von Unregistered
Als ich gestern so die Zeitschrift http://www.pcgameshardware.de/ so durchgeblättert habe fand ich im Artikel über die Cebit2002 ein Interveiw mit "Dan Vivoli" von Nvidia wo er meinnte "...Im Desktopmarkt wird der Geforce5 im zweiten Halbjahr 2002 für Furore sorgen..."

Geforce5 schon im zweiten, diesem Halbjahr ? Das kanns aber nicht sein oder :( ???

Doch leider ja,

nVidia hat es sich zur gewohnheit gemacht entweder alle 6 Monate ein höher getaktetes Modell der alten GPU (siehe GF3 200Mhz & GF3 Ti500 240Mhz) rauszubringen oder gleich ein neues Modell.
 
Wi kann Nvidia jetzt für eine Ti4600 ~500Euro verlangen wenn sie schon nach nem hlaben Jahr überhollt ist :(
 
DAs geht schon die können die Preise so hoch treiben wie sie wollen und gekauft werden sie trotzdem wenn die mal nciht so viele kaufen würden und auf die preispolitik von NVIDIA reinfallen würden wären die karten ganz schnell billiger aber wenn sie auch so gekauft werden dann macht Nvidia sie natürlich nciht billiger
warum sollten sie auch :(
 
Die Ankündigung eines GeForce 5 für das 2. Halbjahr 2002 bestätigt mich nur in meiner Vermutung die ich schon lange hege.
Meiner Meinung nach war die GeForce4 nur deshalb ein aufgebohrter GeForce3 weil nVidia mit der Entwicklung des NV30 (der ja eigentlich Anfang dieses Jahres erscheinen sollte) nicht fertig geworden ist.
Und um nun im üblichen Releasezyklus von 6Monaten nicht noch weiter zurückzufallen (Die GF4 kam ja schon mit 2Monaten Verspätung) brachte man kurzerhand einen etwas überarbeiteten GeForce3 auf den Markt um somit die Aufmerksamkeit ersteinmal vom NV30 wegzulenken.
Meiner Meinung nach hat nVidia den GeForce4 nur hastig zwischengeschoben um sich schnell mal wieder vor ATI zu platzieren, die mit der Radeon8500 einen mehr als ebenbürtigen Gegner der GF3 vorgesetzt haben.
 
Heya


Nana...der GeForce 4 wurde von nvidia-ingenieuren entwickelt. Am NV30 arbeiten schon seit dem aufkauf von 3dfx durch nvidia etwa 100 3dfx-Leute...es wird sozusagen ein 3dfx-Chip unter dem nvidia-label :D

ich kauf mir sowieso keine neue grafikkate mehr..vieleicht ende 2003 oder so...ich hab langsam genug von dem geld aus dem fenster schmeissen...
 
Mit dieser Zwischenlösung macht nVidia auch noch einen Riesengewinn. Wieder gilt natürlich: Kaufen muß die ja keiner.
Aber es gibt erschreckend viele Leute, die das tun - auch für 500€ und mehr. Langsam glaube ich auch an den zynischen Spruch, daß nVidia sich vor allem an den Deppen dumm und dämlich verdient...
 
Hart aber Wahr..

Ich denke auch, dass diese Show von nVidia langsam unter die Gürtellinie geht, man kann doch nicht so viele Produkte als Neuwertig verkaufen, und einen Preis verlangen, der den für das Produkt sinnvollen Preis bei weitem übersteigt.
Die GeForce 4 ist auch für mich nur ein Einschub nVidias, hoffentlich bringt die G5 ausnahmsweise mal neue Feautures, die 3dfx Macher versprechen Gutes... Aber wir reden von nVidia, ich glaube, deren einzige Innovation liegt im Aufkauf und der Implentierung anderer Firmen und ihren Ideen...

MFG, Silver
 
Thema NV30

Auf dieser Seite gibt es eine kleine *recht spekulative*, aber dennoch interessante Liste mit Features des NV30, die dieser gerüchteweise beinhalten soll.

Unter anderem soll der NV30 folgendes anbieten können:
* volle 3dfx-Glide-Rückwärtskompatibilität
* NvBlur = nVidia-Glide
* Dx9.x Support und Support für die dann aktuelleste OpenGL-Version
* hardwareseitige Trennung von T&L-Einheit und Rasterizer = 2 GPUs auf der Grakfiikarte
...

Gerade der letzte Punkt deutet sehr auf die bis zuletzt von 3dfx geplanten und *under construction* befindlichen Hardware-Architekturen Rampage/Sage bzw Fusion/SageII hin. Wäre ja wirklich lobenswert und positiv, wenn nVidia tatsächlich 3dfx-Technik ans Tageslicht bringt. Bisher ist ja nicht viel davon am Markt zu sehen...
 
Das mit der Nvidia´s eigener API-Schnittschnittstelle finde ich nicht so toll, wer weiss schon ob die Spieleenmtwickler sich so in die Presche schlagen werden lassen. Eine Engine alleine für D3D oder OpenGL zu entwickeln ist schon schwer genug, ausserdem sollten Spiele möglichst kompatibel zu vielen Grafikchips sein.
Das Voodoo-Zeitalter ist vorbei, damals hat es sich gekohnt auf Glide zu setzen.
Ich hoffe mal die Meldung bezüglich dies und nur reinste Spekulation.
 
Seltsam, ich hatte vor kurzem gelesen, daß die nächste Grafikkarte von NVidia gerade NICHT GeForce5 heissen wird.
Abgesehen davon, glaube ich nicht an einer so kurzfristigen Erscheinung einer neuen Grafikkarte von NVidia.
Es sei denn, ATI hat was ordentliches vor.

Santos
 
Original erstellt von Santos
Abgesehen davon, glaube ich nicht an einer so kurzfristigen Erscheinung einer neuen Grafikkarte von NVidia.
Es sei denn, ATI hat was ordentliches vor.

Santos

die marktpolitik von nvidia sah in den letzten jahren aber genau so aus, es vergingen maximal 8 monate bis zur nächsten karte...
 
Hm, lohnt es sich noch überhaupt was von denen zu kaufen? Von der Geforce 1 bis zur Geforce 4 MX hat sich rein theoretisch nichts getan. Früher war 3dfx die Bremse, jetzt ist es NVIDIA. Wenn eines Tages alle mal wach werden und merken wie teuer und nutzlos die Scheiße von denen ist (welcher OEM verbaut einen 530 €uro teure Geforce 4 Karte?), wird NVIDIA mal ganz dick auf die Fresse fallen. Deren Markmacht bröckelt, und sie verprellen die künftigen Käufer. Denn wer sich vor 2 Monaten für 350 €uro eine Ti 500 zugelegt hat, fühlt sich jetzt wieder aufs Abstellgleis geschoben. Fortschritt ja, Abzocke nein. PowerVR schlägt mit dem Kyro II SE gerade den selben Kurs ein, für 25 Mhz mehr (die es in der heutigen Zeit echt nicht mehr bringen) einen Batzen mehr Geld verdienen. Besonders, weil dieser Beschleuniger auch auf meinen 1600er @ 1700 XP nicht richtig in die Gänge kam.

Bleibt zu hoffen, das die Zeiten der extrem teuren Grafikkarten wieder vergeht und die auf einem Pegel von 250-300 €uro bei Einführung des Produkts kommen.

Denn nichts ist seeliger als ein alter Voodoo oder Voodoo² Beschleuniger. :cool_alt:
 
Lest mal was da steht :

http://www.tbreak.com/forums/showthread.php?s=&threadid=8275

Nvidia NV30 [ OMEN ] Specs
alright people, rumoured NV30 Specs from http://www.guru3d.com/
eat this ATI :

Omen Card
AGP 4x and 8x
Copper Core Gpu Processor 0.13 m default clock 450 MHz
73 million transistors
8 pipes
Quad Vertex Shaders
85 bone capable
Lightspeed Memory Architecture II
Quad Cache memory caching subsystem
Dual Z-buffers for greater compression without losses
visibility subsystem
NvAuto pre-charge
Advanced Anisotropic Filtering:
A new 12nvx mode that delivers improved subpixel coverage ,texture placement and quality.
12nvx mode should deliver 80% better subpixel coverage and placement than previous modes

A separate second processor running at 450Mhz an 0.13m as well
Will handle all T&L now called TT&L (True Time and lighting) .
Plus new NVShaper a prechached and precacheable system.
That has precached shapes cirles,squares,triangles,and other shapes.
Programmers can also add shapes to be temporaly stored in it`s precache to speed things up. This should speed things up and make standard shapes more accurate!

128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit yes 256 bit!
370Mhz RAMDAC
Direct X 9.X compatable
Latest Open Gl
backward glide capable
Comes with New NvBlur (Yes a new version of Glide!)
NView Multi-display Technology

There maybe A new form of cooling the gpu`s . Where the Gpu`s have a hole in the middle and through the board.
So, the hottest area of the Gpu`s gets proper cooling.

4 Vertexshader, nett. 256bit anstatt wie bisher "nur" 128bit breiter Speicher (theoretisch doppelt so schnell), dazu die 450Mhz Coretakt und sage und schreibe 2 Gpus auf einem Board wobei eine davon die T&L-Aufgaben übernehmen soll :D

Die Karte wird sehr mächtig, mit einer Ti4600 gar nicht zu vergleichen (wäre wohl als würde man ein Fahrad mit nem Auto vergleichen...)
 
Entschuldige bitte, Dj Dino, aber das klingt ja noch hirnverbrannter, als die ATi-Specs, die vor ein paar Tagen diskutiert wurden.
Das imho glaubwürdige zitiere ich mal:
Omen Card
AGP 4x and 8x
Copper Core Gpu Processor 0.13 m default clock 450 MHz
73 million transistors
8 pipes
Quad Vertex Shaders
85 bone capable
Lightspeed Memory Architecture II
Quad Cache memory caching subsystem
NvAuto pre-charge
Plus new NVShaper a prechached and precacheable system.
That has precached shapes cirles,squares,triangles,and other shapes.
Programmers can also add shapes to be temporaly stored in it`s precache to speed things up. This should speed things up and make standard shapes more accurate!
128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit yes 256 bit!
370Mhz RAMDAC
Direct X 9.X compatable
Latest Open Gl
NView Multi-display Technology

Am besten finde ich die "Donut-GPU" mit einem Loch in der Mitte.... ROTFLMAO!!!
 
Ich finde das 256Bit breite Memoryinterface ganz witzig.

Damit dürfte die Karte soviel kosten wie ein durchschnittlicher Kleinwagen.
 
Der 256 bit-Speicher könnte durchaus nötig sein da die Karte ja DirectX9 unterstützt und DirectX9 enorm hohe Speicher-Bandbreiten von mind. 11Gbyte/sec. erfordert welche 256 bittiger Speicher möglich machen würde, die bei DirectX9 in 40bit-Genauichkeit gerenderten Texturen brauchen mehr Speicher (256MB) aber auch Speicherbandbreite, die DirectX9-Graka von Matrox (G800) soll aus demselben Grund ja auch mit 256Mb und 256 bittigen Speicher kommen un über eine anscheinend nötige Bandbreite von sogar 19Gbyte/sec. verfügen. Das diese Bandbreiten und Speichermenge bei einer DirectX9-Graka nötig sei standt auch mal in der PcGamesHardware und bei http://www.3dcenter.de/ so erklärt : "DirectX9 ermöglicht nicht bis zu 40 Bit Rendering, sondern erfordert mindestens 40 Bit Rendering, um das Siegel "DirectX9 Hardware" zu erlangen. Das von John Carmack (id Software) geforderte 64 Bit Rendering ist damit definitiv noch nicht vom Tisch - möglicherweise wird DirectX9 dieses ja unterstützen oder sogar noch weitergehen als 64 Bit." :
http://www.3dcenter.de/artikel/2002/03-25.php

Das mit den 2 Gpus halte ich auch für einen Scherz, damit wäre die Karte wohl dann wirklich unbezahlbar.
 
Naja, 40Bit Rendering wird intern gemacht werden, das hat zwar eine Menge mit der Speicherbandbreite zu tun, aber sicher nicht mit dem Speicherbedarf, da es nur für Blending-Operationen und die bei multiplen Passes anfallenden Ditherings wichtig ist. Intern rendern auch heute schon die meisten Chips mit mehr als 32Bit (VSA-100 z.B. 42Bit, GF3+ 36Bit, Ati Radeon AFAIK mit 38Bit.) Insofern hinkt DX9 diesmal hinter der Zeit her.

Was Matrox angeht, so gibt's ja auch schon Gerüchte (teilw. von Matrox-Mitarbeitern), daß die Karte extrem teuer wird.

Auf die PCGH würd' ich wirklich nicht allzuviel geben, die haben sich leider sehr erfolgreich dem Computer-Bild Spiele-Niveau genähert.

Ach so, noch eins: Gerüchten zufolge soll DX9 erst nächstes Jahr erscheinen, da wird's wohl auch erst dann Chips geben, die das voll unterstützen.
 
Es :kotz: mich schon langesam an, dass jedes halbes Jahr (etwas übetrieben) eine neue Geforce rauskommt!

Wie soll man da eigentlich mithalten?

Es geht einfach jetzt alles viel zu schnell! (Sie Windows: win95-win98 3Jahre, win98-winme 2Jahre, winme-winxp 1Jahr)

Mich würde es nicht wundern wenn in ein paar Jahren ein neues Windows wöchentlich rauskommt!
 
Zurück
Oben