R300 - wo soll das hinführen ?

TheShaft

Lt. Commander
Registriert
Juli 2001
Beiträge
1.955
Der Launch des R300 steht kurz bevor, die Karte wird am 15 dieses Monats offiziel vorgestellt und wohl in 2-3Monaten zu haben sein...
Nach allem was man so gehört hat, wird der R300 bei nem System welches mit ner GF4 4600 um die 11000 Punkte erreicht hat, um die 15 000 Punkte liefern und wohl ziemlich beeindruckende Perfomance bei Directx8 (und 9 ?) Spielen zeigen...
Ati wird somit zum ersten mal die Geschwindigkeitskrone anziehen, nachdem der Radeon 8500 letztes jahr nur wegen etwas schwächelnder treiber ganz knapp an der GF3 ti 500 gescheitert ist...
Aber nvidia ist wohl gegen ende des jahres in der lage, dem ganzen mit dem NV30 noch einen draufzusetzen und noch brachialere Perfomance zu liefern...
Von Preisen will ich jetz mal garnich sprechen, aber jeder kann sich die Preisklasse vorstellen :rolleyes:

ja aber und nun zum eigentlichen Thema - wo soll das hinführen ?
Schon längst besteht kein homogenes Verhältnis mehr bei der Entwicklungsgeschwindigkeit von CPUs und GPUs...
Die Geschwindigkeit der GPUs steigt in viel höherem Tempo, als die der CPUs...wie lange kann dieses Ungleichgewicht noch bestehen ? Irgendwannmal muss die Grafikkartengeschwindigkeit doch von den CPUs limitiert werden oder ?
Und was machen Ati, nvidia & co wenn dieser Punkt erreicht ist ?
Däumchendrehen ? ;) Oder ihre grakas mit neuen features überschütten, die die bildqualität verbessern (insbesondere bei nvidia wäre das sehrzu wünschen) ?
greetz shaft
 
Heul bitte nicht

Dann können die mal anfangen der Stromverbrauch und die damit entstehende Wärme ein wenig zu drosseln.
Ich hab lieber 50 fps und nen Passivkühler als 70 fps bei ner 50dB Turbine.
Außerdem werden die Hersteller die Performance gerne annehmen und irgendwelche sinnlosen features (16x FSAA) in die Games integrieren.
 
@The Shaft:
Wie meinst du das "insbesondere bei nvidia wäre das sehrzu wünschen"?
 
@ TheShaft

stell dir mal vor, was in 10 0der 15 Jahren los ist, da ist die
Grafik in Spielen dann wie echt. Wei will man die Grafik dann noch
verbessern wollen?

Ich denke die entwicklung der Grakas wird erst stoppen, wenn
die Grafikengines wie in echt aussehen.
 
es ist mir schon klar, dass die entwicklung immer weiter geht, sowohl bei grafikkarten als auch bei cpus und dem rest...
Aber die eigentliche frage, die ich mir gestellt habe ist, wie lange die perfomance von grafikkarten noch "beliebig" erhöht werden kann...
Die CPU-Entwicklung geht viel langsamer voran als die von grafikkarten, also wird es wohl in absehbarer zeit nen punkt geben, an dem aktuelle cpus aktuelle grafikkarten nicht mehr auslasten können...spätestens dann sollte ein "umdenken" erfolgen ;)
 
Für solche Nettigkeiten gibt es z.B. den Vertexshader, nur leider nutzen Spieleentwickler ihn nicht so, wie sie könnten, da (meine Schätzung) nichtmal 15% der potentiellen Kunden eine VS-fähige Karte haben.

Was möglich wäre sieht man an Konsolen, Tech-Demos und Next-Gen Spielen, die es bislang nur als Video-Mitschnitt gibt.

Nicht einmal das bald erscheinende Unreal Tournament 2003 wird Vertex-Shader nutzen *würg*........
 
Schon richtig mit den 15% , aber warte ab !

Jetzt kommt dann der RV250 und der putzt dann für 90 Euro
die GeForce 4600 weg !

Übrigens ist der Vertex Shader über T&L emulierbar und deswegen auch insgesamt nicht soooo unglaublich wichtig,
zur Zeit liegt das Gewicht mehr auf dem PixelShader.

Aber klar, ohne echte (!) VertexShader geht später gar nix mehr,
aber wie gesagt, im Moment ist PixelShader Zeit.
 
Da Chef,
Bis auf den RV250 (der schlägt nichtmal die R200!) stimmt das was du gesagt hast, aber es geht hier um die ungleichen Wachstumsraten von GPU und CPU. Ein Pixelshader kann der CPU aber leider NULL Arbeit abnehmen, während der Verzicht auf die Vertexshadernutzung der CPU noch mehr Arbeit aufbürdet.
 
Also das Ungleichgewicht zwischen Graka und CPU ist doch schon laengst da.
Beste beispiel ist Morrowind ... obwohls dort auch sicher damit zu tun hat das die Engine einfach das letzte ist ... aber Prinzipiell ist es ja so das man das Spiel mit Gf2-4,Kryo2,R250 ... fast gleichgut spielen kann.
Und auch bei NWN wenn mal die environment shadows einstellt geht die Geschwindigkeit doch merklich runter ... 1600x1200x32 laeuft ohne bei mir gut ... aber mit siehts doch an vielen Stellen mit den Fps duester aus (~12 fps) ...
Gut mit nem hochgetakteten P4@3Ghz existiert das Problem bei NWN dann vielleicht net mehr ... aber wer hat schon so ne CPU ?

Aber ich glaub mal kaum das das bei kommenden Spielen besser wird ...
 
Heya

Naja irgendwann ist schluss, und da bringen es mehr fps einfach nicht mehr...dann müssen Features her denk ich :)...

3dfx hat das mit den VSA 100 ja schon ausgetestet.....aber das ganze hat nicht gut geendet :D

naja ich werde mir sicher keine R300 oder NV30 oder Parhelia 512 oder blablabla kaufen...ich bleib sicher noch 2 Jahre bei meiner GeForce 2 MX....alle aktuellen spiele kann ich spielen und auf Grafikdemos wie UT2003 und Doom3 kann ich verzichten...für sowas kauf ich keine neue Karte :)

Sogar halo, welches ja 2003 auch fuer Mac rauskommt werde ich spielen können...für was also jetzt oder in einem Jahr einee neue Karte kaufen?


Vieleicht geht die Entwicklung ab dem Consumer-P10 von 3DLabs/Creative endlich mal in eine andere Richtung..seit der Voodoo Graphics hat sich ja nichts mehr gross geändert...
 
ach, warten wir dochmal ab was uns das jahr 2010 bringt.... 2,5Ghz GPU takt und speicher mit 0,4ns zugriffszeit ~ 2,5GHz und ca. 300.000 punkte in 3dmark 2001 SE:rolleyes: :D :cool_alt:
 
Neeee
2010 giebt doch nur noch 256-bit systeme die mit 3 THZ betrieben werden. Vom Arbeitsspeicher wollen wir garnicht erst anfangen.
 
Da sind die PCs von Heute kleine lahme Schnecken :(

Dann muss ich ja schonwieder nen neuen PC kaufen *G*

Meine GF3Ti200 werde ich auch behalten,auch wenn sich jetzt jeder so ne GF4Ti4200 holt,wenn dann der NV30/R300 draussen ist,steigen die dummen von GF4Ti4200@NV30 um ein paar Tausend punkte bei 3DMark mehr zu haben und 200FPS zu haben,wobei aber 60 reichen! :o
 
@SL45user

Man 200Fps ... bei welcher Aufloesung 640x480 ?
Nimm mal ne hohe 1280x1024 oder 1600x1200 dazu fsaa + anisotrohiches filtering ... da ist bei aktuellen Games die GF4 so Tod wie Oeffentlich Rechtliches Fernsehn :D :(
 
hmm, da sich im schnitt jedes jahr die taktraten verdoppeln sollten wir wenn der schnitt bis dato stimmt 2010 rechner um die 600GHz takt haben...........
 
Spätestens seit dem P4 solltest du wissen, dass Takt nicht alles ist.

Ne GF 3 Ti 200 ist mit z.B. nur 175 MHz getaktet
Ne GF 2 Ti 200 mit 250 MHz.
 
Original erstellt von Blutschlumpf
Ne GF 3 Ti 200 ist mit z.B. nur 175 MHz getaktet
Ne GF 2 Ti 200 mit 250 MHz.

Seltsame Grafikkarten kennst du :rolleyes:

ne GF2Ti200 war mir bis Dato unbekannt

Es gibt aber ne GeForce2 Titanium, diese wurde aber tatsächlich mit 250MHz Chiptakt gefahren.

Allerdings ist die GF2Ti auch in einigen Bereichen einen Tick schneller als die GF3Ti200.
Generell ist die Geschwindigkeit der GF3 allerdings auf ihre internen optimierungen zurückzuführen und nicht auf den Takt - insofern hast du natürlich Recht.
 
Zuletzt bearbeitet:
Original erstellt von raiden
Man 200Fps ... bei welcher Aufloesung 640x480 ?
Nimm mal ne hohe 1280x1024 oder 1600x1200 dazu fsaa + anisotrohiches filtering ... da ist bei aktuellen Games die GF4 so Tod wie Oeffentlich Rechtliches Fernsehn :D :(

Finde ich nicht. Selbst mit einer GeForce4 TI4200 kann man Aquanox auf 1600x1200 bei 32Bit und 4xFSAA + max. Details wunderbar zocken. Auch UT2k3 wird man mind. auf 1024x768 auf 32bit und max. Details (eventuell noch 2xFSAA o.ä.) mit einer GeForce4TI zocken können.

Allerdings hast du mit den 200fps Recht.
Aber unter 200fps = Tod ?! :lol:

nicht wirklich.

mfg,
wauwau
 
Zuletzt bearbeitet:
Rechnerperformance

Original erstellt von TheShaft
Aber die eigentliche frage, die ich mir gestellt habe ist, wie lange die perfomance von grafikkarten noch "beliebig" erhöht werden kann...

Bis ins unendliche. Obs was bringt wenn die CPUs nicht mithalten können ist ne ganz andere Frage.
Aber wer weiß schon was in ein paar Jahren los ist. :rolleyes:
Wenn einige hier schon von 2010 sprechen. Das sind noch fast 8 Jahre.
In der Zeit wird es höchstwarscheinlich noch irgendeine Revolution in der Technologie geben, was den Entwicklungsprozess noch schneller macht.

Vielleicht sitzen wir dann schon vor 30" Monitoren mit ner Auflösung von 4096x3072 Pixel oder so. :D

Nichtsdestotrotz wird das Loch zwischen GPU und CPU/Spiele Entwicklung immer größer werden. :(

mfg Tweaki4k
 
Die GeForce2 Titanium heisst auch manchmal GF2Ti 200,das ist auch ne offizielle Nvidia Bezeichnung,ist aber blödsinnig,deswegen sagt man nur Gf2Ti,weil es keine GF2TI500 oder so gibt!

Ich kann auch Aquanox auf 1280x960x32x2xFsAA zocken,deswegen werde ich mir erst eine neue Graka holen,wenn es notwendig ist,nicht wenn es eine grad günstig gibt!
 
Zurück
Oben