GeForce 4 kommt im Dezember !?

@Lord

Welches Weihnachten meinst du den 2002 ? Dann solltes du aber deine Benchmarkergebnisse wohl besser für dich behalten. Ist nicht böse gemeint aber von der Kyro hört man ja gar nichts.

Gruß JC
 
Kyro

Ja, leider. Entweder haben die PowerVR-Leute im Moment ernsthafte Schwierigkeiten (mit ihrer neuen T&L-Unit?), oder sie basteln da an einer ganz großen "Bombe" (graphisch gesehen) und wollen sie erst rausbringen, wenn sie wirklich ausgereift ist.
Ich mache mir langsam auch Sorgen wegen der langen Funkstille - und wegen der Kyro2Ultra-Meldung, woraus dann nichts wurde.
Aber ich weigere mich auch, den Kyro allgemein zu Grabe zu tragen, bevor der nächste Release nicht wenigstens vorgestellt wurde. Abgesehen davon, ist auch der Kyro2 immer noch konkurrenzfähig in seinem Preissegment - bis nVidia die Schleuderpreise noch tiefer dreht. :(
Ach ja, wegen Benchmarks. Eine Karte mit TBR wird bei synthetischen BruteForce-Benchmarks wie dem 3DMark nie gute Ergebnisse gegenüber der Konkurrenz erzielen, was aber auch nicht repräsentativ ist. Darum sage ich ja, daß ihr eure Benchmarks wieder in der Pfeife rauchen könnt, wenn der Kyro3 auch nur halb so gut ist wie angekündigt. ;)
 
Vielleicht trifft der Spruch ja auf PowerVR zu. Was lange wert wird dann endlich besonders gut.

Gruß JC:D
 
Hab gelesen, dass das "Project Kyro II Ultra" eingestellt wurde, Konkurrenz zu groß und die GraKa-Hersteller werden sich ja nicht selbst konkurrenz machen, indem sie noch im gleichen Preissegmet GraKas mit KyroII Ultra-Chipsatz rausbringen. Es haben fast alle Hersteller die GF3Ti, GF3Ti-200/-500 lizensiert...
Ich denke/hoffe, dass dei jetzt die ganzeArbeit auf den Kyro III verlegen, Konkurrenz is immer gut für den User :)

CU JojoMC
 
GeForce 3, 4, 5, 6... egal.
Hauptsache Deutschland gewinnt und das haben sie 4:1
Glückwunsch, das war wichtiger als irgendeine GeForce, zumindest für heute.
Nee mal Spass bei Seite, die GeForce 4 wird es meineserachtens erst zwischen April-Juni geben, bestimmt für 1200 DM...
Und am ende hat man 1000 Punkte mehr und dann bestimmt unter 3DMark2002. ;-)


:D :D :D :p :D :D :D
 
Da wirst du wohl Recht haben. Wird bestimmt zur Cebit 2002 vorgestellt. Und im Mai gibt es sie dann für alle zum ultra günstigen von nicht unter 1000DM. Wie sieht es eigentlich bei den GraKas aus wenn die Speicherpreise steigen. Müsste sich doch auch irgendwann in den Preisen der GraKas wieder finden. Oder ?

JC
 
Na net, angeblich soll die Radeon8500 auch erst frühestens im Dezember endlich in den Läden sein - da würden sich die welche sie schon vorbestellt haben aber nicht wirklich freuen wenn sie dann die Radeon8500 endlich in den Händen halten zu einem Zeitpunkt wo Nvidias Geforce4 grade rauskommt und SICHER ....die Radeon8500 nur so im Schatten stehen lässt :( würd lachen wenn die Geforce4 dann auch noch gleich mit DirectX 9 - Support daherkommt :D

Nicht mal 2-3 Monate ist einie Graka aktuell, langsam wird das ganze verrückt, die alten Zeiten wo man mit einer TNT2 Ultra mind. 1 Jahr seine Ruhe hatte sind vorbei... Aber den Fortschritt kan halt keiner aufhalten und die noch immer genügend vorhandenen "zahlungswilligen Frameratenkäufer" auch nicht ;)
 
Zuletzt bearbeitet:
Original erstellt von Lord Kwuteg
Wenn der Weihnachtsmann mir eine Kyro3-Karte bringt, bin ich schon zufrieden. Dann könnt ihr eure Benchmarks sowieso wieder in der Pfeife rauchen... :p :D :lol: :evillol:

Ein äußerst kompetenter Beitrag! Weiter so!
 
@Prophet

Da hast du Recht den Fortschritt kann man nicht aufhalten. Aber dennoch ist das auch ein teurer Fortschritt. Den viele mit gehen.

JC
 
Wieso halten soviele (oder sind es bloss einige oder einer?) an der GeForce4 im Dezember fest?
Also ich habe nichts über einem weiteren Release eines Grafikchips, erst recht einer GeForce4, von Nvidia gelesen.
Sicherlich arbeiten die mit Hochdruck an einem Nachfolgerchip, aber bestimmt wird der nicht so verfrüht erscheinen.
Die GeForce3 hat immernoch einen Workaround nötig bevor sie ihre Leistungsgrenze erreicht und dann sie in den Wind schiessen kann.
Ausserdem würde Nvidia sich selbst konkurrieren mit 2 Hochleistungsgrafikchips, soll der neue preislich um die 1500DM ansiedeln damit die GF3 immernoch fleissig gekauft wird?
 
Original erstellt von Dodo Bello
Hi,

mir ist aus relativ guter Quelle zu Ohren gekommen, daß die ersten GF4 Vorabversionen schon im Dezember an Entwickler rausgeschickt werden.

also die GF3 sollte auch im Januar kommen. Dann auf der Cebit Ende März konnte man welche sehen. ImLaden so ab Ende April.
Die Daten der GF3 waren schon seit November 00 bekannt. Aber da gab es dann ja Probleme mit dem A02 Chip...
Und da z.Z. wohl kein Konkurenz besteht (ATI 8500 Retail recht schlecht lieferbar), sehen die auch bestimmt keinen Grund, den Chip vorzustellen.
Weiter wird er wie der NV2x aus der XBox sein. Imho 2 Vertex Shader und noch einiges doppelt ausgelegt und das war es.
Also so wie bei NVidia immer:

1. TNT kommt, TNT2 bringt die Daten, die die TNT schon haben sollte
2. GF1 kommt. GF2 kommt 6 mit den Daten, die die GF1 haben sollte
3. GF3 kommt. Leistung der Vorankündigung wird wieder nicht erreicht. Keine 250MHz GPU... TI500 kommt, einfach eine GF3 mit 240Mhz. Selbst gleicher Chip drauf, Stepping A05. Daher wird es, wie es immer bei NVidia war, die GF4 erst das bringen, was die GF3 schon sollte.
 
Januar Geforce4? Radeon ja noch nicht mal da !!!

Leute tatsächlich : Die Seite http://www.nvnews.net/ berichtet, dass Nvidia den GeForce3-Nachfolger NV25 (Geforce4) bereits im Dezember diesen oder Januar nächsten Jahres vorstellen will - na gut.


Fragen wir zu diesem Fakt(?) mal unseren virtuellen "Tomi" :

.)Tomi kaufte sich vor ein paar Wochen eine Radeon8500, wartet aber wegen Herstellerproblemen
noch mindestens bis Anfang Dezember auf dessen Lieferung.

.)Wärend Tomi wartet darf er sich aber als Trostpflaster inzwischen nicht mal sicher sein ob es sich dann auch echt um eine Retail mit 275Mhz Chiptakt handelt


.)Tomi wartet also noch immer...so lala kommt in dieser Wartezeit dann auch noch mal geschwindt die Geforce4 bald raus welche ja sicher alle anderen Grakas
mal wieder in der Leistung plat machen wird, da freut sich Tomi jetzt noch mehr auf seine bis er sie überhaupt erhällt inzwischen wieder Zweitrangige Radeon8500


.)"Na supa!" denkt sich Tomi und freut sich auf die schon seit Wochen bestellte Radeon8500 ganz besonders weil er ja in der Zeit jetzt immer das Geforce4-Gerede in den Ohren hat und nicht mal sicher sein kann das eine vollwertige Radeon mit 275Mhz Chiptakt erhällt und selbst dann darf sich Tomi freuen :
Denn bis er im Dezember die GRaka in den Händen hällt ist sie schon aus aller Munde und Webseiten
benchen nur noch BETA-GEforce4 Karten und schwören heilig auf dessen super Leistung.
Tomi weinnt und sagt sich dabei :

"Tja Tomi, so ist das, Karte noch nicht mal da und schon veraltet"

Leute kaufts euch keine Geforce4, sobald die draussen ist kommt paar Wochen drauf die Radeon III
und die wird wieder billiger sein - wetten ? ... und unterstützt dann wahrscheinlich schon DirectX 12, Vertex Shader 1.6789,
100fach Anialising, hat nen 1Ghz Chiptakt, AGP 8Fach Support, und und und ...

jo.....

Mein Tip für Tomi :
Die Radeon8500 war eine gute Wahl, sie ist günstig und schnell genug, sicher auch noch
die nächsten 1-2 Jahre und bis dahin darfst du dich auf die Geforce5 freuen, ok Tomi ?
Brav.

Tomi ENDE
 
@Prophet
Sehr wahr gesprochen. Ich verwende übrigens auch noch eine TNT2. ;)
Vor diesem Hintergrund wirst du auch verstehen, warum ich mit einem Kyro2 auch noch sehr zufrieden bin. Genau wie die Leute mit GF2MX sage ich nämlich: "Die Leistung reicht, ich brauche eine Graka für die Gegenwart und nicht für die Zukunft."
Das soll nicht heißen, daß uns (Kyro2/GF2MX-Besitzern) die Neuentwicklungen egal sind. Es heißt aber, daß wir die Entwicklung recht gelassen abwarten können. :)
 
Nur für alle die es noch nicht gesehen haben, die nächste GPU von nVidia soll nicht bestätigten Angaben zufolge doch schon im Jänner kommen. Hier der Artikel von https://www.computerbase.de/ :

"Im Internet kursieren im Moment wieder heisse Gerüchte über die neuen Grafikchips NV17 und NV25 von Nvidia. Angeblich soll bereits nächsten Monat der NV17 als Nachfolger des GeForce 2 MX400 auf den Markt gebracht werden. Bei den Kollegen von nV News gibt es neue inoffizielle Informationen über den Zeitplan zur Veröffentlichung der neuen Nvidia Grafikchips. Mit dem NV25 soll demnach der Thronfolger des GeForce 3 TI500 im Januar auf den Markt kommen, wahrscheinlich mit noch höherem Takt und erweiterter T+L-Einheit. Im Budget-Segment wird der NV17 verbaut werden und den GeForce 2 MX400 ablösen, dessen Produktion bereits eingestellt ist. Von der Technik wird der NV17 mit seinem mobilen Chipsatz-Kollegen NV17M vergleichbar sein, die Preise für Grafikkarten mit dem Chip sollen unter DM 300,- liegen. Der NV25 soll in 0,13µ Technologie gefertigt werden und eine ähnliche Architektur wie der GeForce3 TI 500 aufweisen, möglich wäre auch die Integration der Twin-View-Funktion, die bisher nur auf Karten mit GeForce 2 MX-GPU zum Einsatz kam."

Naja aber ob das wahr ist? Und wann Grakas mit den Chips kommen werden ist sehr fraglich.
 
Ich habe dem nichts mehr hinzuzufügen.
 
Zuletzt bearbeitet:
Ich habe dem nichts mehr hinzuzufügen.
 
Zuletzt bearbeitet:
also wenn im Januar tatsächlich schon der NV25 auf den Markt geworfen wird, dann ist das gute Stück doch mit genauso heisser Nadel gestrickt wie der GeForce3
selbst wenn man mit endgültigen Karten sicher erst im März/April rechenen kann, sollte sich nVidia lieber etwas mehr Zeit nehmen, die derzeitigen Chips haben genug Kinderkrankheiten und hinken technischen Neuerungen massiv hinterher. Es wäre bei nVidia eher an der Zeit ein neues Chipdesign zu entwickeln, als vorhandene Fehler weiterzuentwickeln

@DODO BELLO

wie versprochen, komme ich, wenn im Dezember 2001 ´ne GeForce4 bei irgendeinem Händler in der Preisliste auftaucht
 
Zuletzt bearbeitet:
Ich weiss nicht ob eine rasche Einführung im Januar sehr viel Sinn bringen würde.
Was wissen wir eigentlich über die GeForce4 genaueres und wie unterscheidet sie sich vom NV20? Ausser dass sie einen zweiten nFinity-Einheit hat eigentlich noch nichts konkretes.
Nutzen tut die zweite Einheit nur wenn sie auch genutzt wird, aber wieviele Spiele nutzt schon die Funktionen der GeForce3/Radeon2? Wir stehen nicht einmal richtig am Anfang und schon´nen Nachfolger.
Wieviel werden die Spieleprogrammierer der X-Box ihre Erfahrungen für die PC-Spiele portieren und wird denen der Aufwand speziell für die GeForce4 zu programmieren eigentlich lohnen ohne die eigentlich schon vorhandenen anderen und weitverbreiteten HighEnd-Karten zu vernachlässigen?
 
Original erstellt von Crazy_Bon
Wieviel werden die Spieleprogrammierer der X-Box ihre Erfahrungen für die PC-Spiele portieren und wird denen der Aufwand speziell für die GeForce4 zu programmieren eigentlich lohnen ohne die eigentlich schon vorhandenen anderen und weitverbreiteten HighEnd-Karten zu vernachlässigen?

das ist die Sache.
spielehersteller, nicht die Programmierer wie Mr. Quake oder so, der 64bit Farbtife haben will, müssen ihr Produkt verkaufen.
Also möglichst viele Käufer finden.
Wenn jetzt ein Spiel kommt, daß so wie Max Payne oder Aquanox als Gf3 mindestens angekündigt, und plötzlich auch auf GF2 Karten ohne Probleme läuft, dann erkennt man doch etwas.
Aquanox wurde von GF3 optimiert noch auf "alle Karten" geändert. sonst wäre die Käuferschicht mit einer Gf3 sehr gering gewesen und die GF3 Besitzer hätten sich alle Aquanox kaufen müßen. Hätten nur 10% der GF3 Besitzer Aquanox gekauft, wäre das bei max. 15%Gf3 von lallen Grafikkarten so max. 2%. Da lohnt sich kein Spiel für. Es muß viele ansprechen und daher auch auf den aktuellen Karten, die nicht 600DM kosten, laufen.
Selbige bei Max Payne. Wurde immer als GF3 Beispiel gezeigt, aber es nutzt nur gernige DX 8 Funtionen und keinen Vertex Shader. Auf meiner GF2 Ultra konnte ich es ohne Probleme mit meinem damaligen 1.2GHz AMD auf 1024*786*32 mit allen Features auf max Spielen.

Also die Spielehersteller wollen ihre Spiele verkaufen und das geht nur, wenn man aktuelle Hardware einbezieht.
Bester Flop: Outcast. War ein super Spiel, nur ein Erfolg war es nicht gerade, da es nur Software Render war und so eine starke CPU brauchte. Selbst die High End Geräte mit 600Mhz lief es nicht ohne Ruckler.
Oder warum brauchenn viele Hersteller nach 2 Jahren T&L immer noch Zeit, T&L zu unterstützen?
1. Spiele werden 2-3 Jahre (die guten) Entwickelt. Da muß man erst überlegen, was in 2-3 Jahren an Rechner vorhanden sind.Nur
2. weil es bis jetzt nicht gelohnt hatte für T&L was zu machen, da bis zur MX nur GK über 600DM dieses Feature hatten. So sieht es auch beim Vertex Shader aus. Der wird erst mehr genutzt, wenn es mehr GK mit dieser Funktion gibt.
 
Zurück
Oben