Vodoo 5 6000 todgeburt?

Kwuteg

Foren-Wookie
Dabei seit
Mai 2001
Beiträge
4.386
#3
Du scheinst es echt nicht zu wissen...

Die V5 6000 wurde seinerzeit als Sample gefertigt, doch dann machte 3dfx einen Rückzieher und verkündete, daß diese Bauform des VSA-100 von einer Tochterfirma für den High-End-Bereich übernommen würde. Damit war die 6000 für den Gamer gestorben. Als 3dfx dann den Löffel abgegeben hat, war die ganze Produktreihe Geschichte. Es mag noch Karten geben, aber gebaut werden sie schon lange nicht mehr. Und die 6000er wurde (abgesehen von den Samples) niemals gebaut!

Das könnte man wirklich eine Totgeburt nennen. Ich find's Scheiße, wollte das Ding auch haben! :(
 

{LuSiMaN}

Moraloffizier
Ersteller dieses Themas
Dabei seit
Mai 2001
Beiträge
1.411
#4
Original erstellt von Crazy_Bon
Lebst du hinter dem Mond?
Deine Gladiac-Frage war schon komisch genug, und nun das?
Was soll die Scheiße???? Ich stelle hier eine ganz normale Frage und du musst natürlich wieder so blöd antworten. Das 3dfx von Nvidia gekauft worden ist mir schon klar, aber es gab gerüchte das Nvidia bzw 3dfx die Karte doch raus bringen will!!!!!!!!!!!!!!!!!!!!:mad: :mad:
 
Dabei seit
Mai 2001
Beiträge
3.203
#5
Das die Karte nicht rauskommen würde, war denke ich klar... aber wenn ihr sie "Todgeburt" nennt... *g*
Aber eines hatten die ganzen VooDoo karten (>VooDoo4-4500)
Bei Full Scene Anti Alaising waren sie nie zu schlagen... aber ich bleibe geForce Fan!
Das soll kommen was wolle!
MfG Volti!
CYA

:D
 
Dabei seit
März 2001
Beiträge
1.044
#6
Voodoo Technik

Ich gehe mal stark davon aus, dass die Voodoo Technik in den kommenden GeForce Generationen integriert sein wird. Nvidia wird die 3DFx Entwicklungen wohl nicht einfach in die Ecke legen und selbst probieren, die Aufgaben zu lösen. Speziell das Full-Scene-Anti-Alaising wird mit sicherheit bald auch bei den Nvidia Chips zu finden sein.
 

TONY_G

Cadet 4th Year
Dabei seit
Juni 2001
Beiträge
105
#7
Voodoo 5 6000

es geht das gerücht um das ehemalige mitarbeiter von 3dFX eine neue firma gründen wollen, das hab ich bei Golem gelesen ist aber schon länger her;) also verlasst euch net drauf!

mfg TONY_G
 

Kwuteg

Foren-Wookie
Dabei seit
Mai 2001
Beiträge
4.386
#9
NV30? Das kann dauern!

Ich bin schon zufrieden, wenn gute Technik nicht stirbt, nur weil sie unter die Mühlsteine des Wettbewerbs geraten ist. Das wäre nämlich fatal. An eine Wiedergeburt der V5 glaube ich nicht, auch wenn ich mich wohl am meisten darüber freuen würde.
Das Ganze klingt für mich wie Totenbeschwörung. :freak:
 
Dabei seit
März 2001
Beiträge
1.044
#10
Voodoo5

Die Voodoo5 ist für mich eigentlich das typische Beispiel für eine von euch so gerne als "Brute Force" bezeichnete Karte. Sie hat zwar schon ein paar nette Effekte, aber mit gleich 4 Prozessoren und 128MB RAM daher zu kommen und einen Stromverbrauch zu haben, der ein eigenes Netzteil erfordert, das ist einfach antiquierte Technik. Aber ich denke mal, dass sich die Effekte, die die Voodoo5 hatte, sehr gut mit dem kommenden NV30 kombinieren lassen.
 

Kwuteg

Foren-Wookie
Dabei seit
Mai 2001
Beiträge
4.386
#11
Das ist relativ!

Also erstmal, Moonstone: Da hast du mich wirklich erwischt!
Der VSA-100 ist tatsächlich in erster Linie BruteForce - darum würde ich ihn mittlerweile auch erstmal in Aktion sehen wollen, bevor ich mir eine endgültige Meinung über ihn bilde!
Gereizt hätte mich am 3dfx-Weg allerdings eher das Hardware-FSAA und die Idee, mit mehreren GPUs zu skalieren. Beides sind Wege weg vom Bruteforce, auch wenn es sich nur um Ansätze handelt. Übrigens arbeiten die existierenden (sehr performanten) V5-Karten allesamt mit SDR-RAM. Sie kommen mit dieser Bandbreite aus! Das bedeutet aber nicht, daß sie mit DDR-RAM nicht wesentlich mehr bringen könnten. Nur wäre eine Multi-GPU-Lösung mit derart teurem Speicher dann für die meisten Gamer nicht mehr bezahlbar gewesen.
Große Innovationssprünge konnte 3dfx mit dem VSA-100 also nicht vorweisen, aber die Technik war gut. Ich bin gespannt, ob NVidia das Know-How von 3dfx in Sachen Skalierung einsetzt. In diesem Fall würden deren Produkte auch für mich wieder interessant. Im Moment setze ich voll auf die Innovationen von PowerVR.
 

Spawnkiller

Lt. Junior Grade
Dabei seit
Apr. 2001
Beiträge
299
#12
V5 6000

Schade, schade, ich war schon sehr geschockt als bekannt gegeben wurde das diese Monster-Karte (in bezug auf ihre Größe) an Quantum 3D verkauft wird und das alle Endkunden, also wir hier in den Mond schauen müssen.

Aber falls Ihr doch so ein Teil haben wollt könnt ihr mal so um die 20000-40000 DM berappen und euch so ein, ... wie soll ich sagen, mir fehlen die Worte... Rechner bei http://www.quantum3d.com/ kaufen.:p
 
Dabei seit
März 2001
Beiträge
1.044
#13
GPU

Welche Grafikchips darf man eigentlich als GPU bezeichnen? Ich war der Meinung nur solche, die eine T&L Einheit besitzen. Graphic Processing Unit. Der Begriff GPU wurde ja von Nvidia damals mit dem GeForce256 eigeführt.
 

Darth Jane

Lt. Junior Grade
Dabei seit
Mai 2001
Beiträge
266
#15
Die V5 6000 war auf jeden Fall eine Interessante Karte, aber nun gibt es sie nicht mehr, echt schade. Hatte mal irgendwo Benshmarks mit V4 4500, V5 5000-6000 gesehen. Ziemlich beeindruckend, wie die Karten skalieren. Aber letztendlich ist die Leistung mit einer GeForce 2 zu vergleichen (bis auf FSAA).
 

Kwuteg

Foren-Wookie
Dabei seit
Mai 2001
Beiträge
4.386
#16
Was soll das denn werden?

Original erstellt von Moonstone
Welche Grafikchips darf man eigentlich als GPU bezeichnen? Ich war der Meinung nur solche, die eine T&L Einheit besitzen. Graphic Processing Unit. Der Begriff GPU wurde ja von Nvidia damals mit dem GeForce256 eigeführt.
Hast du jetzt genau überlegt, bevor du das gepostet hast? :lol:
Darf man jetzt "CPU" auch nur noch zu Intel (c) - Prozessoren sagen? :lol:

Das ist einfach eine technische Abkürzung und kein Markenname.
Ich habe die Abkürzung übrigens schon gehört, bevor es T&L gab, und fand sie recht handlich.
Haben die Grafikchips vorher etwa keine Prozesse berechnet oder wovon redest du da? :evillol:
 
Dabei seit
März 2001
Beiträge
1.044
#17
Mein letzter Post war eigentlich als Frage gemeint. Deshalb habe ich auch dieses "?" Zeichen am Ende des ersten Satzen verwendet.
Ich hatte den Begriff GPU das erste mal in Verbindung mit dem GeForce256 gehört. Vorher war immer nur dir Rede von Grafikchips gewesen. Dass GPU kein Markennamen ist bestreite ich wohl kaum. Dennoch interessiert mich, ob es was mit der T&L Einheit zu tun hat. Schließlich sind das Grafikprozessoren, die selbst die Bildgeometrie berechnen und nicht nur auf ein vorgerechnetes Modell irgendwelche Texturen klatschen.
 

Crazy_Bon

Rear Admiral
Dabei seit
März 2001
Beiträge
5.625
#18
Alle Grafikchips sind GPU´s. Selbst die im Chipsatz intregierten sind welche, schliesslich muss ja eine Graphic Processing Unit die Bilder an dem Montor bringen, was wäre ein PC ohne eine CPU? Auch keines..
Nvidia fungierte immer gerne mit Begriffen rum, auch bei der GeForce3 haben die was nettes ausgedacht.. zum belächeln.
 

Tommy

Chef-Optimist
Teammitglied
Dabei seit
März 2001
Beiträge
8.193
#19
Naja GPU erst wirklich mit GeForce 256

Also es stimmt schon, das nVidia den Namen GPU erst wirklich richtig geprägt hat. Sicherlich kann man nicht behaupten, dass die Vorgänger der GeForce Serieren keine GPUs waren, diese Zusatzbezeichnung jedoch beim GeForce X gerade deshalb die besondere Berechtigung, weil die CPU durch die T&L Einheit nicht mehr so stark belastet wird. Wenn man z.B. bedenkt, dass der Grafikchip (T&L-Einheit meine ich) komplizierte mathematische Vektorrechnungen zur Bestimmung der Lage der Dreicke, oder den Lichtfall berechnet, dann ist die Ähnlichkeit zu einer CPU größer den je.
 
Dabei seit
März 2001
Beiträge
1.044
#20
Re: Naja GPU erst wirklich mit GeForce 256

Original erstellt von Tommy
Also es stimmt schon, das nVidia den Namen GPU erst wirklich richtig geprägt hat. Sicherlich kann man nicht behaupten, dass die Vorgänger der GeForce Serieren keine GPUs waren, diese Zusatzbezeichnung jedoch beim GeForce X gerade deshalb die besondere Berechtigung, weil die CPU durch die T&L Einheit nicht mehr so stark belastet wird. Wenn man z.B. bedenkt, dass der Grafikchip (T&L-Einheit meine ich) komplizierte mathematische Vektorrechnungen zur Bestimmung der Lage der Dreicke, oder den Lichtfall berechnet, dann ist die Ähnlichkeit zu einer CPU größer den je.

Endlich mal jemand der versteht, was ich gemeint habe! :D
 
Top