Voodoo 5 6000 - Nachbetrachtung

Bluescreen

Lt. Commander
Registriert
Sep. 2001
Beiträge
1.502
Voodoo 6 6000

hi leute, wer von euch hat schon mal die voodoo 6 6000 gesehen oder was gehört, die ist ja nie erschienen. was haltet ihr dabvon?

cu bluescreen
 
Soviel ich weiss ist nicht mal die Voodo 5 6000 in den Handel gekommen (oder nur ganz kurz?) und man hat dann einige noch existierende Modelle erst letztlich auch auf ebay versteigert.

Leistungsmässig war diese so auf GF2 Ultra lvl was ich mitbekommen habe...

Mfg Markus
 
Es gab keine V6, das Ding hieß "VooDoo 5 6000". Ich habe das im Thread-Titel angepaßt. ;)
Lusimans alter Thread enthält eigentlich alle wichtigen Informationen und dazu noch einen kleinen Streit mit Moonstone. Ist schon lustig, diese Antiquitäten mal wieder abzustauben. ;)

P.S.: Ich spiele immer noch mit Kyro2. ;)
 
Hi

Sie ist immer noch die einzige Karte welche 8 fach FSAA (aber nicht so scheisse wie bei nvidia) kann..und das bei guten FPS..

Sie ist nie auf den Markt gekommen..sie sollte es auch nie..die Absicht von 3dfx war es glaube ich mit dem Namen "Voodoo" nach der V3 aufzuhoeren. Sie arbeiteten schon Jahre am Rampage..kurz vor dem Kauf von nvidia konnte man die Rampage-Karten noch zum laufen bringen mit Quake 3...Rampage war der Ruler schlechthin...ich glaube die haette schon vor einem jahr (damals sollte sie released werden) Leistungen einer GeForce 4 übertroffen..12 Gb/s bandbreite :)

Die ganze VSA 100 reihe war meiner meinung nach nur ein zwischenprodukt...die V5 6k brauchte man um es mit den GeForce 2 Ultra aufzunehmen..

Die V5 6k wurde nie fertig..es gibt keine fertigen boards..es wurd
en einige hundert gemacht..aber das sind nur engineering samples..die wurden nach der dichtmachung alle verschenkt oder so und landen ab und zu bei ebay..

Sie hatten soviel ich weiss sehr viele probleme mit dem teil..zuerst setzte man auf ein 2x2 Design (wo die chips so quadratisch angeordnet waren)..das hat man aber in den sand gesetzt..warscheinlich wegen problemen der kuehlung..dann musste man von ner intel auf nen hint-bridge umsteigen weil die intel teiler nichts wert waren...
Dann gabs auch noch probleme mit der synchronisation zwischen 4 chips..ist irgendwie auch logisch..die besten samples der v5 6k sind schon fast perfekt :)..also gibt da einige die spielen regelmaessig mit den teilern :)

Schlussendlich gab 3dfx es auf und lizenzierte die technik an den partner Quantum 3D..die verkaufen auch jetzt noch systeme mit VSA100 technik..

Dann sollte noch ne DDR version des VSA kommen..VSA 101 oder so welche mit 200 MHz getaktet wurde..und dann der Rampage

Wenn die banken nicht so bloed getan haetten koennten wir jetzt schon VIEL schnellere grafikkarten haben :)

Naja schade um 3dfx...wenn wir glueck haben werden teile des rampage in den NV30 (35?) einfliessen..aber das bezweifle ich persoenlich..



Ich persoenlich freue mich auf die G800 (oder was der name auch immer sein wird) von Matrox..soll ja GF4 Performance bringen :)

Cya

AHJA :D

MeLLe! Wo bleibst du mit deiner V5 6k :D (die du ja bald bekommst :D)
 
Zuletzt bearbeitet:
@Stan
Na ja, bei aller 3dfx-Verehrung würde ich das Rampage-Projekt nicht in den Himmel loben. Inwiefern nVidia Verwertbares im 3dfx-Nachlaß gefunden hat (und inwiefern sie das mit ihrem Ansatz vereinbaren können), kann man nur als Insider wissen - und die verraten sowas nicht. ;)

Daß der 3dfx-Abtritt bedauerlich für Vielfalt und Wettbewerb am Markt war, da sind wir uns einig.
 
heya Stan,
du hast nach mir gerufen? ich hörte ein leises "Fillrate is King" durch das netz hallen ... :D

aber was soll ich deinem geilen post noch hinzufügen, besser hätte ich die sache auch nicht erklären können! respekt, wie lange haste daran geschrieben? :D

alles in allem eine bedauerliche und letztendlich eine dem endkunden zum nachteil gewordene geschichte mit 3dfx :( aber zum glück bekomme ich ja demnächst ein stück 3dfx-geschichte zugesandt, kannst ja dann auf CB auch nen artikel drüber schreiben :D

ich denke unsere lordschaft hat schon recht - viel wird aus 3dfx' technologie wohl nicht in nächster zukunft in nvidia's GPUs fliessen. dazu sind die architekturen viel zu verschieden und die produktzyklen viel zu kurz. man wird sich vor experimenten im hause nvidia hüten, denn am beispiel 3dfx sieht man was ein, zwei verpasst produktzyklen bedeuten können...

ich persönlich hoffe auf die bitboys. ok einige (ja lord, sicher auch DU! :D) werden sagen: "ach, alles heisse luft" aber ich denke sie *können* erfolgreich sein, wenn sie ihren ersten chip endlich mal in stückzahlen in silicon bekommen :D

also denn, bis die tage!
wenn es wieder heisst ...
3dfx - it's so powerful, it's kind of ridiculous. ;)
 
@Melle
Keine Sorge, ich tue das nicht als heiße Luft ab. Es ist aber ein sehr gewagter Ansatz und deshalb sicher sehr schwer an den Kunden zu bringen. Irgendwie denke ich, daß die Bitboys die größten Probleme mit Treibern und Spielesupport bekommen werden, wenn ihre Architektur wirklich so anders ist. Aber wir werden ja sehen, was daraus wird. ;)
 
Mir tut es wahnsinnig leid um das Multisampling der Voodoo 4/5, welches mit Abstand auch heute noch nicht übertroffen wurde. Ich hatte selber so ein geiles Brett, und das was die Kyro oder Geforce heute im 4x Modus leisten sah man bei der Voodoo 4/5 schon im 2x Modus. Und die ganzen Spielereien (ich spreche von T-Buffer) hätte man auch noch hübsch in die Spiele einbauen können, nur leider hatte schon zu dem Zeitpunkt 3dfx nicht mehr die nötige Dominanz auf´m Markt.

Und das NVidia ihre Produktportfolios die schon Jahre im vorraus geplant werden extra nur für die 3dfx Technik ändert, bezweifel ich mal stark.

Und wieso 3dfx immer nachgeschrien wird, sie hätten am Markt vorbei entwickelt, kann ich auch nicht ganz nachvollziehen. Zuerst bedarf es mal einiges an Geschwindigkeit (FPS), bevor man sich an die Entwicklung anderer, optisch verbessernde Maßnahmen macht die auch noch dementsprechend flüssig dargestellt werden sollen. 3dfx hat sich an diesem Grundsatz gehalten, und begann als ausreichend Geschwindigkeit zu Verfügung stand auch mit der Integration weiterer Techniken.

Im Gegensatz zu NVidia, die ständig nur Features beschreien die zu der Zeit auf der sie auf´m Markt kommen absolut sinnlos sind (32 bit Farbtiefe, T&L, teilweise Pixel & Vertexshader).

Und ATI, das sind immer noch die besten innovativen Deppen. Versuchen sich sowohl im Performance Markt als auch im OEM Bereich durchzusetzen. Haben seit der Radeon auf´m Papier die bessere Technik/Effekte, ziehen aber trotz dessen damit immer den kürzeren. Vielleicht läuft es ja mit der Generation der nächsten DX9 Grafikkarten so gut, das ihnen endgültig der Durchbruch gelingen mag.

Wie sagte mal einst ein berühmter Mann?
"Konkurrenz belebt das Geschäft..."

Aber das auch nur, solange kein Monopol entsteht. Aber bei dem derzeitigen Stand (ST, ATI, NVidia) mache ich mir da doch etwas sorgen...

Aber ich glaube...ich... *mit dem Kopf auf die Tastatur knall und einschlaf, dabei die Dosen mit den lustigen Pillen vom Tisch runterschubs*
 
Zuletzt bearbeitet:
@Stan

Die neue Karte von Matrox G800 soll keine Spielerkarte sein. So wie es mit bekommen habe soll Matrox in diesen Bereich auch nicht mehr tätig werden. Wenn ich den Link dazu finde dann werde ich den hier posten.
 
Hi

Doch ich hab irgendwo gelesen dass matrox so ein teil heraus bringt...Codename ist noch was mit P oder so...
^
dann sag mir doch mal wieso Matrox an die E3 und die Game Developer Conference (oder so) geht..

@Lord: WEnn man die Specs der rampage gesehen hat dann sieht ne GeForce 4 wirklich mikrig aus..
 
... nicht zu vergessen Fear und Mojo...
aber es nützt nix, bis auf rampage gab es diese halt nur auf dem papier. allerdings hätte ich 3dfx die entwicklung dieser chips auch in realität zugetraut. denn das wären innovative, geniale produkte gewesen. eben getreu der firmenphilosophie. nicht wie bei anderen unternehmen, die ihre karten von generation zu generation nur minimal updaten und maximal overclocken, nur um dann zu sagen "hey, schaut her leute - die neue GraKa XIII mit 2GHz und 512MB RAM ist sieben mal schneller als die alte sinnlose vor 6 Monaten marktreife GraKa XII, die ja nur 1,8GHz takt und nur 384MB RAM hat..." ...
ich gebe zu - das sind alles geniale ideen zur gewinnmaximierung und marktdominanz. aber es geht doch auch um uns endkunden ... und für die sollte mehr getan werden! vor allem in bezug auf preis, innovation, und an erster stelle *gebrauchswert*! was nützt mir eine karte mit vertex/pixelshader, wenn grad mal zwei, drei games diese features intensiv nutzen? nvidia hätte nicht nur 3dfx' technologien, sondern auch deren respekt vor dem kunden übernehmen sollen ...
 
Fear kenn ich..

Aber Mojo? hast du vieleicht noch details? :D

Oh ja..das mit dem respekt vor dem kunden find ich ein ganz gutes argument :D
 
Zuletzt bearbeitet:
Mojo wäre der Nachfolger von Fear gewesen und hätte als erster 3dfx-Chip die von Gigapixel gekaufte Technologie verwendet. Das hätte unter anderem eine TileBasedRendering-Engine, Hardware T&L, EMBM und DOT3BM, Overbright Lighting, 64bit Farbtiefe und vieles mehr beinhaltet. Dazu die von den Vorgängern bekannten FSAA- und T- bzw. M-Buffer-Features.
Eben ein revolutionäres Produkt.

Mehr Infos dazu findest Du in einem interessanten Artikel - hier! :D
 
2500 $

Ich hab mal ne Site gehabt, auf der konte man echt eine der wenigen V6 6000 mit 128 MB ersteigern.
Der derzeitige Preis lag allerdings bei schlappen 2500 US$. Also, nur was für FREAKS !
 
@Lord Kwuteg
falls das stimmt was dermitderATI dan hab ich mich ja dochnicht geirrt, und du kannst den theard wieder ändern.

cu bluescreen
 
Nein..hehe..

Die 4-Chip Karte von 3dfx heisst Voodoo 5 6000! Nix Voodoo 6 :D:.Voodoo 6 gibts nicht und wollte 3dfx auch nie machen :D
 
Hi Leute,

hab' zufällig den Begriff "Respekt vor dem Kunden" im Text aufgeschnappt und wollte nur kurz meinen Senf dazu loswerden:
Nvidia versucht offensichtlich die Endkunden so zu verscheißern, wie man es noch nie gesehen hat, nicht nur die Geschichte mit Gf4 MX, sondern, daß (wies mir scheint) sie ihren Chip(-Auswurf-)Zyklus so enorm verkürzt hat, daß jetzt jedes dreiviertel Jahr eine neue Chipgeneration rauskommt.

Ich meine, die Gf4 wird wohl auch nicht länger wie Gf3 auf dem Markt bleiben, da ich bisher nirgendwo gelesen habe, daß diese Karten auch DX9 kompatibel sind. Da gefällt mir ATIs Politik viel besser: im vernünftigem Rahmen gescheite Graphikkarten rauszubringen, welche sich auch untereinander mit der Leistung, wie auch mit dem Preis deutlicher unterscheiden um auch den unerfahrenen Computernutzer nicht zu verschaukeln, sondern Klarheit schaffen.


Nvidia denkt wohl, wir sind alle zu blöd und kaufen jeden neuen Scheiß den sie auf den Markt bringen! (...womit sie leiden Recht hat... :( )

So, ich hab' mich grad' ein wenig ausgekotzt, und obwohl es dazu noch viel mehr zu sagen gäbe, ihr wisst ja schon was ich mit dieser Kritik meine und ich hoffe sehr, daß Kyro 3 oder Bitboys, oder wer auch immer, die Erwartungen an sie erfüllen und Nvidia ein Wenig von ihrer Wolke runterholen...

Gibt nvidia Saures!!
 
nicht nur nvidia macht das so, denkt nur an microsoft, die sind ein ganzes sütck schlimmer. aber das wisst ihr ja.

cu bluescreen
 
Zurück
Oben