News Im Test vor 15 Jahren: Gigabyte brachte zwei GeForce 6600 GT auf ein PCB

Beide haben mMn recht und gute Argumente angeführt.

Naja wird sicherlich noch Anwendungsbereiche geben wo DualGPU Sinn macht.
Ob es Gaming ist?
Wobei eigentlich machbar wäre doch vieles.
Physix, Raytracing usw auslagern.

Man könnte sicher etwas bauen was all die negativen Dinge beseitigt und auch die Software dazu anpassen.
Die Frage ist halt wie teuer so etwas dann wird.
 
Zuletzt bearbeitet:
lowrider20 schrieb:
Das war aber damals das komplette System, sollte ich mich nicht irren.
Stimmt, danke. Könnte man im Artikel aber Mal erwähnen.
 
Teralios schrieb:
Entschuldige, ich wollte dich da nicht belehren, hätte noch mal drüber lesen sollen, wie ich es geschrieben habe.

Ich hab auch noch die Zeiten der damals der "ungekühlten" CPUs erlebt oder dann die ersten passiven Kühler auf den 486er.

Manchmal erscheint das alles immer weit weg und wenn man dann mal alte Hardware sieht, fragt man sich manchmal, wie man den Lärm damals ertragen konnte.

Dennoch: Entschuldige, es war nicht so gemeint, ich hab mich da absolut dumm ausgedrückt.
Akzeptiert, hab eh mit meiner Erklärung versucht ev. Missverständnisse auszuräumen. Bei dem Beitrag @BenjayBoyTellEm mit dem Quad-SLI-Board scheinst du dich verlesen zu haben. Er hat hier nur zwei Grakas verbaut, aber für den größeren Abstand wurden eben die zusätzlichen PCIe-Plätze benötigt, welche Dual-SLI-Boards damals nicht boten.
 
BenjayBoyTellEm schrieb:
CrossFire/SLI war und ist doch das A und O wenn es um Gaming geht. Hatte mit zwei Radeon HD 4870 und später mit zwei Devils 7870 im CrossFire Verbund keine Probleme. Mit dem ersten Setup konnte ich damals GTA IV Spielen, wie kaum ein anderer. Selbst mein Bruder mit seiner PS3 guckte dumm aus der Wäsche, Grafik und Frames am laufenden Band. Nicht wie bei ihm. :-) Und die zwei Devils 7870, konnte ich auch nur Feiern. Daumen 👍 und Danke AMD für diese Erfahrung.
lionelhudz schrieb:
Hatte ich mal in meiner Sammlung, nur ich ich Idiot hab alles verkauft. Aber ich hab jetzt wieder angefangen , Dual GPU Karten zu sammeln...also wenn einer eine abzgeben hat :D. Ansonsten hatte ich selbst mal 2 GTX 570 und ne GTX 690 in meinem Rechner werkeln und ehrlich gesagt nur Probleme damit beim zocken.
Hier zwei Posts, mit komplett gegenteiliger Erfahrung. Beide haben recht. Warum? Das Zauberwort heisst "Setup".
Ich hatte Crossfire schon mit den X1800er Karten, damals noch mit der legendären Kabelpeitsche verbunden. Und damals fiel mir schon auf, dass Spiele mit manchen Settings nicht sauber laufen, trotz hohen Frames. Kurz und knapp: Microruckler hängen wesentlich von der Engine ab und von den Settings. Ich habe damals als die MR-Diskussion entflammte, einen Guide hier ins Forum gestellt, mit dem man ein CF/SLI Gespann garantiert MR-frei konfiguriert. Der wesentliche Faktor: Erst eine Karte einbauen. Spiel starten. Spiel im Grafikmenü so einstellen, dass es sauber und ohne Ruckler läuft. Wichtig: OHNE ANTIALIASING und MIT VSYNC! Dann die zweite Karte rein, CF/SLI aktivieren und ANTIALIASING aufdrehen. CF/SLI ist primär dazu da, die Bildqualität zu steigern, und NICHT die Leistung! Ich habe mit meiner Meinung Jan und Volker bei jedem SLI/CF Test genervt. Bis ich mal 2 Wochen suspendiert wurde.
 
  • Gefällt mir
Reaktionen: lubi7 und Cr@zed^
lowrider20 schrieb:
Bei dem Beitrag @BenjayBoyTellEm mit dem Quad-SLI-Board scheinst du dich verlesen zu haben.
Das kann gut sein, ändert aber nichts an der Grundproblematik, dass man, wenn man etwas anders versteht, erst mal fragt - so wie du es gemacht hast - oder versucht jemanden bloßzustellen und sich dann wundert. Genau so wie es nun der liebe @Cr@zed versucht und sagt, dass ich ja keine Ahnung habe, aber keine Argumente bringt, außer das er ja entsprechende Systeme zusammen gebaut hat und ich anscheinend nicht.

Inhaltlich haben beide überhaupt nichts abgeliefert, zumindest nichts, was mir nicht bekannt ist. Es ist immer leicht anderen zusagen sie hätten keine Ahnung, nur dann sollte man auch Inhaltlich liefern. So haben beide nur ziemlich allgemeine heiße Luft produziert.


lowrider20 schrieb:
Er hat hier nur zwei Grakas verbaut, aber für den größeren Abstand wurden eben die zusätzlichen PCIe-Plätze benötigt, welche Dual-SLI-Boards damals nicht boten.
Wenn er das so gemacht hat, dann ist das gut für ihn und für mich war das damals die übliche Vorgehensweise, wenn ich für Freunde die Systeme zusammen gebaut habe und sie ein SLI-System oder Crossfire-System haben wollten. Nur war das damals wie heute auch eine Frage des Geldes. Gerade die Fraktion der Freunde, keine 500,- für eine Highend-Karte ausgeben wollten, sondern lieber zwei 150,- oder 200,- Karte haben wollte, konnte man nur schlecht dann zu einem teureren Board überreden.

Es gab dann auch unter den Dual-SLI/Crossfire-Boards welche die ein gutes Layout hatten, genau so gab es aber auch damals viele Boards die ein schlechtes Layout hatten. Dass heiß damals dann sich die Handbücher der Boards anzusehen und wie die verschiedenen Steckplätze angesteuert werden. Wenn ich die Systeme gebaut habe, habe ich darauf geachtet, dass zwischen den Karten möglichst mehr wie ein PCIe Steckplatz frei bleibt, damit beide Karten genug Luft bekommen. Dennoch ist die obere Karte in diesen Systemen wärmer geworden als die Untere. Konvektion sollte ja allen ein Begriff sein.

Entsprechend habe ich aber auch die den "Airflow" in diesem Systemen optimiert und den Leuten eher zu "großzüigen" Miditower oder eben einen Bigtower geraten. Die, die dann das nötige Kleingeld hatten, haben da auch ohne Probleme sich entsprechende System zusammen bauen lassen.

Mit guter Planung und den richtigen Komponenten konnte ein SLI- und Crossfire-System richtig Spaß machen. Aber genau dazu sind eben viele Leute damals auch nicht bereit gewesen und gerade die Fraktion, die eine einzelne Highend-Karte durch 2 MidEnd-Karten ersetzen wollten haben ihr System allgemein mit sehr engem Budget geplant. Da hat man dann teilweise gegen eine Wand geredet, wenn man ein anders Mainboard empfohlen hat, weil dort das Board-Layout etwas besser war. "Nein, also das Gigabyte nehme ich nicht, ich will das ASUS!" Oder man sagte: Dann nimm wenigsten den etwas größeren Tower. "Nein, ich will das Gehäuse für 50,- und ein Bigtower will ich schon gar nicht."

Und wie viele Leute aus Familie und Freunden sind zu mir gekommen, die dann ihre SLI-Systeme und Crossfire-Systeme mit möglichst kleinem Budget geplant haben und dann sich im Sommer wunderten, warum ihr System instabil war, oder warum der Rechner so laut ist oder die eine Grafikkarte kurz vor dem Hitzetod standen, während die andere vollkommen in Ordnung war.

SLI/CrossFire-Systeme haben immer eine gewisse Planung erfordert und sie haben ihre Eigenheiten die man bedenken muss. Bedenkt man sie, plant man das System gut, sind das wundervolle Systeme gewesen, nur das haben halt die wenigsten getan.
 
IMG_20180701_101930.jpg


Nagelneu und OVP :)
 
  • Gefällt mir
Reaktionen: derSafran, ITX-Fan, Häschen und 3 andere
Anscheinend hätte ich meinen Beitrag doch nicht zurück ziehen sollen ...
Schon im ersten Beitrag schrieb ich, dass SLI/CF mit Midrange/Low-End keinen Sinn machte.
SLI/CF war schon immer Enthusiast und damit mit einem finanziellen Mehraufwand verbunden. Wenn du hier versuchst mich lächerlich zu machen, kann das böse ins Auge gehen, denn wie ich schrieb, hatte ich über 10 JAhre Multi GPU und darauf basierend einen reichhaltigen Erfahrungsschatz. Sogar in einem kleinen Lancool K7 funktionierte CF ohne thermische Probleme und das sogar leise!.

K7_2.jpg

(AMD Phenom II X4 940 @ 3,8GHz, M3A79-T Deluxe, HD 4870 1GiB OC 850/2000)
 
  • Gefällt mir
Reaktionen: Balikon, ITX-Fan und cbtestarossa
Rollensatz schrieb:
3Dfx hatte damals schon das Problem der Microruckler umgangen....
3Dfx nutzte einvöllig anderes Verfahren um die Bilder auf mehreren GPUs zu berechnen.(das Bild wurde in einzelte Zeilen zerlegt und auf die GPUs zur Berechnung verteilt, anschließend wieder zu einem Ganzen zusammen gefügt, nVidia und AMD(ATi) ö lassen ganze Bilder auf mehreren GPUs komplett berechnen. Problem dabei ist das wenn eine GPU etwas länger braucht als die andere(einzel Bilder sind ja nicht alle identuschłgibt das die sog. Microruckler.)
Da gab es prinzipbedingt keine Mucroruckler.

Edit: Android ist kacke zum tippen, selbst Symbian hatte eine bessere und inuitivere Bedienung als der Kack hier grad, junge was bin ich genervt.
 
Zuletzt bearbeitet:
Cr@zed^ schrieb:
Schon im ersten Beitrag schrieb ich, dass SLI/CF mit Midrange/Low-End keinen Sinn machte.
Dann würde ich dir an der Stelle mal empfehlen, dass du meinen beiden Beiträge sehr genau liest und auch den Beitrag, wegen dem ich meinen Beitrag verfasst habe.

Dass du in deinem ersten Beitrag schon geschrieben hast, dass SLI/CF im Midrange und Low-End Bereich keinen Sinn ergibt, ist für meinen Beitrag, den ihr kritisiert und weswegen ihr mir Ahnungslosigkeit unterstellen wollt, nicht von Belang.

Ich habe auf die Aussage von @Rollensatz reagiert und der hat geschrieben:
Rollensatz schrieb:
Denn schon damals war eine gute Implementierung eines SLI Profils der Tod der teuren High End Karte. 2 günstige GT´s haben das Top Modell der GTX alt aussehen lassen. Deutlich mehr FPS (mit bekannten Problemen) als das Flagschiff.

Mein Beitrag bezieht sich genau auf diese Aussage und die Personen, die genau so denken. Nicht jeder hat deine Einstellung, dass SLI/CF etwas für High-End-Systeme ist, es gibt und gab immer genug Leute, die SLI/CF dazu nutzen wollten möglichst günstig eine High-End-Karte zu ersetzen.

Cr@zed^ schrieb:
SLI/CF war schon immer Enthusiast und damit mit einem finanziellen Mehraufwand verbunden.
Auch das ist richtig und dem stimme ich zu, das ändert aber nichts daran, dass es damals wie heute immer noch genug Leute gibt, die denken, dass man mit SLI/CF ja günstig teure Karten ersetzen kann. Siehe erneut das von mir angebrachte Zitat.

Cr@zed^ schrieb:
Wenn du hier versuchst mich lächerlich zu machen, kann das böse ins Auge gehen, denn wie ich schrieb, hatte ich über 10 JAhre Multi GPU und darauf basierend einen reichhaltigen Erfahrungsschatz
Ich versuche dich hier nicht lächerlich zu machen, das schaffst du in diesem Fall zu großen Teilen leider selbst, in dem du dich an Aussagen von mir aufhängst, die ich in einem gewissen Kontext getätigt habe.

Ebenso trägt dazu bei, dass du mir nun mit einem Bild etwas beweisen willst, was ich aber bereits in meinem Beitrag nun sogar geschrieben habe.

Und deine Aussage, dass du ja 10 Jahre Mutli-GPU-Systeme betreibst und einen entsprechenden Erfahrungsschatz besitzt ist zwar schön für dich, hier aber nicht von Relevanz. Ich könnte hier jetzt auch da stehen und sagen, dass ich seit nun gut über 20 Jahren Computersysteme plane, zusammen baue und betreue und ebenso, dass ich seit 2006 immer wieder für Freunde die Computer richten durfte, weil sie bei ihrer Planung Mist gebaut haben und ich dadurch auch auf dem Gebiet Multi-GPU-Systeme entsprechende Erfahrungen gesammelt habe.

Ich könnte auch erwähnen, dass ich seit nun über 15 Jahren programmiere und das auch Systemnah mit zeitkritischen Komponenten und ich sowohl in System- als auch Algorithmusoptimierung einiges an Erfahrung habe.

Das tut hier aber nicht zur Sache. Entscheidend ist, dass man hier den Beitrag des anderen genau liest und darüber nachdenkt worauf er sich bezieht, bevor man jemanden Ahnungslosigkeit unterstellen will.

Deswegen noch einmal: Ich habe nur auf die Aussagen von Rollensatz geantwortet, der hier anbringen wollte, dass man ja günstig mit zwei Midrage-Karten eine Highend-Karte setzen kann. Daraus resultiert, dass es hier um das Geldsparen geht und nicht um Enthusiasten, die viel Liebe in ihr System stecken.


Cr@zed^ schrieb:
z. Sogar in einem kleinen Lancool K7 funktionierte CF ohne thermische Probleme und das sogar leise!.
Und was sehe ich da? Das Board hat ein entsprechend gutes Layout und der Airflow ist entsprechend optimiert worden.

Was habe ich in meinem Beitrag geschrieben?
Teralios schrieb:
Es gab dann auch unter den Dual-SLI/Crossfire-Boards welche die ein gutes Layout hatten, [...] Wenn ich die Systeme gebaut habe, habe ich darauf geachtet, dass zwischen den Karten möglichst mehr wie ein PCIe Steckplatz frei bleibt, damit beide Karten genug Luft bekommen.

Bei dir sehe ich nun 2 freie PCIe-Steckplätze. Und was sehe ich noch? Kein Gehäusekäfig vor den Lüftern, die die Luft ins System bringen, damit erreicht die Luft auch die Karten recht gut.

Oder anders ausgedrückt:
Teralios schrieb:
SLI/CrossFire-Systeme haben immer eine gewisse Planung erfordert und sie haben ihre Eigenheiten, die man bedenken muss. Bedenkt man sie, plant man das System gut, sind das wundervolle Systeme gewesen, nur das haben halt die wenigsten getan.

Entschuldige, ich will dich hier nicht lächerlich machen, aber dann lies bitte auch mal meine Beiträge richtig und in welchem Kontext welche Aussagen von mir fallen, statt einfach mal pauschal zu sagen, dass ich keine Ahnung habe.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: bensel32 und Fritzler
Teralios schrieb:
Nicht jeder hat deine Einstellung, dass SLI/CF etwas für High-End-Systeme ist, es gibt und gab immer genug Leute, die SLI/CF dazu nutzen wollten möglichst günstig eine High-End-Karte zu ersetzen.
Ich und sicher einige andere auch, wollten mit zwei Radeon HD 7870 (als Beispiel) definitiv keine Radeon HD 7990 (als Beispiel) schlagen. Und oder was verstehst du unter High End? Eine Radeon HD 7950 und 70, sind das wohl eher nicht!
Teralios schrieb:
das ändert aber nichts daran, dass es damals wie heute immer noch genug Leute gibt, die denken, dass man mit SLI/CF ja günstig teure Karten ersetzen kann.
Als erstes wiederholst du dich und als zweites möchte ich doch gerne wissen, worauf du deine Aussage aufbaust. Ich selbst kenne keinen der sich so etwas denkt und oder gar einbildet?
Teralios schrieb:
Das tut hier aber nicht zur Sache.
Denke schon, dass das hier zur Sache tut. Denn immerhin teilt er @Cr@zed^ hier seine Erfahrungen. Und oder ist das etwa unerwünscht? Ich bitte dich um Nachsicht. Oder schreibe ich doch besser "Sie?"
 
Zuletzt bearbeitet von einem Moderator:
@cbtestarossa Ich denke, deren Verfahren wird sicht nicht darauf übertragen lassen, wie heutige Engines die Grafik berechnen. Damals (<= DirectX 9) hatten die Schritte beim Rendering eine fest vorgegebene Abfolge und 3dfx hatte zusätzlich mit Glide noch eine eigene API. Darauf kann man sein Verfahren eben viel gezielter optimieren. Noch dazu war ein großer Teil der Grafikberechnung immer noch Teil der CPU, worauf die Grafikkarte dann keinen Einfluss hat.
Heutige Grafikschnittstellen (ab spätestens DirectX 10, Vulkan) haben aber ein frei programmierbare Grafikpipeline, die Hardware kann sich also nicht darauf verlassen, dass die Berechnungen alle in der gleichen Reihenfolge stattfinden und außerdem ist die Abhängigkeit der Berechnungen untereinander viel komplexer geworden. Wie schon von jemandem anders hier angesprochen, rechnen zum Beispiel die verschiedenen Antialiasing Techniken in jeden Pixel auch Information aus den Nachbarpixeln mit rein oder greifen auf vorherige Frames zurück.
 
  • Gefällt mir
Reaktionen: derSafran, cbtestarossa und Teralios
Die 3D1 hat aber leider nur auf Gigabyte Mainboards in SLI funktioniert. Auf allen anderen ging nur ein Chip :D
 
Ich hab damals ne menge CF systeme gehabt, in allen preisklassen, was letztendlich dafür gesorgt hat warum ich ins Nvidia lager gewandert bin. Treiber technisch war das meiner Meinung nach die deutlich bessere Entscheidung. Von der Leistung her konnte ich mich nie beschweren.

Heute is das anders.

Die Idee fand ich gut, kauf dir ne karte und wenns mal eng wird, steck ne zweite dazu. Nur aus technischer Sicht ein Problem war die Teilung des Vrams. Das hat im Grunde SLI und CF insoweit selbst zerstört da man auf High End Karten angewiesen war die selbst bei der vram Teilung noch genug in peto hatten. Dual GPU hatte Leistung satt, nur bei midrange karten war vram ende relativ schnell erreicht. Und wer damals eben nachgelesen hat und sich informiert hat, selbst wenn er mit den Microruckler gedöns zurecht gekommen wäre schnell klar war, das dann nicht in frage kam.
Heute würde das anders gehen auch ohne Teilung des vrams, wie man bei Nvidia im Pro Segment sehen kann. Da wird der vram nicht mehr geteilt. Voller vram und zwei GPUS. Aber obs zum zocken geht denke ich nicht.
 
@mibbio es ist fast richtig, was du schreibst, aber nur fast. Ich ergänze es noch etwas! Die Problem fingen schon mit DX7 an!

cbtestarossa schrieb:
Könnten Kosten sein oder sonst was.
Nein, es hat etwas damit zu tun, wie ein Bild heute in der GPU berechnet wird und ebenso mit den Effekten.

Das SLI-Verfahren von 3dfx ist nicht besser oder schlechter als die anderen Verfahren, sondern es hat seine Eigenheiten. SLI ist zu einer Zeit entstanden, als die GPU wirklich nur die reine Bildsynthese durch geführt hat, also die fertigen Informationen zu einem Bild umgewandelt haben.

Beleuchtung und die Geometrie wurde bis DX7 von der CPU berechnet, die GPU musste dann nur noch die fertigen Daten nehmen und in das Bild umwandeln. Oder vereinfacht: Die GPU nimmt die Polygone, pappt die Textur darauf und wendet noch für die Farbe die Beleuchtungsdaten an. Das war es.

Der Treiber von 3dfx hat nun einfach das von den Daten her fertige Bild genommen und an beide Grafikkarten übermittelt und Grafikkarte A gesagt: Du berechnest die geraden Zeilen und sendest das Ergebnis an die Grafikkarte B. Grafikkarte B, du berechnest die ungeraden Zeilen, packst die geraden Zeilen von A dazu und gibst das Bild aus!

Seit DX7 wird aber die Beleuchtung und die Geometrie nicht mehr von der CPUn sondern von der GPU berechnet. Die Bildsynthese ist dadurch in der GPU komplexer geworden. Die besteht nun aus zwei zusätzlichen. Ab diesem Zeitpunkt funktioniert SLI funktioniert nun ab jetzt nicht mehr in der "klassischen" Form von zwei getrennten GPUs, weil beide Grafikkarten ja sowohl die Geometrie-Daten als auch Beleuchtungsdaten brauchen. Beides sind aber aktuell die "Aufwändigsten" Schritte. Entweder müsste man nun beide Karten jeweils für sich die Geometrie und Beleuchtung berechnen lassen und dann die gerade und ungeraden Zeilen, das funktioniert aber nur bedingt gut, weil sich Geometrie und Beleuchtung unterscheiden könnten.

Die Lösung um "SLI" weiterhin zu nutzen, bestand bei 3dfx nun daraus, dass sie einen speziellen Prozessor entwickelten, der die Geometrie und Beleuchtung eines Bildes berechnet und dann wieder die Zeilen an die Co-Prozessoren abgibt, die dann die Bildsynthese inklusive der damaligen aufkommenden Vertex- und Pixelshader berechnet. Das SLI von 3dfx wäre dann auch nicht mehr über mehrere Karten hinweg lauffähig gewesen, aber im kleinen auf ihrem Board. Du kannst ja mal nach 3dfx Rampage googlen.

SLI gehört zu den Split-Frame-Rendering-Methode. Eine andere SFR-Methode wäre zum Beispiel das Bild in Kacheln einzuteilen. Etwas Öhnliches nutzen ja heute AMD und nvidia für ihre GPUs. Das Tiled-Based-Rendering moderern GPUs würde sich theoretisch auch dazu eigenen über mehrere GPUs aufgeteilt zu werden, hier kommt aber nun zu tragen, dass Bilder heute zwar immer noch die relativ klassische Bildsynthese durchlaufen, aber viele moderne Effekte erst berechnet werden, wenn die ursprüngliche Bildsynthese abgeschlossen ist, gleichzeitig brauchen diese Effekte aber die Informationen aus den einzelnen Rechenschritten der Bildsynthese und auch benachbarter Pixel und manchmal sogar von den Frames davor.

SFR-Methoden bei SLI/Crossfire scheitern also hier in der Regel daran, dass man sehr viel Bandbreite aber auch niedrige Latenzen bräuchte. Übrig bleibt AFR, da hier jede Grafikkarte genau einen Frame berechnet, es leidet aber eben auch an Bandbreiten und Latenzproblemen und zudem kann die Arbeit nicht gleichmäßig auf die Grafikarten verteilt werden, da manche Frames mehr Rechenkraft erfordern, andere weniger.

SLI/Crossfire über mehrere Karten hinweg ist so Problematisch, da ein Kommunikationsproblem besteht.
 
  • Gefällt mir
Reaktionen: derSafran, mibbio und cbtestarossa
@mibbio
Wobei glaub AA damals sogar eine der Stärken bei 3dfx MultiGPU war.

@Teralios
Naja gab damals auch noch vermehrt OpenGL Unterstützung.
Glide sowieso.

Naja was solls. Schau ma mal wie es weitergeht.
Preise sollten mal purzeln, wär mal wichtiger.
 
cbtestarossa schrieb:
Wobei glaub AA damals sogar eine der Stärken bei 3dfx MultiGPU war.
War sie auch, was aber daran lag, dass das Bild eigentlich schon fertig war und die Synthese nur noch die ganzen Zahlen in die fertigen Pixel umwandelte. Ob du nun aus den Daten ein Bild mit 1024 * 768 oder 2048 * 1512 errechnestm hängt ja nur davon ab, ob du genug Pixel und Texel durch die GPU jagen konntest. Gleichzeitig waren die Voodoo 4 und 5 massiv von der CPU abhängig, und zwar noch mehr als heute. ;) Das ging so weit, dass selbst ein Wechsel vom P3 mit 800MHz auf einen Athlon XP 2000 sich sogar noch bemerkbar machen in FPS in bestimmten Spielen.

cbtestarossa schrieb:
Naja gab damals auch noch vermehrt OpenGL Unterstützung.
OpenGL war ja auch lange Zeit die einzige wirkliche API für 3d-Berechnung, auch wenn sie eigentlich für den professionellen Bereich gedacht war.

Glide hat sich dann einer massiven Beliebtheit erfreut, weil die API auf die "Spielegrafik" zu geschnitten war und recht einfach zu programmieren war. Was Microsoft damals als API angeboten hat, war dagegen ein schlechter Witz. Damals hieß es halt: Software - auch über OpenGL oder Glide.

Leider hat sich 3dfx damals aber auf ihrem Erfolg und auch Vorsprung etwas zu sehr ausgeruht, dazu ein paar andere falsche Entscheidungen.

Es ist schade um 3dfx, ich wäre gespannt, wo wir uns heute befinden würden, wenn die Firma damals überlebt hätte.
 
  • Gefällt mir
Reaktionen: derSafran und cbtestarossa
Teralios schrieb:
Glide hat sich dann einer massiven Beliebtheit erfreut, weil die API auf die "Spielegrafik" zu geschnitten war und recht einfach zu programmieren war.

Leider hat sich 3dfx damals aber auf ihrem Erfolg und auch Vorsprung etwas zu sehr ausgeruht, dazu ein paar andere falsche Entscheidungen.
Das Manko der 3dfx Chips war halt auch, dass die nur 16Bit Farbtiefe unterstützt haben, und erst ab der Voodoo3 zumindet das finale Bild mit 22Bit berechnet wurde. Nur konnte die Konkurrenz da halt schon nativ 32bit Farbtiefe.
 
  • Gefällt mir
Reaktionen: cbtestarossa
Robert schrieb:
Die hohe Leistung einzelner GPUs...

Ernsthaft?
Eine GTX 2080Ti bekommt in Full HD bei den Hardcore-Games gerademal die 60fps (@Max) hin.
Aus meiner Sicht haben die Single-GPU´s zu wenig Leistung.
Wir sind seit Jahren bei Full HD sehr gut angelangt.
Für den nächsten Schritt zu 2k bzw. 4k fehlt da noch einiges.
VR und anderes schon gar nicht mitgerechnet.
Für den "Normalanwender" reicht bei den meisten Spielen eine RX 580/1060 6GB.
Das ist dann allerdings die (untere) Mittelklasse ohne große Ansprüche.

Sollten die Spieleentwickler einen guten Weg finden, würde Sli/CF auch wirklich funktionieren.
Dann gäbe es auch Käufer dafür.
 
Zurück
Oben