News Im Test vor 15 Jahren: Das größte Problem der Radeon X850 XT hieß XL

Wenn ich dieses Kühlsystem sehe stellen sich mir die Nackenhaare hoch.
Das haben sie auf der X1800XT auch noch verwendet und es war alles andere als leise.

Damals konnte man das aber noch günstig mit nem Ati Silencer von Arctic korrigieren.
 
Ich hatte damals eine X850 Pro, die müsste dann ja wenig später gekommen sein. Sie löste eine 9600XT Ultimate ab und wurde selbst eine Generation später von der X1850Pro abgelöst. War glaube ich wenig sinnvoll, aber damals hatte ich weder ein Programm zum Auslesen von Auslastung und FPS noch habe ich großartig Tests angeschaut.
Später hatte ich dann eine Phase des Quasi-Stillstands und heute muss die Hardware wenigstens drei Jahre oder lieber mehr halten (und wenn es in ein Nebenrechner ist), damit ich kein schlechtes Gewissen habe.
 
  • Gefällt mir
Reaktionen: Cr@zed^
Da kommen Erinnerungen auf. Schnell hatte ich gemerkt,das ein Athlon XP 3200 nicht der richtige Partner für
die X850XT war. Also musste man umsteigen auf einen Athlon 64.Aus heutiger Sicht auch nicht ganz billig das Ganze.Aber hat sich gelohnt.Alles lief wieder,wie es sollte.
 
emulbetsup schrieb:
Geht es nur mir so? 440 EUR spotten jeglichen Preisen, die heutzutage aufgerufen wurden. Selbst bei hoch angesetzten 2% Inflation sind das nach aktueller Kaufkraft nur EUR 592,18. Dafür bekommt man aktuell lediglich ne RTX 2070 SUPER und damit ne Oberklasse GPU. Eine GPU die heute der X850 XT entsprechen würde gibt es aktuell nicht, denn selbst die 2080 SUPER kommt nicht im Ansatz nah genug an die 2080 TI heran.

Im Verhältnis würde für diese Leistung am heutigen Markt über 1000 EUR aufgerufen werden.

Die Bereitschaft mehr auszugeben wurde eben über die Jahre von den Herstellern ausgelotet und die über Jahre starke Position von Nvidia und Intel ggü. AMD hat auch nicht gerade für Konkurrenz und Preisverfall gesorgt. Wie es anders ausschauen kann sieht man gerade im Server / DC Segment wo Intel auf einmal verrückte Dinge mit seinen Refreshs tut.

Das selbe ist im übrigen stetig Stückweise im Smartphone Markt passiert. Dazu das ganze noch als Lifestyle statt als Alltagsgegenstand vermarkten (genialer Schachzug) und plötzlich sind die Preise doppelt so hoch.

@test:

Ich amüsiere mich über die Bezeichnung "in hohen Auflösungen" und das war dann 1280x1024 :D Als ich 2004 meinen ersten TFT gekauft habe waren die 1280 schon fast bahnbrechend, gefühlt löst heute jedes Druckerdisplay höher auf :cool_alt:
 
  • Gefällt mir
Reaktionen: kryzs, Wow4ikRU, konkretor und eine weitere Person
Hatte Damals noch einen Athlon X2 3800+ :D mit einer, ich glaube Radeon 9600 XT oder Geforce 6600LE 🤔. War eine richtig geile zeit damals, anfang der 2000er.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
Also mein Kumpel hat für seine HIS x850xt pe 750 bezahlt. Ich hatte zu der Zeit eine x800pro von Saphire. Da kam dann ein anderes BIOS drauf und schon hatte ich eine x800xt mit vollen 16 Pipelines 😎
 
Zu dieser Zeit blieb mein PC-Wunsch noch ein Traum. Kann mich noch erinnern, wie ich damals mehrere Konfigurationen mit der X800Xl zusammengestellt habe, in der Hoffnung, dass ich vielleicht einen bekomme.
Mein persönlicher Start war dann erst ein NB mit Core Duo T2400 & NV GO 7900GS 256MB. Danach...
  • - > PHENOM II X2 545 & R7 4770 512MB
  • - > Signatur ^^ ich wechsel äußerst selten. ;)
 
RushSyks schrieb:
Hab ich das noch richtig in Erinnerung, dass diese Serie kein Shadermodell 3.0 hatte? Erinnert mich ein bisschen an RTX heute, meine 6800 Ultra hatte es zwar, aber die Leistung hat nicht wirklich gereicht. Mein Kumpel mit der x850 hatte eigentlich mehr Leistung, konnte aber Oblivion und Gothic 3 dann nicht mehr in max details spielen.
Eine Generation später war es dann Standard.


Welches shader Modell 3 Spiel lief denn zu langsam? Ich habe mit einer 6600gt immer sm 3 Effekte aktiviert und bis auf oblivion konnte ich alles aus der Zeit gut zocken. 1024x768 😂
Oblivion lief aber auch echt mies bei erscheinen. Wirklich zocken ging da erst mit der 8800er Serie
Nvidias.

Psy
 
psychotoxic schrieb:
Welches shader Modell 3 Spiel lief denn zu langsam?
Splinter Cell Chaos Theory war mit SM3 sehr fordernd. Es sei denn meine Erinnerung trügt mich.
 
Oblivion ist mir am stärksten in Erinnerung geblieben. Ich hatte einen 1280*1024 TFT und die wollte man ja nach Möglichkeit nativ befeuern. Das war ein Trauerspiel in 12 FPS ohne Grass Schatten😅
Allerdings habe ich gerade nachgeschaut, zwischen 6800 und Oblivion lagen ja fast 2 Jahre, das war damals eine Ewigkeit.
 
emulbetsup schrieb:
Geht es nur mir so? 440 EUR spotten jeglichen Preisen, die heutzutage aufgerufen wurden. Selbst bei hoch angesetzten 2% Inflation sind das nach aktueller Kaufkraft nur EUR 592,18. Dafür bekommt man aktuell lediglich ne RTX 2070 SUPER und damit ne Oberklasse GPU. Eine GPU die heute der X850 XT entsprechen würde gibt es aktuell nicht, denn selbst die 2080 SUPER kommt nicht im Ansatz nah genug an die 2080 TI heran.

Im Verhältnis würde für diese Leistung am heutigen Markt über 1000 EUR aufgerufen werden.
Das fing an nachdem der Wettbewerb praktisch tot war weil der Großteil der Kundschaft blind bei einem Hersteller gekauft hat. Die sonst üblichen Preisnachlässe im laufe der Zeit fielen nach und nach weg, die neue Generation setzte dennoch preislich eins drauf (getreu dem Motto schneller = teurer) und so landeten wir bei den heutigen Preisregionen.
 
Oh Gott die Tribals auf den Kühler 😂😂
Wie auf meiner Wade.. Jugendsünde
 
  • Gefällt mir
Reaktionen: Fernando Vidal
DJKno schrieb:
Wenn ich dieses Kühlsystem sehe stellen sich mir die Nackenhaare hoch.
Das haben sie auf der X1800XT auch noch verwendet und es war alles andere als leise.

Damals konnte man das aber noch günstig mit nem Ati Silencer von Arctic korrigieren.
Das Design ist eine Katastrophe. Das Gehäuse des Lüfters hat ja konstanten Querschnitt, und die Flügel des Lüfters sind auch nur Optik 😂 aber schön zu sehen wie immer alles etwas besser wird aber keiner den großen Wurf macht. Damals aber waren die Arctic sehr gut gemacht, hatte ich auch auf der 9500.
 
VoodooMax schrieb:
Ich selbst war damals noch mit der 6800LE unterwegs.

Hoffentlich unlocked, die hatte ich damals auch, @16/5, der letzte Vertex Shader wollte nicht.
 
Was mich bei den R4xxer GPUs gewundert hat damals, wieso hat ATI so viele verschiedene Produkte vom gleichen Chip gebracht?
R420/R423 und R480 sind doch das exakt gleiche?
Ich hatte damals ne X800XT, das war meine ich ein R480 Chip, bin mir aber nicht mehr 100% sicher. Das Teil lief mit gemoddetem Bios auf 550/590 und war damit minimal über X850XT PE Niveau für nen schmalen Taler im Vergleich zu dem TopDog.
Musste allerdings den Athlon XP mit massivem OC gegen nen A64 als absolute OC Krücke tauschen, weil ich mit der X800XT auf PCIe gegangen bin und für die Zukunft klar keinen Sinn mehr in AGP gesehen habe. Wie sich herausgestellt hat, klar die richtige Entscheidung - dem 3200+ Krücken A64 Chip folge ein sehr guter X2 3800+, der real 2,6GHz und mit Wasser auch 3GHz ging. (beim 3200+ war bei 2,2GHz schon Ende) und der X800XT folge eine X1950 Pro, später im CF und noch später R600


Wadenbeisser schrieb:
Das fing an nachdem der Wettbewerb praktisch tot war weil der Großteil der Kundschaft blind bei einem Hersteller gekauft hat. Die sonst üblichen Preisnachlässe im laufe der Zeit fielen nach und nach weg, die neue Generation setzte dennoch preislich eins drauf (getreu dem Motto schneller = teurer) und so landeten wir bei den heutigen Preisregionen.

Das stimmt so aber nicht... Der Wettbewerb hat damals nicht gesorgt, dass die Preise sanken - eher im Gegenteil. Mit nur einseitigem Kauf lässt sich da auch nix erklären.
Im GPU Markt lag der Preistiefpunkt in 2009 - absolut gesehen mit ~300€ für HighEnd (GTX 280/285) und ~110-130€ für Performance Klasse (GTX 260/HD4870). Seit dem steigen die Preise mit JEDER! Generation. Dabei macht es absolut keinen Unterschied, ob AMD oder NV die Preise treiben. AMD hat dies mit der HD5870 getan -> ~300€ zu Release, mehr als doppeltem Preis bei "nur" ~60% mehr Leistung zum eigenen Vorgänger. Oder mit Tahiti für ~500€ zu Release ggü. der HD6970. Und NV bei all an anderen Generationen dazwischen, weil sie dort zeitlich eben eher dran waren.

Das wird sich solange nicht ändern wie die Hersteller sich nicht auf einen Preiskampf einlassen. Und das halte ich aktuell für eher ausgeschlossen. Die Preise sind mittlerweile sooo hoch, dass lediglich zwei Hersteller am Markt sich gegenseitig nicht preislich bekämpfen müssen um ihren Teil vom Kuchen zu bekommen. Da platziert man einfach das Produkt so, dass es einen "Aufpreis" rechtfertigt oder trotzdem das Produkt attraktiv macht und gut ist. Die Palette ist extrem viel breiter geworden, was noch dazu kommt.

Das Motto, Schneller = Teurer gab es damals auch schon ;) Und es war nicht minder problematisch als heute. Allerdings war vielen damals eben eine 300€ RV870 based Karte trotz nur ~60% mehr Leistung zum Vorgänger den Aufpreis wert, weil 300€ absolut dennoch wenig waren - während heute 1300€ für ne TU102 2080TI nur noch wenige Leute zahlen wollen/würden.

emulbetsup schrieb:
Geht es nur mir so? 440 EUR spotten jeglichen Preisen, die heutzutage aufgerufen wurden. Selbst bei hoch angesetzten 2% Inflation sind das nach aktueller Kaufkraft nur EUR 592,18. Dafür bekommt man aktuell lediglich ne RTX 2070 SUPER und damit ne Oberklasse GPU. Eine GPU die heute der X850 XT entsprechen würde gibt es aktuell nicht, denn selbst die 2080 SUPER kommt nicht im Ansatz nah genug an die 2080 TI heran.

Allgemein sind die Kosten aber auch klar gestiegen. Die Unternehmen haben deutlich mehr Mitarbeiter und deutlich mehr Kosten. Die Produktion ist deutlich teurer als damals noch. AMD sprach mal bei 7nm von ca. Faktor 2 in den yielded mm² ggü. dem Vorgänger Prozess. Das spiegelt sich klar im Preis wieder - muss einem nicht gefallen, ändern lässt sich daran aber nicht sooo viel. Und wenn man ansieht, was vom Umsatz, gerade bei AMD an Gewinn hängen bleibt, wirklich vieeeeel Luft um da nen Preiskampf vom Zaun zu brechen ist da einfach mal nicht. Es muss also irgendwo was dran sein, dass es teurer ist als damals noch. Ob ne 5700XT für die Hälfte vom Preis wirtschaftlich wäre, ist fraglich. Und die Hälfte von 350-380€ realen Händlerpreis ist ca. ähnlich einer ~40% langsamere GPU aus 2005 im Vergleich zum TopDog damals gekostet hat! Passt also ganz klar so nicht (mehr) ;)
 
Achja, son Mäuschen hab ich hier auch noch rumliegen. Das Geräusch, wenn der Lüfter bei Einschalten des PCs kurz auf 100 % dreht, habe ich immernoch in den Ohren. Muss ich wohl mal wieder irgendwo einbauen.:)
 
fdsonne schrieb:
Das stimmt so aber nicht...
Doch doch, kommt schon so hin, auch wen erst deutlich später offensichtlich wurde das der Wettbewerb tot ist und seither die Preise fleißig klettern.
Für mich war es seit der HD7970 mehr als eindeutig denn die bei der Vorstellung noch aktuelle GTX580 fand trotz der eindeutigen Unterlegenheit mehr Kunden und auch die später veröffentlichte GTX680 verkaufte sich trotz eindeutiger Nachteile wie dem deutlich kleineren Speicher und den höheren Preis deutlich besser.
Seitdem fallen die Karten bis zum Nachfolger nur noch maginal im Preis und der Nchfolger selbst setzt preislich jedes mal deutlich eines drauf. Dadurch werden die Preise langsam hochgezogen und mit neuen Preisankern wie der Titan Reihe hat man gleichzeitig ganz neue Preisregionen erschlossen welche natürlich auch das Preisgefühl für die darunter liegenden Modelle verbiegen und sich deren Preise leichter anziehen lassen.

Die GTX 280/285 vs. HD4870 Zeit war ein gutes Beispiel dafür wie Wettbewerb funktionieren kann.
Die HD4870 war zwar langsamer als die GTX280 und hatte auch ein paar weitere Schwächen wie z.B. der Idle Strombedarf und das Kühlsystem allerdings sah sich nvidia angesichts des Preisunterschiedes genötigt die Preise erheblich nach runter zu setzen und die Karten deshalb abzuspecken um die Kosten zu senken. (z.B. Spannungswandler, Backplate) Die GTX285 kam deshalb gleich im Spardesign daher.
Ein ähnliches Szenario gab es auch bei der R9 290x vs. Ttan und es wurde ganz einfach ignoriert weil man offensichtlich bereits dort keine Einbußen befürchten mußte. -> Wettbewerb tot. Spätestens bei der Nummer mit der GTX970 war es mehr als offensichtlich.

Seinerzeit bewegten sich die Preise der Desktop Spitzenmodelle so zwischen 500 und 700€, dank der Titan Reihe wurde die 1000€ Marke mit Ausstattungsdetails gerissen die nach und nach wieder abgebaut wurden und das gleiche Spiel wurde bei der 3000€ Marke (Titan V) nochmal wiederholt.
Heute haben wir dadurch eine 2500€ RTX Titan und ca. 1300€ für die kaum langsamere RTX2080Ti. Innerhalb des Zeitraums zwischen der GTX780/Titan und der RTX2080Ti/RTX Titan konnte man den Verkaufspreis also um ca. 150% steigern, auch das ist ein Zeichen für einen toten Wettbewerb.

Na zumindest hat AMD dazu gelernt und passt seine Preise an die des Wettbewerbers an anstatt sie sich mit Kampfpreisen nur selbst zu versauen.
 
  • Gefällt mir
Reaktionen: Pry_T800
emulbetsup schrieb:
Geht es nur mir so? 440 EUR spotten jeglichen Preisen, die heutzutage aufgerufen wurden. Selbst bei hoch angesetzten 2% Inflation sind das nach aktueller Kaufkraft nur EUR 592,18.
emulbetsup schrieb:
Im Verhältnis würde für diese Leistung am heutigen Markt über 1000 EUR aufgerufen werden.

Inflation ist nur ein Punkt und spiegelt nicht die anderen Entwicklungen.
Nach deiner Logik müssten die Chips schon vor 20 Jahren unbezahlbar gewesen sein, auch weil die Komplexität der Chips steigt, nicht sinkt. (mehr Transistoren, neue Entwicklungen, etc...)
Fakt ist, in den 90ern und Anfang der 2000er hat man für winzige Popelchips, ein Vermögen gezahlt.
Es ging dann immer mal hoch und runter, die normalen Consumer Chips waren dann aber irgendwann durchaus günstig zu haben. Enthusiast war schon immer überteuert.

Besonders erinnere ich mich an die 8800 GTX, die war extrem teuer, dafür aber auch über Jahre an der Spitze.
Was günstige Produkte angeht erinnere ich mich gerne an die HD 4870 (war Jahre nach der hier vorgestellten Karte) da gab es für 200 Euro High-End. ;)

Nvidia hat vor Jahren mit der Titan den Preisvogel abgeschossen, insbesondere als normaler Consumer muss man schon ziemlich Banane sein, wenn man diese kauft. Ich weiß auch, dass die meisten Besitzer solcher Karten die einfach so kaufen und nicht in der Lage sind diese überhaupt vernünftig zu verwenden und nach 1-2 Jahren sind auch die wieder veraltet und wertlos.

Problem heutzutage ist leider das es genug Idioten gibt die jeden Preis zahlen und man selbst die Mittel-/Oberklasse auf Enthusiast Preise anhebt. Wer 400-600 für eine "normale" Karte zahlt, ist für meine Begriffe doch etwas benebelt. Wenn die Chip Gerüchte stimmen, dann werden die nächsten Nvidia deutlich schneller und ich würde in keine mittelprächtige Karte investieren. Aktuell fährt man als kluger Konsument gut wenn man einfach bei FullHD bleibt, dann braucht man den überteuerten Käse auch nicht.
Oder Geld ist einem egal, aber das ist es nicht mal mir als Millionär. Sonst wäre ich auch keiner. ;)
 
  • Gefällt mir
Reaktionen: Pry_T800, 106S16, ThePlayer und eine weitere Person
Hab das mal versucht nach nicht ganz so viel Text aussehen zu lassen :lol:
Wadenbeisser schrieb:
Doch doch, kommt schon so hin, auch wen erst deutlich später offensichtlich wurde das der Wettbewerb tot ist und seither die Preise fleißig klettern.
Für mich war es seit der HD7970 mehr als eindeutig denn die bei der Vorstellung noch aktuelle GTX580 fand trotz der eindeutigen Unterlegenheit mehr Kunden und auch die später veröffentlichte GTX680 verkaufte sich trotz eindeutiger Nachteile wie dem deutlich kleineren Speicher und den höheren Preis deutlich besser.
Aber woran machst du das jetzt im Detail fest?
Die 680 war zu Release (ca. 3 Monate nach Tahiti) schneller, nämlich ca. 10%, dafür aber deutlich stromsparender, Featureseitig neuer (Downsampling bspw., AA/MGPU Bits gabs damals für die Spielmatzen, das qualitativ, wenn auch nur noch minimal bessere AF und was weis ich noch alles)
Dazu noch die Nachteile beim Ref. Design bei AMD mit dem Blower Kühler, hohe Lautstärke durch den relativ höheren Verbrauch usw.

Das kann man sehen wie man möchte, aber es gab Gründe, GK104 zu kaufen - vor allem in der Zeit, wo GCN die Rohleistung nicht auf die Straße bekommen hat. Das lässt sich halt damit im Grunde nicht als Nachteil "verkaufen" - gerade im Bezug auf GK104 vs. Tahiti, wo der Preis 1:1 Release vs. Release gleich war. Also 500€ Tahiti wurden 500€ 680.

Im Endeffekt hat AMD mit GCN die viel viel bessere Rohleistung gehabt. Ne HD7970 GHz hat 40%! mehr Rohleistung als so ne 0815 Stock 680er. Aber in so parade Games wie Battlefield damals gabs einfach davon keinen Vorteil. Das müsste BF3? gewesen sein? Oder 4? Weiß ich nicht mehr genau...
Für viele Wechselwilligen war eine 680 ggü. Fermi echt eine Wohltat unter vielen Gesichtspunkten. Weil der Verbrauch sich einfach mal halbiert hat zur 480/580.

Aber ich weiß schon, worauf du hinaus willst. Man hat damals Tahiti based Karten für teils 200-250€ bekommen, nachdem die 680/670er am Markt waren. Und keiner wusste, dass das ein übel gutes P/L Produkt wird, weil es eben nach und nach ihre Rohleistung ausspielen konnte. Selbst die HD7950 mit 800MHz ohne Boost, winziger Nachteil ggü. der großen Schwester, hand-OC auf 1,2GHz und auf Jahre gesehen ein wirklich solides Produkt.
Nachteile lassen sich dadurch aber dennoch nicht weg diskutieren. Für mich als SLI Nutzer bspw. war damals AMD raus, weil damit kein Downsampling ging. Von zwei GF100 GPUs kommend war alles, was AMD bot in der Richtung ein Featurerückschritt. Weder konnte man in den DX9-11 Titeln groß SGSSAA erzwingen (bei NV schon) noch mit Downsampling gegenwirken. So bin ich von den beiden Fermis auf erst eine, später zwei GK104 gegangen - und noch später auf erst eine GK110, dann zwei. Hawaii war/ist rückblickend das bessere Produkt auf lange Zeit, Tahiti das bessere Produkt ggü. GK104. Aber damals gab es (mMn) gute Gründe das nicht zu kaufen...

In den Betrachtungen zum Kaufverhalten Rückblickend wird aber sehr häufig ausgeblendet, wie der Markt damals aussah, und warum das so war wie es eben war.

Wadenbeisser schrieb:
Seinerzeit bewegten sich die Preise der Desktop Spitzenmodelle so zwischen 500 und 700€, dank der Titan Reihe wurde die 1000€ Marke mit Ausstattungsdetails gerissen die nach und nach wieder abgebaut wurden und das gleiche Spiel wurde bei der 3000€ Marke (Titan V) nochmal wiederholt.
Heute haben wir dadurch eine 2500€ RTX Titan und ca. 1300€ für die kaum langsamere RTX2080Ti. Innerhalb des Zeitraums zwischen der GTX780/Titan und der RTX2080Ti/RTX Titan konnte man den Verkaufspreis also um ca. 150% steigern, auch das ist ein Zeichen für einen toten Wettbewerb.
Das sehe ich differenzierter.

Ich würde die Titanen damit nicht als Maßstab für die Gamerpreise ansehen - weil es nie wirklich Gamerprodukte waren. Mit dem selben Maßstab müsste man bei AMD auch die VegaFE ansetzen. Dann liegen wird dort auch bei deutlich über 1000€ zu Anfang für effektiv nichts an Mehrwert außer doppeltem VRAM ggü. der Vega64 im Gamerbereich...

Dass das am Ende allgemein teurer wird, ist mMn auch nicht verwunderlich. TU102 ist einfach mal das größte bisher dagewesene GPU Produkt mit Geforce Label.
Bei GK104 wurde NV hart kritisiert, nen "HighEnd" Namen an einen Mainstream Chip dran zu schreiben. Heute mit Turing hat der 104er Chip die Größe der damaligen TopDog GPU und TU102 ist nochmal deutlich größer.
Das kostet natürlich Geld. Nebst der allgemein immer teurer (Kosten pro mm²) werdenden Fertigung. Und dafür halte ich persönlich sogar den relativen Aufpreis von total ca. Faktor 2 - 8800 GTX/Ultra auf 2080TI innerhalb von 14 Jahren für relativ gering. Ich tue mich allerdings schwer die Produkte davor in die gleiche Rechnung zu packen, weil der GPGPU Fokus seit G80/R600 bei beiden Herstellern klar Teil der Produktausrichtung geworden ist - war davor nicht der Fall!

Die Titan classic war zeitlich minimal vor der GTX 780 quasi ausschließlich als Ref. Modell zu haben. Ne Custom 780 war nicht langsamer, im Schnitt aber deutlich günstiger. Der Unterschied war für Gamer irrelevante FP64 in 1/3 ggü. FP32 und der doppelte VRAM. Den Speicher gab es bei der 780 als 6GB aber auch!
Mit der 780TI im neuer Chiprevision wurde das, was die Titan sein soll, noch "obsoleter" für den Gamer. Denn Vollausbau hatten beide, bis auf den Speicher und die nach wie vor irrelevanten FP64 gabs es keinen Unterschied. Die Titan wurde aber als viel günstigere Quadro/Tesla in anderen Märkten gern eingesetzt. Und das ist bis heute nicht anders. Als TitanRTX mit 24GB hast du einfach mal nen riesigen Vorteil ggü. jeder Gamerkarte am Markt, wenn du sagen wir 3D Rendering damit tätigst. Das muss nichtmal OptiX Raytracing Zeugs sein, sondern fällt schon mit dem ganz klassischen Software-GPU Render Ansatz auf. In Cycles Blender dreht eine ausreichende TitanRTX Kreise um jede Geforce im VRAM Limit. Willst du das als Anwender, kostet dich das die Hälfte der Quadro oder Tesla. Willst du noch mehr, zahlst du auch den Preis der 48GB Quadro oder Tesla. Obenraus sind mit NVLink und der Kombinationsmöglichkeit beim VRAM selbst MGPU Ausbauten ggf. noch rentabel.
Die TitanV hat ihre Daseinsberechtigung bspw. für alle, die nicht tausende Euros in Tesla oder Quadro Karten investieren wollen, aber trotzdem den FP64 Vorteil wollen. Denn das Ding liefert dort eben ab.
Wirklich aus der Reihe tanzt eigentlich "nur" die TitanX mit Pascal Chip. Denn die hat weder nen wirklichen VRAM Vorteil noch wirklich einen Leistungsvorteil. Dafür wurden mit dem Ding Zugeständnisse beim Treibersupport gemacht, Profimarkt-Treiberfeatures gab/gibt es damit teils auch für die TitanX Modelle.
 
Zurück
Oben