News Im Test vor 15 Jahren: Das größte Problem der Radeon X850 XT hieß XL

Jeder darf dieses Jahr noch die Wiederholung dieses Schauspiels bewundern.

FALLS AMD die "XL" Version des "Big-Navi" zeitig bringt, werden sich wieder alle auf diese Karte stürzen.

Diese Monster Leistung irgend wie in Software zu verarbeiten, ist halt auch nicht ganz einfach. Die Konkurrenz von nvidia wird wieder schneller sein, weniger verbrauchen und in 10 Jahren dürfen sich wieder alle darüber unterhalten, als wenn es irgend etwas besonderes wäre.

Im Hardware Bereich von Silizium Chips läuft der Hase nun einmal so :smokin:

2025 werden wir alle über die Karten lächeln, die aktuell noch von allen heiß ersehnt werden.

Über Preise möchte ich an dieser Stelle nicht reden. Der Kunde bezahlt, was er zahlen will/kann. Nicht mehr, nicht weniger.

mfg

p.s.

2025 stehen die MCM Chips, 4x80 CU´s mit <3nm Fertigung, 2+Ghz und 300 Watt Verbrauch im Laden...Das wird richtig schön :D
 
Zuletzt bearbeitet:
DJKno schrieb:
Splinter Cell Chaos Theory war mit SM3 sehr fordernd. Es sei denn meine Erinnerung trügt mich.
Kein Trug.
Mit der X1800XT hatte ich bei 1024er schwere Ruckler,speziell beim Hakeln im Schiffabschnitt außerhalb gehabt.
Erst die 8800 hat es buttrig geschafft.
 
@fdsonne
Woran ich das fest mache? Ich beobachte den Markt schon verdammt lange und hättest du dir die Posings durchgelesen dann wüßtest du genau woran ich das fest mache.

Nur mal als Beispiel:
Die HD4870 startete für ca. 210€ wohin eine 280GTX seinerzeit bei ca. 450€ und eine GTX260 bei ca. 260€ lag.
https://www.computerbase.de/2008-07/test-radeon-hd-4870-cf-vs-geforce-gtx-260-sli/28/
Die HD5870 fing zwar bei ca. 350€ an und löste dabei auch die HD4870 X2 soweit ab die für ca. 420€ auf den Markt kam, die Preise der anderen Modelle hatten sich ca. halbiert.
https://www.computerbase.de/2009-09/test-ati-radeon-hd-5870/28/

Und ja, Preise von 1000DM/500€ waren für die Spitzenmodelle schon immer relativ üblich, meine Geforce 3 ging damals für ca. 1000DM an den Start und meine erste Voodoo 2 ging auch für ca. 500,- über den Ladentisch.
Der größte Unterschied ist eher das damals diese Position in der Preisspanne die Dual GPU Karten einnahmen und die single GPU Karten dadurch eher ungewöhnlich billig waren.

Die 680 mag damals etwas schneller gewesen sein, kam aber mit einer schlechteren Ausstattung daher, verlor mit der Zeit immer mehr am Boden und versagte später aufgrund von Speichermangel endgültig wo die 7970 mit den 3 oder gar 6 GB noch genug zu bieten hatte. Wie ich aber bereits schrieb, es war damals schon absehbar das der Wettbewerb mehr oder weniger tot war da es genug gab die eine schlechtere GTX580 der deutlich schnelleren und sparsameren HD7970 vorzogen.

Und natürlich wurden die Titan Modelle auch mit Gaming beworben, der hohe Preis allerdings mit Features aus dem Professionellen Markt und den dort Preisen der dortigen Modelle gerechtfertigt und die Rechtfertigungsgründe bei spteren Modellen nach und nach abgebaut.
Bei der ersten Titan war es der doppelt so große Speicher und die freischaltbare hohe Leistung bei doppelter Genauigkeit. Die hohe DP Leistung wurde bei späteren Modellen als erstes gestrichen, der doppelt so große Speicher bei der Titan X(p) auf +1GB zusammengestrichen, was blieb war der Aufpreis und damit kletterte auch der Verkaufspreis.
Die 3000er Marke wurde durch die Titan V mit der gleichen Begründung wie bei der ersten Titan gerisse und siehe da, die RTX2080Ti hatte die 1000er Marke deutlich gerissen und die RTX Titan kam dann für gute 2500€ auf den Markt und tadaa...erneut ist der ca. doppelt so große Speicher der größte Rechtfertigungsgrund für den Speicher denn von der DP Leistung der Titan V (wo z.B. auch die HD7970 Kreise um eine GTX680 dreht) ist nichts mehr übrig.
 
  • Gefällt mir
Reaktionen: Yin Yang
Wadenbeisser schrieb:
die RTX2080Ti hatte die 1000er Marke deutlich gerissen und die RTX Titan kam dann für gute 2500€ auf den Markt

1k Geld....Das ist immer noch das "Limit".

1k DM hat damals schon die Geforce3 gekostet. Wenn man jetzt Inflation rein rechnet, ist das ein fairer Wert für High End Hardware.

Wer sich eine RTX Quadro 6000 kaufen möchte, soll das machen. Es ist sein Geld.

AMD wird die 1k auch reißen, aber nur für den Vollausbau. Aktuell hoffen ich immer noch auf die "XL" Variante. Hier werden wir aber kaum deutlich unter 700 Geld landen.

Meine Preise wären aktuell, 699, 899, 1199 für 16, 18 und 20 TFlops. Und dann darf nivida machen, was sie wollen.

mfg
 
Man muss aber auch sagen, dass Karten heute viel länger High End sind. Die 450€ X850 XT konntest du 2 Jahre später mit Crysis schon komplett wegwerfen, lest euch die Tests von damals mal durch...
Eine 2080Ti ist jetzt anderthalb Jahre alt, immer noch die beste "normale" Karte und packt auch die Spiele noch. Ja, nicht alle RTX titel in 4K RTX 60 FPS, aber wie gesagt vor 15 Jahren war es normal, das Spiele erschienen, die nicht mal in 1080p mit 60FPS liefen. Alles relativ...
 
  • Gefällt mir
Reaktionen: psychotoxic
Was allerdings, imho, mit den Konsolen zu tun hat. Wirkliche Hardwarefresser sucht man heute vergeblich und in fhd kann ich mit meiner 1070. Alles gut zocken, das wäre früher kaum möglich oder auf extra low 😂 trotzdem würde ich mich mal wieder über so einen fresser freuen.

Psy
 
psychotoxic schrieb:
Was allerdings, imho, mit den Konsolen zu tun hat.

Ja wo mit denn sonst?

Du bekommst gesagt, die Konsolen machen 10 TFlops mit RTX im Jahr 2020 und du schaust im Jahr 2018 wie ein Ei.

Also baust du Software für 10 Tflops, 1080p und diesem ganzen Gedöns, wo mit die Konsolen die hohe Auflösung faken.

Jetzt kommen 2021 die ersten PC Fuzzis und beschweren sich, dass sie mit ihren 20 TFlops Monstern (das war 2018 noch eine hohe Zahl) nicht wirklich zu frieden sind.

WHO CARES????

Wenn hier einer die Software Heinis nass macht, dann bin ich das :D

Die armen Typen müssen bis 2022 noch einmal eine Verdopplung (mindestens) der Rechenleistung schlucken. Irgend wo tun sie mir auch leid. :heilig:

mfg
 
psychotoxic schrieb:
Wirkliche Hardwarefresser sucht man heute vergeblich
Das ist aber auch nur die halbe Wahrheit.
Wenn man die Settings bei hoher Auflösung auf die Spitze treibt, bekommt man auch High End Systeme ans Limit.
Bei humanen Settings in Full HD kann aber tatsächlich auch ältere Hardware noch gut nutzen.
 
@[wege]mini

Die highend Modelle sind heute nur deshalb länger highend weil die Fertigungsprozesse nicht mehr so schnell wechseln und man den Strombedarf nicht mehr so wie damals steigern kann weil bei ca. 300W die Grenze für eine sinnvolle Luftkühlung erreicht zu sein scheint und andere Kühlsysteme deutlich teurer sind.
Auf welchen VErbrauch wird eine Geforce 3 damals gekommen sein? 20-30W? Das ist heute die Leistungsklasse einer GT1030 oder die GPU von AMDs APUs.
 
CoffeeJunkie schrieb:
Hoffentlich unlocked, die hatte ich damals auch, @16/5, der letzte Vertex Shader wollte nicht.

Ich hatte viel Glück, alle Shader/Pipes ließen sich freischalten, der Chip machte stabil 350MHz mit und der RAM mochte mich auch nicht enttäuschen. So lief die Karte "fast" wie die GT, nur der RAM war halt langsamer. Hat mich bis 2011 (!) glücklich gemacht, hab seit 2007 immer nur "ältere" Spiele gezockt. Wurde dann durch 'ne G92 8800GT ersetzt.
 
Wadenbeisser schrieb:
Die highend Modelle sind heute nur deshalb länger highend

Über die tatsächlichen Gründe zu spekulieren ergibt mMn keinen Sinn.

Ich mache es trotzdem....

Wir alle dürfen erleben, dass eine winzige Insel mit unglaublichen Subventionen einen betriebswirtschaftlich und volkswirtschaftlich wichtigen Standort erschafft, selbst für ein riesiges Land wie die USA.

Niemand würde sich für Taiwan und China aka Russland und die Krim interessieren, wenn TSMC nicht auf Taiwan wäre :D

Die Jungs da unten machen das ordentlich und von meinem Standpunkt aus betrachtet finde ich es gut, dass wir alle jetzt Technologie bekommen, die normaler Weise erst in 5-10 Jahren bei uns ankommen würde.

Die 3nm sind mehr oder weniger fertig. Die nächsten 5 Jahre werden wirklich "schön".

mfg

p.s.

die Topic finde ich nicht mehr....sry
 
Zu dieser Zeit war gerade eine 6800 Ultra in meinem System am werkeln schön unter Wasser mit einem Inovatek Wasserkühler. Die X850 juckte mich daher nicht.
 
Damals eine X850XT PE als Nachfolger meiner 5900XT bei Alternate für 333€ im Angebot gekauft. Meine bisher einzige High-End-Karte :D.
 
@[wege]mini
Tatsachen sind keine Spekulation.
Damals ging fast jede Generation mit einem neuen Fertigungsprozess einher.
Nur mal die ersten Geforce Generationen als Beispiel:
Geforce 256: NV10 in 220nm bei 111mm²
Geforce 2: NV15 in 180/150nm bei 90/81mm²
Geforce 3: NV20 in 150nm bei 128mm²
Geforce 4: NV28 in 150nm bei 101mm²
Geforce FX: NV35/38 in 130nm bei 207mm²
Das sind 4 Fertigungsprozesse in ca. 4 Jahren, wobei die Chips fast durchgehend größer wurden, der 28nm Prozess war bei nvidia von Kepler bis Maxwell im Einsatz (ca. 2012-2016) und der die 14/16nm seit 2016. Beide also ca. 4 Jahre.

Das dies auch zu lasten des Strombedarfs ging sieht man ja auch am Kühlsystem und der Stromversorgung. Die Geforce 256 kam noch mit einem mini Kühler und ohne Stromanschluß aus. Der normale AGP Slot konnte max. 25W liefern und das FX Modell brauchte bereits einen extra Molex Anschluß und ein erheblich stärkeres Kühlsystem. Schaut man sich allerdings mal die Referenz Kühlsysteme an dann sieht man bereits dort das die von Generation zu Generation größer wurden. Seit Erreichen der 250/300W Marke stagniert der Punkt weitestgehend und auch die Leistungssteigerung ist deutlich geringer als damals.
 
  • Gefällt mir
Reaktionen: Yin Yang und RushSyks
Wadenbeisser schrieb:
@fdsonne
Nur mal als Beispiel:
Die HD4870 startete für ca. 210€ wohin eine 280GTX seinerzeit bei ca. 450€ und eine GTX260 bei ca. 260€ lag.
https://www.computerbase.de/2008-07/test-radeon-hd-4870-cf-vs-geforce-gtx-260-sli/28/
Die HD5870 fing zwar bei ca. 350€ an und löste dabei auch die HD4870 X2 soweit ab die für ca. 420€ auf den Markt kam, die Preise der anderen Modelle hatten sich ca. halbiert.
https://www.computerbase.de/2009-09/test-ati-radeon-hd-5870/28/

Und ja, Preise von 1000DM/500€ waren für die Spitzenmodelle schon immer relativ üblich, meine Geforce 3 ging damals für ca. 1000DM an den Start und meine erste Voodoo 2 ging auch für ca. 500,- über den Ladentisch.
Der größte Unterschied ist eher das damals diese Position in der Preisspanne die Dual GPU Karten einnahmen und die single GPU Karten dadurch eher ungewöhnlich billig waren.

Kommen wir doch mal zu deinem Argument zurück - du sagtest doch, das läge an der mangelnden Konkurrenz. Die Zeit vor 2009 hatte klar eine Konkurrenz Situation. Zwar war AMD zeitlich mit R600 verspätet, aber bis einschließlich der Performance Klasse gab es konkurrenzfähige Chips. Nach 2009 bis mindestens mal die Anfänge von Maxwell gab es das ebenso... Dennoch stiegen die Preise deutlich. Die FuryX als 980TI Gegenstück ist mal schlapp 700€ "schwer".

Btw. finde ich es auch ungünstig, so weit zurück zu gehen in den Produkt Paletten. Geforce 2 - die Ultra lag anfangs bei 1300DM, meine GTS damals hat 450DM gekostet und ließ sich auf Ultra Takt OCen. Unten gabs die MXen, die waren drastisch langsamer. Viel breiter war die Palette nicht. Bei der 3er Geforce ähnlich. Die 4er gabs als 4200/4400/4600 und umgelabelten MXen aus der 2er Reihe, wenn mich nicht alles täuscht. Erst mit der FX, spätestens aber der 6er Reihe gab es ansatzweise vergleichbare Produkt-Palettenbreite. Bei ATI damals mit der 9000er Reihe. Sinnvoll lässt sich das also erst ab dort vergleichen. Und da war von der Basis bis zum Preisknick in 2009 ein Anstieg. Und nach dem Preisknick ging es wieder bergauf. In Summe alles mit einer gesunden Konkurrenzsituation, die erst seit geraumer Zeit klar nachgelassen hat.

Wadenbeisser schrieb:
Die 680 mag damals etwas schneller gewesen sein, kam aber mit einer schlechteren Ausstattung daher, verlor mit der Zeit immer mehr am Boden und versagte später aufgrund von Speichermangel endgültig wo die 7970 mit den 3 oder gar 6 GB noch genug zu bieten hatte. Wie ich aber bereits schrieb, es war damals schon absehbar das der Wettbewerb mehr oder weniger tot war da es genug gab die eine schlechtere GTX580 der deutlich schnelleren und sparsameren HD7970 vorzogen.
Hast du gewusst, dass Tahiti soooo lange am Markt bleiben wird? ICH nicht...
Ich habe recht nah nach GK104 Release die 680 erstanden und bin dann recht nah nach GK110 (780TI) Release auf diese gewechselt. Das brachte mir in Summe knapp Faktor 1,5-2 in der Performance. (beides OC händisch, je nach Bandbreitenlimit der GK104)
Auch die erste 7970 wurde mehr als deutlich geschlagen. Der Unterschied war damals größer als heute von 5700XT auf 2080TI! Ganz ehrlich, ich habe absolut keine Ahnung wieso man mit der Ambition, HighEnd zu fahren, an Tahiti hätte festhalten sollen! Es gab exakt überhaupt keinen ersichtlichen Grund dafür.

Das "bessere" Paket war damals halt nicht ersichtlich. Und Konkurrenz war zu Tahiti/Hawaii Zeiten eigentlich gerade da... Denn sowohl Tahiti als auch Hawaii konkurrierten von der absoluten Leistung her mit dem Gegenstück, was NV daneben stellte. Erst mit Pascal tanzt NV wieder 20-30% vor AMDs Nase rum. Selbst die FuryX vs. 980TI waren noch ca. gleich. Allerdings mit Anzeichen auf ein VRAM Limit für Erstere.

Wadenbeisser schrieb:
Und natürlich wurden die Titan Modelle auch mit Gaming beworben, der hohe Preis allerdings mit Features aus dem Professionellen Markt und den dort Preisen der dortigen Modelle gerechtfertigt und die Rechtfertigungsgründe bei spteren Modellen nach und nach abgebaut.
Bei der ersten Titan war es der doppelt so große Speicher und die freischaltbare hohe Leistung bei doppelter Genauigkeit. Die hohe DP Leistung wurde bei späteren Modellen als erstes gestrichen, der doppelt so große Speicher bei der Titan X(p) auf +1GB zusammengestrichen, was blieb war der Aufpreis und damit kletterte auch der Verkaufspreis.

Auch das stimmt so pauschal einfach nicht komplett... Titan classic vs. 780 war doppelter VRAM + FP64, Titan classic vs. 780 6GB war nur noch FP64. TitanBE vs. 780TI war wieder VRAM + FP64.
TitanX GM200 vs. 980TI war wieder VRAM -> FP64 gab es beim GM200 nicht! Es gab keinen HPC Maxwell, NV hat den HPC Markt mit GK110, später GK210 bedient und mit 16nm als erste GPU direkt den GP100 gebracht!
TitanX mit GP102 - hier stimme ich dir 100% zu! VRAM Vorteil nicht mehr relevant. Es gab lediglich Zugeständnisse in Form Treibersupport für gewisse "Profisoftware". Thats it. Streiten kann man sich darüber, ob der INT8 Performance, denn diese hat man der 1080TI künstlich genommen, wenn ich das richtig sehe.
TitanV mit GV100 - hat absolut gar kein Gamer Gegenpart. Ist GV100 begründet aber mit vollem FP64 Support nach der Titan classic/BE/Z in diesem Bereich aber wieder angesiedelt. Die TitanV CEO mit 32GB HBM hat sogar den VRAM Vorteil zurück gebracht.
TitanRTX mit TU102 -> wieder VRAM Vorteil nebst nach wie vor geltendem Treiberargument. FP64 ist auch hier nicht gegeben, weil Turing keine FP64 Einheiten in der Form hat um schneller zu sein.

Wie man da doch klar sieht - es gibt kein, "zurück gebaut oder gestrichen". Was es nicht gibt, kann man nicht zurück bauen oder streichen. Das ist ein hin und her. Dass die TitanX auf Pascal nicht den GP100 bekommen hat, ist mMn auch verständlich - der Chip ist nicht schneller außer bei FP64, war aber dank HBM deutlich teurer. Sollte es eine Ampere GA100 GPU geben als TitanA, dann gibt es bestimmt auch wieder entsprechend FP64 Performance nebst entsprechend höherem Speicherausbau. Bleibt aber abzuwarten wohin die Reise dort geht. Wenn nicht, dann eine Titan auf GA102 Basis, ohne FP64 und lediglich dem doppelten (oder gar noch mehr) VRAM -> TitanRTX like.

Wadenbeisser schrieb:
Die 3000er Marke wurde durch die Titan V mit der gleichen Begründung wie bei der ersten Titan gerisse und siehe da, die RTX2080Ti hatte die 1000er Marke deutlich gerissen und die RTX Titan kam dann für gute 2500€ auf den Markt und tadaa...erneut ist der ca. doppelt so große Speicher der größte Rechtfertigungsgrund für den Speicher denn von der DP Leistung der Titan V (wo z.B. auch die HD7970 Kreise um eine GTX680 dreht) ist nichts mehr übrig.
Du mischt mir da zu viele Sachen... Es kann kein FP64 in schnell geben, wenn es keinen Chip im Programm gibt, der das kann! Es gibt nunmal keinen 28nm Maxwell HPC Ableger, sondern nur die GK110/210 GPU. Eine Maxwell Titan kann das also nicht liefern.
Es gibt auch keinen Volta Mainstream Ableger, die FP64 Leistung wurde also nicht "zurück gebaut", Volta belegt doch, dass FP64 in Schnell in der Titan nach wie vor geht? WENN der richtige Chip verfügbar ist. Genau genommen Coexistieren aktuell zwei Titanen. Die TitanV (CEO) und die TitanRTX. Der eine mit RTX und Co. der andere mit FP64. Analog dem Split in HPC/Mainstream Chip auch.

Dass du auch gerade die Tahiti GPU für FP64 ranziehst, ist mMn auch argumentativ ne Rosine. Tahiti ist halt nicht künstlich eingebremst. Die anderen GPUs hingegen schon. Außer dort, wo es eben nen HPC Chip auf ner Titan gibt. Titan classic, TitanBE, TitanZ und TitanV - möglicherweise irgendwann TitanA.
Es würde sich dort halt anbieten, wenn HPC typisch die TitanA mit einem GA100 seeeehr viele ALUs bekommt - während im Gamermarkt eher höherer Takt und mehr RT Stuff den Fokuspunkt werden dürften als GA102. Beides wird koexistieren, wahrscheinlich. Für GA100 spekuliert man aktuell 800-830mm² Fläche - das Teil wird arsch teuer. mehrere hundert Dollar in der Produktion sind im Rahmen des realistisches. Sowas als 500€ Grafikkarte an den Mann zu bringen geht einfach nicht (mehr) im Jahr 202x - und das hat dann exakt nichts mit der Konkurrenz zu tun, da die Herstellungskosten bei so einem Teil auch mit Konkurrenz nicht billiger sind und die Konkurrenz auch nur TSMC und/oder Samsung nutzt.
 
Ich werde langsam alt. Vor 15 Jahren hab ich Far Cry gespielt mit 20 bis 35fps. :D das war aber auch ein Hardware killer. Mit dem HDR Patch war dann komplett Feierabend.
Weiß leider nicht mehr was ich zu der Zeit für eine Grafikkarte im Rechner hatte.
 
Hatte damals für mein Athlon 64 System auch schon auf eine X800 Pro gespart, als die XL vorgestellt wurde. Spontan umgeschwenkt und statt 430 € nur 310 € bezahlt. Super Deal, da war dann doch noch eine Soundkarte drin :)
 
@fdsonne

Falsch, ich schrieb nicht das es keine Konkurrenz hab sondern das keine herrscht denn dafür ist Voraussetzung das die Kundschaft auch an Alternativen interessiert ist. Das dem nicht ist zeichnete sich bereits seit Fermi ab und seit Maxwell (GTX970) ist es mehr als offensichtlich.

Zudem war nicht AMD mit dem R600 spät dran sondern ATI, was wohl auch mit zur Übernahme führte denn so unfertig wie der Chip trotz Verstätung auf den Markt geworfen wurde und so schnell wie er wieder abgelöst wurde mußte ATI massive Probleme bei dessen Entwicklung gehabt haben.

In übrigen ist offensichtlich das du den gleichen fehler immer und immer wiederholst. Du vergleichst die Preise zu einem bestimmten Zeitpunkt und ignorierst dabei wie lange die Produkte auf dem Markt sind anstatt die Releasepreise zu vergleichen. Du biegst dir die geschichte also so hin damit sie in dein Konzept passt.

Es ist zudem vollkommen egal ob man wußte wie lange die Tahiti Karten am Markt sein würden denn was du ignorierst ist das auf diese im Vergleich zur 680 exakt das zutrifft womit der Aufpres der Titan gerechtfertigt wurde. Deutlich mehr Grafikspeicher, hohe DP-Leistung....na, klingelt da was? Dennoch scheint es aber keinen Aufpreis zu rechtfertige wenn es um AMD geht und Trommelwirbel auch die Geschichte wiederholte sich, nämlich mit der Radeon VII.
Damit zeigt das Verhalten für mich recht eindeutig das keine Konkurrenzprodukte gewünscht sind sondern es seitens der Kundschaft nur um Rechtfertigungen für gezahlte Preise geht. -> Konkurrenzkampf tot.

Und doch, das mit den abgebauten Vorteilen kann man so pauschal sagen da es meines Wissens nach keine offiziellen GTX780 mit 6 GB gab, die die mit 6 GB auf den Markt geworfen wurden nach einem Machtwort von nvidia einkassiert. Die beiden Refresh Versionen TitanBE und 780TI hatten lediglich mehr Recheneinheiten weil der überarbeitete Chip nicht mehr so sehr wie beim Vorgänger beschnitten wurde. Die Titan X der Maxwell Generation verlor die höhere DP-Leistung und bei der Titan X der Pascal Generation wurde auch noch der Großteil des Speicher Vorteils einkassiert. Was blieb war eine Hand voll zusätzlicher Recheneinheiten, 1 GB mehr Grafikspeicher und ein massiver Aufpreis. Bei der Titan V kam zwar vieles zurück, wurde aber erneut genutzt um diesmal den Preis von über 3000€ zu rechtfertigen.
Mit der RTX Titan scheint sich das Vorgehen zu wiederholen denn Tadaaa...die DP Leistung wurde wieder einkassiert und es würde mich nicht wundern wenn bei der nächsten der Vorteil beim Grafikspeicher mal wieder weitestgehend drauf geht.
Ob der Chip die höhere DP Leistung kann oder nicht ist im übrigen vollkommen irrelevant denn man hätte damit keine Titan bringen müssen. Dann wäre die erste Titan X eben nur eine 980Ti Variation mit mehr Speicher gewesen und die Titan Xp hätte man komplett streichen und die 1080Ti gleich mit den vollen 12 GB bringen müssen, hätte dafür aber natürlich nicht den hohen Preis verlangen können.

Damit hat die Titan Serie für mich nur einen Zweck, mit absurden Preisen das Preigefühl der Kundschaft für die darunter liegenden Modelle zu verwässen und damit die gesammte Produktpalette schrittweise preislich hoch zu ziehen. Wenn ich mich recht erinnere gab es auch einen Begriff für solche Produkte (überzogener Preis bei minimalen Vorteilen damit die darunter liegenden Produkte vergleichsweise günstig erscheinen), welcher mir aber leider entfallen ist. Hat ja auch bestens funktioniert.

Und nein, es ist keine Rusine denn auch der Hawaii besitzt deutlich mehr DP Leistung als nvidias Konkurrenz Chip, selbst bei den Desktop Modellen wo sie beschnitten wurde und zumindest bei den 390er Varianten (die 8 GB 290er Varianten wurden von AMD mit Verweis auf die 390er Generation einkassiert) kamen sie auch noch mit doppelt so viel Speicher daher. Auch hier scheint das nur relevant zu sein wenn es um nvidias Preise geht.

Und nochmal, der Konkurrenzkampf ist tot weil der Großteil der Kundschaft offensichtlich keine Alternative sondern nur eine Rechtfertigung für die Preise will.
 
Hatte eine x800 in Kombination mit einem P4. War eine tolle Wärmeentwicklung und WoW lief nicht optimal :)
 
Zurück
Oben