News Im Test vor 15 Jahren: Die GeForce FX 5900 Ultra begrub den Föhn

Ich hatte einige 5900 ultras im Einsatz. Hab sie alle noch. Haben mich nie überzeugt. Leistung und Strom Hunger sprich Lautstärke fand ich damals schon schlecht.
 
derMutant schrieb:
hier was für´s echte Retro feeling :)
Die Winfast mit dem geschlossenen Kühler....:daumen:

ATI Evolution:
 
Zuletzt bearbeitet von einem Moderator:
M6500 schrieb:
Gut, vor über 10 Jahren hätte ich auch keine AMD-Karte genommen, da hätte ich Ati bevorzugt.
Ohne die Probleme zu kennen würde ich auch sagen es kann auch alles mögliche gewesen sein und nicht nur der treiber wie Netzteil, instabiles Windows, Anwenderfehler, etc.
Fehler gab es auf beiden Seiten, keine Frage, aber dass die nVidia so viel besser waren ist und war ein Gerücht, sonst hätte es bei vielen nicht problemlos funktioniert.

Der Ryzen ist im übrigen effizienter als CL, wobei das Board bei dem Unterschied mehr unterschied macht und die 8 Kerne werden natürlich alles überrollen, ganz sicher...

Oh weh, einem Fanboy auf die Füße getreten?
Ich kann nur von dem berichten was ich erlebt habe.
Hatte eine MX 440, die ich aber geschrottet hab. Weil mir die Leistung reichte, hab ich eine Radeon 9200 gekauft, genau das Spiel (Wolfenstein: Enemy Territory), was ich damals gespielt hab lief miserabel, lief aber mit der MX 440 perfekt, obwohl die weniger Leistung hatte.
Ein paar Jahre später hab ich eine HD 2600 XT gekauft und wieder den gleichen Mist erlebt, diesmal mit The Saga of Ryzom, wieder genau das Spiel, was ich damals gespielt hab. Andere Spiele liefen beide Male normal.
Das kann natürlich Zufall sein, aber wenn war es ein sehr großer.

tek9 schrieb:

Er wollte klugscheißen...
 
Zuletzt bearbeitet von einem Moderator:
Die 9200 er war ja auch keine richtige 9000er wie die restlichen Karten aus der Generation.
Wie ich schon sagte, Anwenderfehler sonst wäre es bei anderen nicht gelaufen, ich habe und hatte schon immer mehrere Marken egal ob CPU oder GPU, aber wenn es bei anderen nicht so ist wie bei einem selbst sind es immer Fanboys...
 
...schön-das Teil hatte ich auch wie den Vorgänge . Dann kam der Umstieg auf die 9800 Pro.
Ich hatte Glück und konnte meine 5800 Ultra gut über Ebay verkaufen. Letztlich blieb ich bei der 5900 Ultra und mein Sohn bekam die 9800 Pro. Er wollte einmal bessere Hardware haben als ich...
 
@M6500

Es hatte definitiv keine Hardware Ursache. Es ist bekannt, dass die Treiber damals nicht rund liefen, warum willst du mich vom Gegenteil überzeugen?
 
Weil sie bei den meisten anderen rund liefen, ich schrieb doch schon dass beide nicht gerade Gold waren wenn man mit heute vergleicht.
Klar kann es bei dir Probleme gegeben haben, aber das bedeuted nicht dass es generell so war.
 
  • Gefällt mir
Reaktionen: Pulsar77
  • Gefällt mir
Reaktionen: Pulsar77 und HornyNinja69
Bruno2k schrieb:
Ob AMD den Spieß noch mal dermaßen umdrehen kann wie zu diesen Zeiten? Ich fürchte nicht, aber es wäre so geil!
Die Frage ist nicht, ob AMD noch mal entsprechend überragende Karten wie die Radeon 9700/9800 oder später die 5870 auf den Markt bringen kann, sondern die Frage ist im gewissen Sinn eher wann.

Man sieht bei AMD seit Jahren, dass man keine unendlich großen Entwicklungsbudgets braucht um Konkurrenzfähig zu sein oder auch mal die Krone zu übernehmen.

Man denke an AMD K7 alias Athlon und Athlon XP. Pentium konnte hier in der Regel nur über deutlich mehr Takt wirklich schneller agieren. AMD K8 alias Athlon 64 wischte pro Takt mit dem Pentium 4 den Boden auf. Leider hat Intel durch dubiose Methoden die Firmen an sich gebunden und somit ein wirklichen Erfolg von AMD verhindert. Und damals hatte Intel immer auch den Fertigungsvorteil.

Und mit dem Phenom 1 und Phenom 2 - die zu Core 2 und der ersten Core i Gerneration aufholen konnte - haben sie auch bewiesen, dass es auch ohne Jim Keller geht.

Nun hat AMD mit dem Ryzen und nun Ryzen 2 bewiesen, dass man auch als tot gesagtes Unternehmen mit relativ schmalen Budget einen konkurrenzfähigen Prozessor auf den Markt bringen kann, der bei einem ähnlichen Verbrauch auch ähnliche Leistung bietet. Du kannst dir ja mal ein paar Themen von 2015 und 2016 zum Thema Zen durchlesen und das AMD diesen Rückstand niemals aufholen könnte. Gut, sie haben dafür Jim Keller zurück geholt kurzfristig - ja der ist jetzt bei Intel - aber die Architektur ist nicht nur sein Verdienst.

Und auch im Grafikkartenbereich würde ich AMD nicht jetzt einfach tot sagen, obwohl nVidia eine Grafikkarte hat, die aktuell effizienter und schneller ist. Es gibt genug Gerüchte warum Vega das geworden ist, was es geworden ist. Ob es alles so stimmt oder nicht, kann ich nicht sagen. Ich denke aber, neben den Problemen die er hatte durch Team Verkleinerung und Fokusänderung, dass er den Mund öfters mal zu voll nimmt und durch all seine Genialität auch die eigentliche Probleme aus den Augen verliert. Hier mal zwei Meldungen von Heise zu ihm. Da lässt er schon ganz große Töne fallen.
 
@Teralios

...dann weißt du ja das er alle GPUs von 2001 bis 2009 mitentwickelt hatte, darunter auch "Kracher". Vergessen einfach zu viele oder waren da noch gar nicht in dem Alter das überhaupt zu wissen. Ich glaube das "er" zum Sündenbock gemacht wird, es aber gar nicht ist. Er hat geliefert was AMD wollte. Oft ist die öffentliche Meinung nie die eines Unternehmens, und auch nicht die, die einem Manager folgen der seinen Hut genommen hat, was irgendwo auch schon einen Bruch mit seinen Prinzipien darstellte. Aber dafür gibt es imo schon einen anderen Thread. Es würde hier wahrscheinlich genauso laufen wie da, man findet keinen Konsens und macht sich gegenseitig nur Vorwürfe, wer jetzt besser oder was für AMD wäre.

ATI konnte eins, begeistern und effizienter sein wie Nvidia, beides ist verloren gegangen. AMDs Rückzug und die Marke Radeon Premium ist bei Weitem nicht mehr, was es früher mal war. AMD kann es sich derzeit oder konnte sich nicht leisten, zwei Schienen bei der GPU Entwicklung zu fahren. Fiji/Vega und die Polarisserie scheinen ein erster Versuch zu sein, Gaming und Profi wieder zu trennen. Damals lief UT3 auf einer GTS 8800 (G92), die ich immer noch habe von Anfang ruckelfrei (und viele Kracher mehr und Nvidia lebt heute noch von dieser Lobby), auch damals gab es schon Probleme mit Treibern und Unterstützung von ATI/AMD Karten, obwohl diese mehr Rechenleistung hatten. AMD selbst merkte viel zu spät, dass man viel mehr in Devrel investieren muss, als denn in bis auf "feinste ausgeklügelte Hardware". Genau dieses Thema hat "er" gemeinsam mit RTG wieder angeschoben. Was hier aber völlig offtopic ist.
 
  • Gefällt mir
Reaktionen: HornyNinja69
Hallo zusammen,

@ Knuddelbearli

Knuddelbearli schrieb:
Tja leider mangelte es schon damals nicht an NV Fanboys ... Ansonsten hätte spätestens da ATI weit über 50% Marktmacht haben müssen.

Das stimmt einfach nicht. ATI / AMD hat mehrmals vorne gelegen Respektive Nvidia. Es hat sich immer mal abgewechselt. Und ATI hat mit der Radeon 8000er / 9000er Reihe ihre GPU`s wie geschnitten Brot verkaufen können. Dasselbe geschah dann wieder als ATI / AMD die Radeon 5000er Reihe, insbesondere in Form der Radeon 5850 / 5870 auf den Markt brachte.

Aber zuvor schon hatte AMD den richtigen Zug bei der 4000er Reihe gemacht, mit dem sie nämlich nicht den High-End, sondern den Mittelklasse-Bereich bedienten. Was ein richtig genialer Zug damals war und was auch belohnt wurde.

Für mich ist das nicht Enden wollende Festhalten an GCN für die derzeitige verhältnismäßige Misere bei AMD`s GPU`s Schuld. GCN ist einfach nicht mehr zeitgemäß. Wohingegen Nvidia die Zeichen der Zeit richtig erkannte und Maxwell brachte. AMD hat es mit den Ryzen CPU`s gezeigt, daß sie auch anders können. Solche Durststrecken gab es immer mal wieder in der Vergangenheit, wo sich die Marktführerschaft abwechselte. Ich bin guter Dinge, daß AMD bei den GPU`s auch wieder die Kurve kriegen wird.

@ donend

auch damals gab es schon Probleme mit Treibern und Unterstützung von ATI/AMD Karten

Ich hatte in meinem PC Leben wirklich querbeet alle möglichen Karten von ATI / AMD als auch Nvidia sowie sogar Voodoo. Treiberprobleme hatte ich noch nie. Mich wundert es immer wieder, wenn ich hier zur Kenntnis nehmen muß, was manche für Treiberprobleme haben bzw. gewollt haben in der Vergangenheit.

Aus meiner Sicht rühren nicht wenige davon her, daß irgendeine sonstige Komponente des Rechners am Limit, Übertaktet oder eben sonstig nicht so Betrieben wird, wie es sein sollte. Solche Probleme hatte ich mit keiner einzigen Karte, egal ob ATI / AMD oder von Nvidia.

So long....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pulsar77 und tek9
Luxmanl525 schrieb:
Hallo zusammen,

@ Knuddelbearli



Das stimmt einfach nicht. ATI / AMD hat mehrmals vorne gelegen Respektive Nvidia. Es hat sich immer mal abgewechselt. Und ATI hat mit der Radeon 8000er / 9000er Reihe ihre GPU`s wie geschnitten Brot verkaufen können. Dasselbe geschah dann wieder als ATI / AMD die Radeon 5000er Reihe, insbesondere in Form der Radeon 5850 / 5870 auf den Markt brachte.

Aber zuvor schon hatte AMD den richtigen Zug bei der 4000er Reihe gemacht, mit dem sie nämlich nicht den High-End, sondern den Mittelklasse-Bereich bedienten. Was ein richtig genialer Zug damals war und was auch belohnt wurde.

Für mich ist das nicht Enden wollende Festhalten an GCN für die derzeitige verhältnismäßige Misere bei AMD`s GPU`s Schuld. GCN ist einfach nicht mehr zeitgemäß. Wohingegen Nvidia die Zeichen der Zeit richtig erkannte und Maxwell brachte. AMD hat es mit den Ryzen CPU`s gezeigt, daß sie auch anders können. Solche Durststrecken gab es immer mal wieder in der Vergangenheit, wo sich die Marktführerschaft abwechselte. Ich bin guter Dinge, daß AMD bei den GPU`s auch wieder die Kurve kriegen wird.

@ donend



Ich hatte in meinem PC Leben wirklich querbeet alle möglichen Karten von ATI / AMD als auch Nvidia sowie sogar Voodoo. Treiberprobleme hatte ich noch nie. Mich wundert es immer wieder, wenn ich hier zur Kenntnis nehmen muß, was manche für Treiberprobleme haben bzw. gewollt haben in der Vergangenheit.

Aus meiner Sicht rühren nicht wenige davon her, daß irgendeine sonstige Komponente des Rechners am Limit, Übertaktet oder eben sonstig nicht so Betrieben wird, wie es sein sollte. Solche Probleme hatte ich mit keiner einzigen Karte, egal ob ATI / AMD oder von Nvidia.

So long....


amd_vs_nvidia_marketshare_long_term_q32016.png


Stimmt früher war es sehr viel ausgeglichener. Die 5.000er und 6.000er Reihe auch gut im Vergleich zu Nvidia. Leider allerdings alles ab Maxwell nicht mehr wirklich konkurrenzfähig, trotz dem zumindest guten Polaris leider viel zu wenig Anteile heute.

Wobei mir vor allem bei der 4.000er Reihe die einen oder anderen Treiberprobleme bekannt sind z.B. Brothers in Arms Hells Highway was ohne Patch auf 4000er Karte nicht zu spielen war.
 
@LuxmanI525
Denke an einem Laptop oder Mobilegerät ist OC eingeschränkt, aber z.B. hatte die HD Serie damals genau dort low fps Probleme, leider konnte diese nur durch den OEM ausgeräumt werden, die kaum Versuche unternahmen dieses abzustellen. Es dauerte halt damals auch schon zu lange. Probleme gab es auf beiden Seiten...so meinte ich das auch, viel wichtiger ist die Software. Wenn Du mal die letzten Jahre zurückblickst ist es das, was AMD auch genau richtig getan hat, Treiber überarbeitet, Software, SDK, Compiler, Mantle, Vulkan, DX12, Freesync usw.. Der größte und weiterbringende Ansatz, hat also bei der Software stattgefunden und der Effizienz des I/O (HBM, HBM2). Vega z.B. ist im Kern Fiji und weiterhin GCN. Wie du richtig schriebst ist das lange Festhalten an GCN nicht die beste Idee gewesen, nur wenn man nichts anderes hat...was will man dann machen.
Ergänzung ()

Gamenick schrieb:
Stimmt früher war es sehr viel ausgeglichener. Die 5.000er und 6.000er Reihe auch gut im Vergleich zu Nvidia.
Für mich kam der Bruch imo mit PhysX, ab da konnte Nvidia stetig zulegen und supportete viel AAA Titel die PhysX kompatibel waren, ich steckte daher zu meiner 5870 auch eine 240 GT+gemodeter Treiber, und schon war ATI schneller. Klar die GPU selbst musste ja weniger berechnen und konnte von der grundlegenden Rechenpower der HD 5000 Serie profitieren.:)
 
Zuletzt bearbeitet von einem Moderator:
High Definition schrieb:
Grafikkarten werden doch gerade hinterher geschmissen da

Irgendwas stimmt bei dir nicht. Schau dir mal die Entwicklung an.
Da wird nichts hinterher geschmissen.
Die Preise sind einfach zu hoch!
 
cb gefälllt wohl der begriff föhn, wie oft der bei grafikkarten von nvidia verwendet wurde, für mich meist zu unrecht^^. weder meine 460 gtx war ein föhn, noch meine 970 gtx(beides evga ssc Versionen). vielleicht solltet ihr einfach mal vernünftige Gehäuse, mit guter luftzirkulation, bei euren Tests benutzen.....
 
^^nun entspann dich mal. CB ist hier schon objektiv und nennt auch nur eine Karte "den Föhn", nämlich die unsägliche FX5800
 
Den Spitznamen „Föhn“ hat die 5800 schon seit erscheinen! CB übertreibt bei der und anderen Karten nicht.

Ansonsten, was hat Ryzen, Vega und co. jetzt mit der FX Reihe zu tun?
 
donend schrieb:
...dann weißt du ja das er alle GPUs von 2001 bis 2009 mitentwickelt hatte, darunter auch "Kracher"
Er hat sie mitentwickelt richtig, bei ATI war aber jemand Chefentwickler. Die Kracher-Serie damals war die 9x00-Serie und folgend beiden Serien. AMD hat ATI 2006 gekauft, damals war die Radeon HD2900 längst schon längst in der Entwicklung und so gesehen eine Katastrophe.

Vor der Radeon Serie war ATI für Spieler jedoch relativ uninteressant. Die Rage-Karten waren nicht schlecht, aber verglichen mit der Konkurrenz von nVidia, 3dfx und Matrox doch eher bescheidener Natur. Sie waren aber sehr gute Workstation und Server-Karten wegen den sehr guten 2d-Fähigkeiten. Gleichzeitig war jedoch die Rage-Serie auch der Auslöser für den schlechten Ruf von ATI über viele Jahre, obwohl schon damals ungerechtfertigt war. Die ersten Treiber für die Rage waren instabil und hatten einige Macken, das hat ATI aber relativ schnell in den Griff bekommen. Im übrigen waren die ersten Treiber für 3dfx und auch nvidia damals nicht die erste Sahne. Nur dieser schlechte Ruf hängt AMD bis heute nach. Ebenso wie die damaligen Probleme mit den K5 und anfänglich mit den K6 sowie Probleme mit Chipsätzen, die aber nicht von AMD entwickelt wurden. Dass der Ruf spätestens ab den 00er Jahren bei AMD und bei ATI ab der 9x00-Serie ungerechtfertigt war, wird bis heute vergessen und Probleme bei AMD werden bis heute massiv aufgebauscht.


donend schrieb:
Ich glaube das "er" zum Sündenbock gemacht wird, es aber gar nicht ist.
Und ich denke, die Wahrheit wird genau dazwischen liegen. Es wird wohl wirklich der Ryzen dazwischen gekommen sein und sie haben ihm Teile seines Teams weggenommen. Ebenso denke ich auch, dass Sony wegen der PS5 bereits angeklopft hat und auch dorthin Teile seines Teams gegangen sind. …

donend schrieb:
Er hat geliefert was AMD wollte.
… Aber genau das denke ich eben nicht. Er hat nicht das geliefert was AMD wollte und ich denke er hat nicht mal das geliefert was er wollte und schon gar nicht das, was er bei Presseevents und in Interviews angekündigt hat.

Wie ich in meinem anderen Beitrag dargelegt habe: Er scheint eine recht große Klappe zu haben. So etwas kann einem schaden, wenn man etwas zu dick aufträgt.

donend schrieb:
AMD selbst merkte viel zu spät, dass man viel mehr in Devrel investieren muss, als denn in bis auf "feinste ausgeklügelte Hardware".
Genau das scheint aber Koduri eben nicht bemerkt zu haben. Für Vega sind ja entsprechende Techniken im Chip angekündigt worden. Er scheint den Fokus eben doch auf "feinst ausgeklügelte Hardware" gelegt zu haben. Er wird vermutlich sich auf die Treiber-Entwickler verlassen zu haben und hat wegen seinen vielen revolutionären Ideen vielleicht den Blick für die kleinen alltäglichen Problemen der GCN verloren. Statt also mit Vega entsprechende Probleme anzugehen und vielleicht "einfach" zu lösen (was vielleicht auch zu nicht so feiner ausgeklügelter Hardware geführt hätte), wurden die NCUs entwickelt, die ohne Support im Treiber oder durch die Entwickler ihre Stärke nicht ausspielen können. Es wurde ein HBCC entwickelt, der seine Vorteile in der Regel nicht wirklich ausspielen kann und der Rest?

Und genau hier kann man auch wieder den Bogen zu nVidia und der GeForce 5800 Ultra schlagen: nVidia hat sich damals mit dem Chip verrannt. Statt jedoch Revolution hat nVidia zur Evolution gegriffen und die Probleme beseitigt, die sie gesehen haben. Der Chip war zu hoch getaktet und hatte eine zu geringe Speicherbandbreite. Also wird das Speicherinterface erweitert und siehe da, die eigentliche Katastrophe ist annehmbar. Selbes mit der GeForce GTX 480 hin zu 580 und später zu 680. nVidia merkt, dass sie mit ihrem asynchronen Design am Ende sind (wenige dafür sehr schnell getaktete Shader). Sie kümmern sich um die Shader und bringen mit der 680 ein neues Shader-Design. Bei Kepler merken sie dann, dass der Shadercluster mit 192-Shadern nicht optimal ausgelastet wird, also wird zu Maxwell die Organisation der Shader angegangen und damit auch die Ordnungsstruktur des Chips. Seit Kepler hat nVidia für uns Spieler die grundlegende Architektur nicht wirklich drastisch verändert, sondern optimiert und ist die Schwachpunkte angegangen. Man erkennt bis Heute sogar noch eine Verwandtschaft bis hinab zum Fermi. (Was im übrigen auch ein Grund ist, warum Maxwell und nun Pascal bereits vom Treiber her so gut unterstützt werden, das war früher auch mal anders. ;))

ATI/AMD hat im übrigen mit der 2900 zu 3800 etwas ähnliches gemacht. Sie haben die Probleme des Chips analysiert und anschließend sind sie diese Punkte angegangen. Bei der GCN wiederum kennen sie die Probleme (Shader werden nicht entsprechend ausgelastet) statt aber dieses Problem wirklich anzugehen, bringen sie revolutionäre NCU und hoffen darauf das DX12/Vulkan all die Probleme löst. Ebenso sieht man an der RX470/480, dass Polaris am langem Arm wegen zu geringem Speicherdurchsatz verdurstet … (Hallo 5800, wie war das mit dem von 128Bit auf 256Bit verbreiterten Speicherinterface).

Und bevor jetzt jemand kommt, ich soll mich doch bei AMD bewerben, wenn ich das alles "sehe". Ne, ich sehe ja auch nur das, was bekannt wird. Ich kann mir daraus aber ein Bild machen.

donend schrieb:
AMD kann es sich derzeit oder konnte sich nicht leisten, zwei Schienen bei der GPU Entwicklung zu fahren.
Jetzt können sie es sich vermutlich wieder eher leisten, weil Ryzen doch ordentlich Geld in die Kasse spült. Davor konnten sie sich vermutlich noch nicht mal wirklich die GPU und CPU-Entwicklung zur gleichen Zeit leisten - siehe Gerücht, dass einige Ingenieure von Vega zu Zen abgezogen wurden.

donend schrieb:
Damals lief UT3 auf einer GTS 8800 (G92), die ich immer noch habe von Anfang ruckelfrei (und viele Kracher mehr und Nvidia lebt heute noch von dieser Lobby), auch damals gab es schon Probleme mit Treibern und Unterstützung von ATI/AMD Karten, obwohl diese mehr Rechenleistung hatten.
Interessant, ich habe UT3 2006 bevor ich 1 Jahr nach Japan verschwunden bin, auf einer X800 ohne jede Probleme rückelfrei bei vollsten Details gespielt am heimischen PC. Ebenso habe ich es sogar auf einen Laptop mit x600er spielen können, ohne dass es je ein Problem gab, sogar in Japan.

Noch interessanter ist: Ende 2007 habe ich mir wegen den guten Ergebnissen die GT8800 gekauft und nun wird es lustig: Während Windows Vista (64Bit) zusammen mit den ATI-Karten keine Probleme machte, hatte ich ab der GT8800 mit Windows Vista so überhaupt keinen Spaß mehr und bin von Abstürzen (System mehrfach neu aufgesetzt, keine Übertaktung, später sogar über entsprechende Tools "Takt" sowohl von der CPU, vom RAM als auch der GT8800 weggenommen) und Treiberproblemen nur so geplagt worden (Auslöser war wohl die Creative-Soundkarte. ;)). Erst als ich zur 4870 gewechselt bin haben diese Probleme wieder aufgehört und ich war wieder wunschlos glücklich. Bei einem Wechsel zur 260 ging es wieder los mit den PRoblemen und sorgte dafür, dass ich die GTX260 hier recht schnell verkauft habe. (Hui, es war sogar eine 285, hab ich geschenkt bekommen und kurz vorher meine 4870 verkauft... Ach bin ich froh, dass ich eine wieder bekam XD)

So kann sich das Erlebe voneinander unterscheiden. ;)

Luxmanl525 schrieb:
Aus meiner Sicht rühren nicht wenige davon her, daß irgendeine sonstige Komponente des Rechners am Limit, Übertaktet oder eben sonstig nicht so Betrieben wird, wie es sein sollte.
Ich hatte mit allen Herstellern mal mehr oder weniger Probleme. In meinen Augen geben sich die Hersteller nichts, wobei ich sagen muss, dass es sich über die Jahre hin auch immer weiter gebessert hat. Ich hatte ab ca. 2008 mit ATI/AMD keine Probleme mehr gehabt - mal abgesehen, dass ein Spiel nicht so lief wie es sollte. Bei nVidia hatte ich diese Erfahrung dann seit 2012 und der GTX 680.

Aber im Endeffekt hast du recht. Oftmals sitzt das Problem vor dem Monitor und hat irgendetwas nicht bedacht, wodurch es zu Problemen mit dem System kommt und sei es nur, dass man mal wieder sich zu viele Tools installiert hat, die man vermeintlich braucht. ;)
 
  • Gefällt mir
Reaktionen: donend
@Teralios
Mit Creative hatte ich gleiche Probleme, Treiber konnten die eine gewisse Zeit lang auch nicht und Inkompatibilitäten mit einem Asusmainbord sorgten bei mir für graue Haare. Bis man das findet vergeht ja ein wenig Zeit.

Recht hast du, wenn Du schreibst das sie genau diese Probleme gebessert haben, oftmals ist heute der Fail tatsächlich der Anwender (mal abgesehen von Bugs die sich einschleichen können). Die Consumer-Retail-Plattformen sind oft so vielfältig, dass man ohne Feedbacks und Daten kaum alles überblicken kann, und es dann natürlich auch an der Verbreitung der eigenen Hardware liegt, wie viel von dem ich dann bekomme und auswerten kann. Mit einer Gigabyte Fiji war ich echt ein Geplagter, bis AMD dann die Probleme nach zig Berichten irgendwann in den Griff bekam. Habe trotzdem durchgehalten.

Aus meiner Sicht war Nvidias großer Wurf der G80 (schon fast legendär) und davon zerrten sie lange Zeit. Einige der nachfolgenden Chips waren dann nichts anderes als "aufgepumte" G80.

ATI/AMDs Wechsel von VLIW zu GCN war jedenfalls nochtwendig, man denke an Tonga der kaum gegenüber der Vorgängergeneration zulegen konnte, aber Compute/Tesselation im Midrange einführte (Sniper). Tatsächlich hatte AMD sogar eine Karte mit breitem SI parat und mehr VRAM (386bit=6GB). Nur hat man das Projekt aufgegeben, weil man für den Aufwand den man betreiben musste preislich keine Abnehmer gefunden hätte. Zuletzt hat man es Apple und den Konsolenherstellern recht gemacht, dabei imo den Anschluss an Nvidia verloren. Vermutlich haben die arg gescholtenen Miner derzeit zwar die Preise in den Mond getrieben, aber auch dafür gesorgt das in Zukunft und ohne GCN wieder mehr von RTG zu erwarten ist. So legt man höchstwahrscheinlich (rein spekulativ) auch 2020 etwas auf, weil auch Intel in diesem Jahr mit einer dGPU kommen will. Es ist nicht ausgeschlossen das diese HPC, AI und auch Gaming abdecken könnte, oder man mehrere (auch abgespeckte) Varianten parat hat. Der Ceo teilte kurz vor seinem Abgang so etwas mit.

Nette Konversation mit Informations-/ Gedanken- und Erfahrungsaustausch...:)
 
  • Gefällt mir
Reaktionen: Hatch und Teralios
Zurück
Oben