News Im Test vor 15 Jahren: Die GeForce FX 5900 Ultra begrub den Föhn

Ich kenne natürlich Crossfire und SLI, bin dabei auch überhaupt nicht aufgeregt. Viel interessanter finde ich DX12 Expliziet MGPU Renderpfade, weil dabei die Treiber außen vor bleiben und der Modi wahrscheinlich vom Entwickler Engine und Hardware optimiert wird (Sniper Elite z.B.). Soll aber ein anderes Thema sein.
 
Blueline56 schrieb:
Die Voodoo 5 5500 hatte ich mir 2000 für 720DM gekauft, war schon eine tolle Karte, Bildqualität war Dank gutes Antialiasing richtig gut, leider konnte sie kein T&L (Transform and Lighting). daß zu der Zeit vermehrt in Direct 3D von Spieleentwickler verwendet wurde, ...

T&L war doch mehr Marketing als alles andere...
 
Aslo schrieb:
Singleslot sollte wieder Standard werden. Ein neuer Standard (als Ersatz für ATX) wäre auch nicht schlecht, in dem die Graka einen dedizierten Bereich hat.

Kann nur jemand sagen, der vergessen hat, wie wenig die Karten damals verbraucht haben und wie laut sie ungeachtet ihres heutzutage lächerlich niedrigen Strombedarfs waren.
 
  • Gefällt mir
Reaktionen: Teralios und HornyNinja69
Damals hatte ich noch eine fx 5200 eine lahme Gurke gehabt. Danach bin ich auf eine 6600gt umgestiegen, es war meine letzte AGP Grafikkarte :-)
 
Love Guru schrieb:
Punkt 1: ich bin nicht DEIN Freund, das will ich ganz klar festhalten.
Würde ich auch niemals behaupten!
Love Guru schrieb:
Punkt 2: Wenn man MultiGPU nicht beherrscht, dann sollte man es als a) Hersteller nicht implementieren und b) als (Nicht-)Nutzer nicht drüber schreiben!
Jo sehe ich im Prinzip genauso, wenn eine Technik für mehr Geld unangenehme Probleme verursacht, dann sollte man es entweder richtig machen oder gleich sein lassen. Leider ist das bei Nvidia genauso wie bei AMD mit den Mikrorucklern, davon habe ich mich selbst überzeugt und du brauchst garnicht zu denken, das s du der schlauste und gerissenste bist weil du einen Schalter umgelegt hast.

Generell drückst du mir ein Thema auf, welches mich nicht interessiert und versuchst von meiner ersten Antwort abzuweichen.

Luxmanl525 schrieb:
Die besagten Karten waren in Punkto Preis- / Leistungsverhältnis den von dir genannten GTX 2xx Massiv Überlegen Sonst aber so gut wie nichts
Richtig. ATI hatte mit der 4850 und der 4870 die GTX 260 komplett deklassiert. Für rund die hälfte konnte man eine HD 4850 kaufen die ~5% langsamer war oder die HD 4870 für immer noch ~100€ weniger, bei ~15% mehr Leistung kaufen. Nur wer die absolut schnellste single GPU haben wollte, hat ü. 300€ mehr für ~10% mehr leistung gegenüber der HD 4870 inform von der GTX 280 gezahlt. Trotzdem hat sich die ineffizientere, langsamere und teurere GTX 260 mehr verkauft als beide ATIs zusammen.

Edit: https://techcrunch.com/2008/07/14/nvidia-slashes-price-of-gtx-280-260-now-on-par-with-atis-prices/

Luxmanl525 schrieb:
Wie bitte? Was ist Unfair? Dies liegt noch immer im Auge des Betrachters, speziell in diesem besagten Zusammenhang, den du hier herstellst.
https://www.heise.de/newsticker/mel...icher-Preisabsprachen-vor-Gericht-187553.html
Ehm nach deiner Logik und dem Artikel von "Heise" :kotz:müsste Nvidia genauso hart dran sein wie ATI wenn nicht sogar schlimmer, da sie ein unterlegeneres Produkt hatten. Haben aber trotz all dem mehr Geld gemacht.
Wenn du schon anfängst mit alle Unternehmen sind gleich scheiße und amoralisch, dann musst du wissen, dass wenn wir in der Vergangenheit graben es nicht zugunsten von Nvidia ausgeht!

Luxmanl525 schrieb:
Wo bitte hat ATI mit der 4000er Reihe Verlust gemacht? Dazu hätte ich gerne Zahlen. Meine Kenntnis ist die, daß AMD mit der 3000er Reihe, sowie im besonderen der 4000er Reihe, wieder auf die Füße kam, nachdem sie mit der 2900er komplett Schiffbruch erlitten. Die 2900er Reihe hatte einen Massiven Schag ins Kontor für AMD seinerzeit bedeutet.
http://ir.amd.com/static-files/2dcc0637-a0c0-4604-bd50-f3399a724232
was besseres habe ich zu ATI nicht gefunden
http://s22.q4cdn.com/364334381/files/doc_financials/quarterly_reports/2009/10Q-2009-Q3.pdf
http://s22.q4cdn.com/364334381/files/doc_financials/quarterly_reports/2009/10Q-2009-Q1.pdf
http://investor.nvidia.com/financial-info/quarterly-results/default.aspx

donend schrieb:
ATI/AMD machte damals den Fehler zu wenig Fertigungskapazitäten zu bestellen und den Preis niedrig anzusetzen. Das führte zum schnellen Ausverkauf von Cypress (RV870)
Jo aber hat ja gemeint ATI hatte nicht mehr die Leistungskrone, was so nicht stimmt!

Pitt_G. schrieb:
Nana Selbst eine 8800 Ultra konnte es in manchen Titeln mit den 48x0 aufnehmen , wenn dem unkundigen Kunden die kastrierte 512Mb Version verkauft wurde, erst recht, farcry 2 war glaub einer der Titel
Genauso konnte die 4850 in Bioshock recht nah an die GTX 280 rankommen und? Außreiser haben nichts zu bedeuten und darum prüft man auch mehrere Spiele, nicht nur ein zwei Cherrypicks.

CS74ES schrieb:
ch finds immer witzig, wenn gewisse Szenarien zitiert werden, wo dann doch die eine oder andere besser ist. Am Ende sagt immer der Preis, wo die Reise hingeht, der Rest sind nur Benchmarkwerte.
Das tut es nur wenn es Nvidia ist, bei ATI/AMD ist es egal wie gut der Preis pro Performance ist.

ol'Dirty schrieb:
Love Guru & HornyNinja, das erinnert mich auch, wie der Artikel, an die guten alten Zeiten..lach. :D
Wenn Fanboys sich bis auf's Onlinemesser hauen..lasst es doch einfach.
Luxmanl525 schrieb:
sind ja nur die Farbenblinden Fanboys die den Firmen regelrecht auf den Leim Gehen
Nur weil ich ein falsche Aussage bestreite und euch Zeige warum der Markt so ist wie er ist, egal ob AMD bessere Produkte hat oder nicht, bin ich gleich ein Fanboy von ATI/AMD oder was?
 
Luxmanl525 schrieb:
Es hat eben jeder eine andere Gewichtung, genau deshalb hat es eben auch Käufer der GTX 2xxx Serie gegeben. So einfach ist das.
So ganz einfach war es damals nicht. Die Diskussion um Grafikkarten ist heute teilweise wegen ein paar Unschönheiten der Vergangenheit auch so aufgeladen.

Als ATI/AMD wirklich besser oder zumindest genau so gut war wie nvidia kam es Anfang der 10er Jahre auch hier oft zu entsprechenden Diskussionen und als "Argument" für nVidia wurde dann damals PhysX angeführt. Genau so wurde damals von so manchen auf die teilweise doch deutlich schlechtere Effizienz der nVidia-Karten gepfiffen. PhysX würde das alles ja wett machen. (Damals kamen sehr wenige Spiele mit PhysX raus und die paar Spiele hatten zwar paar tolle Effekte aber das war es.)

Als dann ATI mit der GCN ein wenig (Kepler) ins Hintertreffen mit der Effizienz geriet und später mit Maxwell deutlicher, fanden plötzlich die nvidia Anhänger ihr grünes Gewissen und von AMD wurde wegen der etwas schlechtere Effizienz abgeraten und darauf rum geritten. Diese Argumentation aus der Feder mancher Diskussionsteilnehmer - auch hier - hat da schon ein zynisches Geschmäckle entwickelt.

Moep89 schrieb:
Ich hab schon damals nie verstanden, warum die Hersteller solche winzigen Kühler verbaut haben.
Weil wir damals etwas Anspruchsloser bei der Lautstärke waren zumal die Geräusche meist beim Spielen eh untergegangen sind durch die Boxen.

Moep89 schrieb:
Wirklich leise war damals eigentlich keine Karte. Und dabei wäre es so einfach gewesen.
Na ja, meine Radeon 9600 und auch die X800 waren eigentlich nicht wirklich zu hören, die sind oft von den Lüftern des Gehäuses oder CPU-Lüfters übertönt worden.

Aber PCs waren in den 00er wirklich keine leise Angelegenheit.

Aslo schrieb:
Singleslot sollte wieder Standard werden.
Am Besten sollten Grafikkarten gar keinen Kühler mehr haben. Was fällt diesen bösen Grafikkarten überhaupt ein Heute einen Kühler zu benötigen. (Wer alt genug war: Frühe Grafikkarten kamen ohne Kühler aus. Beispiele: Voodoo 2 oder Riva 128)

Und selbst die frühen CPUs ließen sich ohne Kühler kühlen. Was für eine Frechheit, dass heute Kühler benötigt werden!


AbstaubBaer schrieb:
Kann nur jemand sagen, der vergessen hat, wie wenig die Karten damals verbraucht haben und wie laut sie ungeachtet ihres heutzutage lächerlich niedrigen Strombedarfs waren.
... oder wie warm die Komponenten damals auch wurden. Heute wird hier schon der Teufel an die Wand gemalt, wenn eine CPU und GPU über 30° bei Vollast geht. Damals sind die Komponenten teilweise deutlich heißer geworden und es hat keinen wirklich gejuckt.

Die Grafikkarten waren in der Regel also sowohl heiß und laut.
 
  • Gefällt mir
Reaktionen: HornyNinja69
Was hacken hier alle wegen der Singleslot-Äußerun auf mir rum? Was spricht dagegen, ne 1050ti oder so mit solch einem Kühler auszustatten? Dass die 200w+ Monster darauf nicht klarkommen, ist schon klar...

Bei "normalen" Grakas ist der Kühler jedoch meist überdimensioniert.
 
HornyNinja69 schrieb:
Das tut es nur wenn es Nvidia ist, bei ATI/AMD ist es egal wie gut der Preis pro Performance ist.

Ja, weil AMD/ATI oft Eigenschaften angedichtet werden, die an der Haaren herbeigezogen sind. Vor einigen Jahren hieß es mal, AMD hätte die bessere Grafikqualität, hab mich hingesetzt und angebliche Beweise verglichen - konnte nichts erkennen.
Schuld daran ist aber nicht AMD, sondern die Fanboys. Gab auch mal ne Zeit, da haben AMD/ATI Fanboys bei Geizhals.at sämtliche NV Karten schlecht bewertet, sodass kaum eine Karte auf über 70% Empfehlungen kam, bei AMD war dagegen alles "sauber". Sowas soll man dann kaufen?
 
Zuletzt bearbeitet von einem Moderator:
Teralios schrieb:
Als dann ATI mit der GCN ein wenig (Kepler) ins Hintertreffen mit der Effizienz geriet und später mit Maxwell deutlicher, fanden plötzlich die nvidia Anhänger ihr grünes Gewissen und von AMD wurde wegen der etwas schlechtere Effizienz abgeraten und darauf rum geritten. Diese Argumentation aus der Feder mancher Diskussionsteilnehmer - auch hier - hat da schon ein zynisches Geschmäckle entwickelt.

wobei das mehr eine retourkutsche war für das plötzlich entwickelte grüne gewissen der amd/ati-fans, als die 5000er reihe erschien.
 
Aslo schrieb:
Was hacken hier alle wegen der Singleslot-Äußerun auf mir rum?
Weil du pauschal schreibst, dass Singleslot wieder Standard werden soll, was bei dem heutigen Verbrauch und der damit verbunden TDP zu Karten führen würden, die thermisch - sofern wir von Luftkühlung reden - nicht nur absolut am Limit laufen würden, sondern auch noch unerträglich laut wären.


Aslo schrieb:
Was spricht dagegen, ne 1050ti oder so mit solch einem Kühler auszustatten?
Was dagegen spricht? Die Leistungsaufnahme der GeForce GTX 1050Ti. Die verbraucht nämlich bereits ca. 60 Watt und damit soviel wie damals die Highend-Karten (9800XT, GeForce 5900, Daten von 3dCenter) die mit Singleslot-Kühlern zwar keine absoluten Krachmacher waren, aber trotzdem nicht leise waren und durchaus thermisch in Regionen agierten, die man heute allgemein als nicht mehr Gut ansieht.

Damals haben aber kaum Zeitschriften wirklich die Lautstärke oder die Temperaturen ermittelt, sondern nur die normalen Benchmarks. Kann man auch hier gut sehen. Erst ab Mitte/Ende 2004 wurde die Kategorie Lautstärke mit eingeführt. Wenn ich jetzt nicht gänzlich daneben liege, war der Test zu einer GeForce 6600 GT der Erste. Da wurde aber noch keine Lautstärke gemessen. Erst bei einem Test im April 2005 findet man entsprechende Angaben.

Die Grafikkarten dort haben einen ähnlichen Verbrauch wie die GTX 1050 TI und nun sieh dir mal die Lautstärkewerte bei 3d-Last an. Wir sprechen hier von 50db(A) und mehr. Alles Single-Slot-Karten!

Aslo schrieb:
Bei "normalen" Grakas ist der Kühler jedoch meist überdimensioniert.
Ist er das? Sehe ich mir die Temperaturwerte und Lautstärkewerte der Vergangenheit an, muss ich sagen: Wenn jemand auf einen leisen Betrieb wert legt, sind die heutigen Kühler mit ihren 2-Slots wohl eher genau richtig dimensioniert.
 
HornyNinja69 schrieb:
Richtig. ATI hatte mit der 4850 und der 4870 die GTX 260 komplett deklassiert. Für rund die hälfte konnte man eine HD 4850 kaufen die ~5% langsamer war oder die HD 4870 für immer noch ~100€ weniger, bei ~15% mehr Leistung kaufen. [...] . Trotzdem hat sich die ineffizientere, langsamere und teurere GTX 260 mehr verkauft als beide ATIs zusammen.

Ähhm. Der Preis der GTX 260 ist recht schnell gefallen und lag wenige Monate nach Release bei 200 Euro. Nvidia hat dann nochmal eine GTX 260 216SPP nachgelegt die ein paar Shader mehr hatte und einen Daumen breit vor der HD4850 gelegen hat.

Es aber schon das Nvidia mit den Preisen der 260/270/280 Karten anfangs überrissen hat. Die Auswirkungen der Finanzkrise haben aber das Geschäft verhagelt und die Karten wurden sehr günstig abgegeben

Das sich die GTX 260 doppelt so oft wie die HD 4850 verkauft hat, wage ich zu bezweifeln. Ende der 2000er lagen beide Anbieter beim Marktanteil fast gleichauf.
 
Zuletzt bearbeitet von einem Moderator:
acc schrieb:
wobei das mehr eine retourkutsche war für das plötzlich entwickelte grüne gewissen der amd/ati-fans, als die 5000er reihe erschien.
Na ja, eher klassische doppelte Moral in solchen Diskussionen. Wer solche Argumente erst übergeht und für unwichtig erachtet, weil die eigene Lieblingsmarke unterlegen ist und dann darauf pocht wenn die eigene Marke besser dar steht, der muss sich nicht wundern, wenn man ihn als Pharisäer bezeichnet.

Das gilt im übrigen für beide Lager. Die AMD-Anhänger die damals auf der Effizien rumgeritten sind und heute versuchen sie weg zureden sind da nicht besser.
 
  • Gefällt mir
Reaktionen: HornyNinja69
andi_sco schrieb:
T&L war doch mehr Marketing als alles andere...
T&L war schon immer ein Teil des Renderprozesses und dieses auf die GPU auszulagern als Hardware T&L hat die CPU massiv entlastet. Konnte man auch ohne eine Geforce testen wenn man ein dual CPU System und ein Spiel das OpenGL unterstütze hatte ;-) denn OpenGL konnte fürs T&L die 2. CPU nutzen in dem es als eigener Thread lief (Unreal Tournament auf ner Riva TNT und Dual CPU rannte richtig gut)
 
@Teralios Mit Ausnahme von Vega und Fury hat man bei AMD seit der 4xxx Serie immer mehr Speicher bekommen als bei Nvidia.

Das hat in meinen Augen die erhöhte Leistungsaufnahme wieder wett gemacht.

Wer den unbedingt etwas weniger TDP wollte hat halt Nvidia genommen. Allerdings waren die Karten durch ihren begrenzten Speicher auch immer etwas kurzlebiger als ihre AMD Counterparts...
 
  • Gefällt mir
Reaktionen: HornyNinja69
tek9 schrieb:
Ähhm. Der Preis der GTX 260 ist recht schnell gefallen und lag wenige Monate nach Release bei 200 Euro. Nvidia hat dann nochmal eine GTX 260 216SPP nachgelegt die ein paar Shader mehr hatte und einen Daumen breit vor der HD4850 gelegen hat.
Das habe ich im Edit auch hinzugefügt, die GTX 260 war aber immer noch die schlechtere Wahl ggü der 4850

tek9 schrieb:
Das sich die GTX 260 doppelt so oft wie die HD 4850 verkauft hat, wage ich zu bezweifeln. Ende der 2000er lagen beide Anbieter beim Marktanteil fast gleichauf.
Es wurden mehr GTX 260 als HD4000er Serien verkauft.
https://web.archive.org/web/20110303103001/http://store.steampowered.com:80/hwsurvey/videocard/
und wenn du dir die Links mit dem Einkommen ansiehst, wirst du verstehen, dass Nvidia unverdient mehr Geld als ATI gemacht hat.

CS74ES schrieb:
Ja, weil AMD/ATI oft Eigenschaften angedichtet werden, die an der Haaren herbeigezogen sind. Vor einigen Jahren hieß es mal, AMD hätte die bessere Grafikqualität, hab mich hingesetzt und angebliche Beweise verglichen - konnte nichts erkennen.
Schuld daran ist aber nicht AMD, sondern die Fanboys. Gab auch mal ne Zeit, da haben AMD/ATI Fanboys bei Geizhals.at sämtliche NV Karten schlecht bewertet, sodass kaum eine Karte auf über 70% Empfehlungen kam, bei AMD war dagegen alles "sauber". Sowas soll man dann kaufen?
Zweifel ich mal stark an, aber was ist mit den Free Nvidia GPUs die nutzer in Foren bekommen haben und hart für Nvidia rumgeshillt haben?
 
tek9 schrieb:
Wer den unbedingt etwas weniger TDP wollte hat halt Nvidia genommen.
Zu Zeiten Keplers war das mit der Effizienz auch eher reinste Makulatur. Die Kepler-Karten waren ein klein wenig schneller und ein klein wenig Effizienter. Dafür waren die AMD-Karten auch wiederum etwas günstiger und hatten, wie du schreibst, mehr RAM. Zu mal die GCN auch mit der Zeit Leistung dazu gewonnen hat und im Endeffekt genau so effizient waren. Aber für die gesparten EUR für die AMD Karten konnte man echt lange Zocken (wenn man 8 Stunden täglich annimmt, waren es auch mehre Jahre, die es gebraucht hat, biss sich die Kepler-Karte gerechnet hat.)

Selbst bei Maxwell hat sich das eigentlich nicht so stark geändert und für das gesparte Geld konnte man immer noch echt lange zocken, bis sich es harmonisiert hätte.

Und selbst Polaris steht eigentlich nicht mal so schlecht gegenüber Pascal da heute da, da ja mit den Treibern doch noch mal etwas Leistung heraus geholt werden konnte. Zwar verbraucht die RX480/580 zwar ca. 10 - 20% mehr Energie als die GTX 1060, in absoluten Zahlen ist es aber immer noch eher vernachlässigbar.

Mit entsprechenden Einstellungen bei der 4x0/5x0 kann man sogar die Effizienz weiter steigern und den Abstand sogar verringern. Bei Polaris hab ich das Gefühl gehabt, dass AMD die finale Feinabstimmung einfach - neben dem Bandbreitenproblem - verpatzt hat.

Gleiches sieht man ja auch bei Vega, der mit etwas Feinabstimmung durchaus effizienter wird - und der wohl auch wegen fehlender Bandbreite verhungert.

Man merkt beiden Serien an, dass wohl wirklich Budget gefehlt hat.
 
  • Gefällt mir
Reaktionen: HornyNinja69
Wurde "Fön" damals schon falsch (mit "h") geschrieben? Muss man das heute selbst in der Überschrift wiederholen? Ich glaube kaum, dass hier der Fallwind nördlich der Alpen referenziert werden sollte.
 
nn|none schrieb:
Wurde "Fön" damals schon falsch (mit "h") geschrieben? Muss man das heute selbst in der Überschrift wiederholen? Ich glaube kaum, dass hier der Fallwind nördlich der Alpen referenziert werden sollte.
Man sollte vor einer Verbesserung lieber mal den Duden kontaktieren. Seit 1996 ist Föhn als Schreibweise anerkannt und Fön bezeichnet nur noch das explizite Produkt der Firma Electrolux.

https://www.duden.de/rechtschreibung/Foehn
 
HornyNinja69 schrieb:
Zweifel ich mal stark an, aber was ist mit den Free Nvidia GPUs die nutzer in Foren bekommen haben und hart für Nvidia rumgeshillt haben?

Was zweifelst du an? Dass AMD Fanboys NV Karten schlecht bewertet haben?
Hab jetzt keinen Beweis, da es Jahre her ist, war aber so. Jede 3. Bewertung wollte anhand von Tests belegen, wie schlecht NVidia im Vergleich ist, obwohl die Leute niemals eine der Karten gekauft haben. Hab mir dann die Mühe gemacht und Fakten zusammen gesucht, die für NV sprechen und ne AMD Karte auf die gleiche Tour bewertet. Die Empörung war riesig, die Bewertung hatte am Ende gut 30 Kommentare, wogegen es bei NV Karten kaum Reaktionen gab.
Ich denke das spricht für sich.

Hab Geizhals damals sogar mehrmals drauf hingewiesen, aber die meinten die Bewertungen würden gegen keine Regeln verstoßen und wären somit OK.
 
Zuletzt bearbeitet von einem Moderator:
HornyNinja69 schrieb:
Das habe ich im Edit auch hinzugefügt, die GTX 260 war aber immer noch die schlechtere Wahl ggü der 4850

Wie ich bereits geschrieben habe lag die GTX 260 216SPP einen Daumen breit vor der 4850 bei gleicher Preislage. Die GTX mit 192 Shadern wurde etwas günstiger als die 4850 verkauft.

Der Nachteil der 4850 war der hohe Stromverbrauch im idle, der bei knapp 50W gelegen hat. Die GTX 260 war in dieser Hinsicht deutlich genügsamer

Der einzige Nachteil der GTX 260 war die etwas geringere Ausstattung mit VRAM, weil die Karte aufgrund des 192 bit breiten interface nur 896 MB hatte, während die 4850 mit 1024 MB daher kam. Der geringe Unterschied war aber idr zu vernachlässigen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben