News Im Test vor 15 Jahren: GDDR5 versus GDDR3 auf der Radeon HD 4870/4850

Robert

Redakteur
Teammitglied
Registriert
Feb. 2009
Beiträge
1.662
  • Gefällt mir
Reaktionen: flo.murr, andi_sco, Otorva und 21 andere
Ich mag die Retro-Ecke. Das führt einem immer wieder schön vor Augen, über welche Themen man sich vor Äonen mal den Kopf zerbrochen hat. :)

Gibt es dieses "Verhalten" bei den aktuellen (G)DDR-Standards eigentlich auch noch? Also dass ein alter Standard aufgrund von Timings bessser ist als der neue?
 
  • Gefällt mir
Reaktionen: flo.murr, andi_sco, TerraByte1982 und 8 andere
Hach, da werden Erinnerungen wach. *träum *
4870 war mir zu teuer.
4850 hat gezwitschert (Spulenfiepen) wie ein Vogel. Ging zurück.
Dann wurde es eben eine 4770 die mit ModBios, vMods, selfmade Wakü und zeitweise mit Peltierelementkühlung an die Kotzgrenze getrieben wurde. :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: flo.murr, andi_sco, lalanunu und 4 andere
SHEG schrieb:
Also dass ein alter Standard aufgrund von Timings bessser ist als der neue?
Klar. Das gibt es eigentlich zu Beginn jedes Generationenwechsels. Die ersten DDR5 Module waren langsamer als HighEnd DDR4. Mittlerweile ist DDR5 schneller geworden und DDR4 sieht kein Land mehr - trotz nominell besseren Latenzen.
 
  • Gefällt mir
Reaktionen: M11E, EdgarTheFace, bikerider und 9 andere
MORPEUS schrieb:
Dann wurde es eben eine 4770

Die war auch "legendär".

Die erste 40nm ihrer Zeit, sehr hoher Takt, leider "nur" 128bit SI, dafür aber GDDR5.

Ein sehr rundes Produkt zu einem sehr guten Preis. Leider war es damals auch schon so, dass AMD ihre Rohleistung einfach nicht auf die Straße gebracht hat und natürlich war damals schon Nvidia schuld, weil sie das "meant to be played" Konzept hatten und daher die bösen Entwickler nur für Nvidia optimiert haben. :evillol:

Später war dann Raja Koduri Schuld.

Es lag niemals an den "Spezialisten", die Treiber programmieren sollten.

Naja, selbst Intel hat sich eingebildet, Treiber wären nur "Beiwerk".

mfg
 
  • Gefällt mir
Reaktionen: Holgmann75, -=[CrysiS]=-, Bugsier 19 und 3 andere
Das mit dem GDDR4 hatte ich mich schon immer mal gefragt. Wieso ist da ne Lücke zwischen 3 und 5. :)
 
  • Gefällt mir
Reaktionen: IgorGlock, M11E, Chris_S04 und eine weitere Person
War das nicht die 4850, die man zur 4870 flashen konnte?
Schöne alte Zeit 🙂
 
Mystique_ schrieb:
Das mit dem GDDR4

Der war einfach nicht schnell genug.

Die HD3870 hatte z.B. GDDR4, der mit 1125 Mhz lief und der war schon an der Kotzgrenze. Das hat man dann schnell verworfen, ist auf GDDR5 gegangen und der lief dann später mit 3500 Mhz noch in einer GTX980 oder sogar als GDDR5X und 5000Mhz in einer GTX1080.

mfg
 
  • Gefällt mir
Reaktionen: IgorGlock, JohnWickzer, Holgmann75 und 2 andere
Mystique_ schrieb:
Das mit dem GDDR4 hatte ich mich schon immer mal gefragt. Wieso ist da ne Lücke zwischen 3 und 5. :)

Das war mir auch nicht klar. Ich hab das damals einfach akzeptiert, aber nicht weiter drüber nachgedacht. Bei mir hat das aber auch nie eine Kaufentscheidung beeinflusst, weil die Unterschiede meistens gering sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EntelodonX, Kunderico, halbtuer2 und 5 andere
[wege]mini schrieb:
Leider war es damals auch schon so, dass AMD ihre Rohleistung einfach nicht auf die Straße gebracht
Also, die HD 3000er und 4000er-Serie konnten ihre Rohleistung relativ gut umsetzen. Wenn man dann noch sieht, wie viele TMU/TAU und ROP die 4870 gegen die 260 stellte und den Transistor-Count nimmt, war TeraScale nach dem HD2900er Debakel sogar richtig gut geworden.

Klar, die GT200 waren etwas effizienter, aber die "Prozentchen" kann man getrost vergessen. Auch später TeraScale 2 auf der HD 6970 und 6950 war nicht schlecht und konnte bei der Effizienz dann mit der 500er-Serie mithalten und brachte das auf die Straße, war notwendig war.
[wege]mini schrieb:
war damals schon Nvidia schuld, weil sie das "meant to be played" Konzept hatten und daher die bösen Entwickler nur für Nvidia optimiert haben.
Na ja, bedingt war NVIDIA damals schon "Schuld", weil sie "erfolgreich" DirectX10.1 "boykotierten". Genauso waren viele Tesselation-Faktoren in NVIDIA-Effekten teilweise unnötig hoch gewählt, damit die eigenen Karten gut darstanden. Auch die Entwickler in Spielen die "meant to be played" waren, haben oft sinnlos hohe Tesselation-Faktoren gewählt, die Optisch keinen Mehrwert boten. NVIDIA hat damals schon mit harten Bandagen gekämpft.
[wege]mini schrieb:
Später war dann Raja Koduri Schuld.
Raja Koduri und sein Wirken bei ATi, AMD und nun bei Intel ist immer etwas schwer zu beurteilen. Er wird auf der einen Seite von vielen überhöht und von anderen dafür gleichzeitig vollkommen zu unrecht als inkompetent hingestellt.

Das Problem ist eher, dass keiner so genau weiß, was er denn wirklich bei ATi damals, dann AMD und nun bei Intel "gemacht" hat. Mal geschrieben, dass er ja für die Hardware garnichts kann, sondern dass er bei AMD und nun Intel den Softwarestack voran gebracht hat und das seine Arbeit war, an der schlechten Hardware sind dann andere Schuld. Jetzt - nach dem sich Arc etwas gefangen hat und "Potenzial" zeigt - schwenken manche der Leute, die ihm von den Hardwareproblemen "freigesprochen" dazu um, dass er ja doch die Hardware verantwortet hat.

Bei AMD ist es quasi das gleiche Spiel. Er war es ja, der eigentlich nur die Software "verantwortet" hat, hat da Treiber und ROCm gebracht, während für die Hardware andere "verantwortlich" waren, gerade weil ja Vega so floppte. Als sich abzeichnete das Navi2x "gut" wird, wurde er wieder zum Hauptverantwortlichen für Hardware, jetzt wo sich bei RDNA3 schwächen zeigen, ist er ja wieder hauptsächlich für Software dagewesen.

Seine Fans suchen sich die passenden Argumente, damit er "gut" dasteht und seine Hater machen genau das gleiche.

Die einzige Konstante bei Koduri ist, dass in der Zeit, als er "Representativ" für ein Unternehmen war, er jedes mal den Mund ziemlich vollgenommen hat und darauf aufbauend es immer zu einer Enttäuschung kam, weil die Produkte, die er angekündigt hat, nie das einlösen konnten, was er den Menschen versprochen hat.

Genau da liegt vermutlich auch sein Problem und warum er bei Intel erst befördert, dann degradiert und nun wohl auch gegangen wurde. Er hat keine schlechte Arbeit geleistet, er hat nur immer zu viel versprochen und konnte das am Ende nicht halten. Man sollte die Erwartungen an sich selbst aber auch an die eigenen Produkte nie viel höher schrauben, als am Ende dann wirklich dabei rum kommt, denn dann kann man nur enttäuschen, egal wie gut das Produkt am Ende wirklich ist.
[wege]mini schrieb:
Es lag niemals an den "Spezialisten", die Treiber programmieren sollten.
Mit großem Gehalt, geht große Verantwortung einher.

Natürlich war es Rajas Versagen bei AMD, dass Vega damals nicht so funktionierte, wie es sollte. Und natürlich war es auch bei Intel Rajas versagen, dass Arc nicht so funktionierte. Raja ist der Leiter der Abteilungen gewesen, die schlechte Produkte auf den Markt gebracht haben.

Wenn er es nicht schafft seine Visionen in die Teams zugeben, wenn er es nicht schafft entsprechende Fehlentwicklungen aus den Berichten der Teams, die im unterstehen, zu erkennen und ggf. gegen zu steuern, dann war Raja an einer falschen Position.

Er kassiert das große Gehalt und soll seine Teams entsprechend anleiten und auch beaufsichtigen, er soll Fehlentwicklungen erkennen und korrigieren. Macht er genau das nicht, dann hat er versagt, nicht das Team unter ihm.

Es ist irgendwie Mode in der Wirtschaft geworden, dass Versagen auf die Untergebene abgewälzt wird, währnd Erfolge dann der Führungskraft zugeschrieben werden. Ich beobachte sowas immer häufiger und das ist keine gute Entwicklung.
[wege]mini schrieb:
Naja, selbst Intel hat sich eingebildet, Treiber wären nur "Beiwerk".
Ich glaube weniger, das Intel Treiber nur als Beiwerk gesehen haben, denn die Firma weiß es eigentlich besser. Ich denke hier eher, dass der Kopf gewisse "Jetzt"-Entscheidungen nicht wirklich getroffen hat und seine Teams hat weitgehend laufen lassen, während diese Person sich lieber im "Morgen" befunden hat und daher den Fokus verloren hatte und am Ende damit beide Teams unkoordniert gearbeitet haben und daher der Schlamassel kam.
Ergänzung ()

MORPEUS schrieb:
Ganz so einfach war es dann doch nicht (da weniger Shader und schmaleres Speicherinterface). Aber durch die modernere Fertigung war der Chip deutlich sparsamer, kühler und damit Taktfreudiger.
Die HD 4850 und die HD 4870 haben auf den gleichen Chip aufgebaut, der auch auf der HD 4850 nicht beschnitten wurde. Der Unterschied lag im RAM - GDDR3 gegen GDDR5 - und im Takt. Beide basierten auf dem RV770, einmal Pro, einem XT. Erst der RV770 LE hatte weniger Shader.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaBo87, andi_sco, 4badd0n und 12 andere
MORPEUS schrieb:
btw. Schaut euch mal die Grafikkartenpreise an. Eine Mittelklasse Grafikkarte für ein paar 80 € neu :love:.

Im Strahl kotzen könnte ich. :kotz:
Dann schau dir bitte auch die Auflösung der Monitore und die erreichten FPS an.
Oftmals nur 20 bis 40 FPS bei 1280x1024.
Selbst die GTX 285 kommt bei vielen Spielen bei hoher Grafikqualität nur auf 35 FPS. Mehr als 60 FPS waren bei neuen Spielen wie Call of Juarez nur selten bis überhaupt nicht drin, nimmt man 1600x1200 und höchste Grafikqualität als Maßstab.
Bezieht man das auf die heutige Zeit, wäre absolut niemand damit zufrieden, das gäbe einen extremen Shitstorm.
20 bis 40 FPS bei niedriger Auflösung wären heutzutage sowas wie die RTX 3050 bis 3060.

Gibt man sich heute mit Full HD und FPS zwischen 30 und 60 zufrieden, muss man für eine GPU nucht viel bezahlen.
Leider setzt sich immer mehr durch, auch unter den offiziellen Schreiberlingen: alles unter 4K und 100 FPS ist nahezu unspielbar.
 
  • Gefällt mir
Reaktionen: SSGFrost, netzgestaltung, DeeZi und 4 andere
[wege]mini schrieb:
Leider war es damals auch schon so, dass AMD ihre Rohleistung einfach nicht auf die Straße gebracht hat
Dann muß AMD damals mit den 5850/5870 ja irgendwie verdammt viel falsch gemacht haben. Wohl soviel, das Nvidia noch ein wenig Zeit brauchte, um die Brechstange für die GTX 470/480 zu suchen, um bei den Balken dann hauchdünn vor den AMD Karten zu liegen und dabei immens warm und durstig zu sein.

Man mußte damals schon verflucht aufpassen, was man kaufte. Es gab von lahmer Kröte mit GDDR3 bis zu schnellen Karten mit GDDR5 alles. Wer da uninformiert war, hat schnell ins Klo gegriffen.
 
  • Gefällt mir
Reaktionen: Holgmann75, Krazee und lubi7
DevPandi schrieb:
und seine Teams hat weitgehend laufen lassen

So macht man es aber.

Ich sage doch dem Maurer auch nicht, er soll eine gerade Mauer mauern, damit das Dach darauf hält, obwohl auch eine schiefe Mauer das Dach halten würde.

Wenn der Chef schuld ist, weil das Team nicht abgeliefert hat, läuft irgend etwas grundsätzlich falsch. Das gesamte Team austauschen, wird natürlich schwer.

Da nimmt man natürlich einen neuen Chef, der dem Team zur Not erklärt, wie man einen Nagel in die Wand schlägt. Das Hauptproblem, lässt sich damit aber nicht lösen.

In vielen Dingen hast du recht. Trotzdem braucht man Mitarbeiter, die nach Auftragstaktik arbeiten können und nicht nach Befehlstaktik arbeiten wollen, um mal Worte aus einem Metier zu verwenden, wo sich Menschen in komische Gewänder hüllen und planlos umher irren. :heilig:

mfg
 
Tuetensuppe schrieb:
Gibt man sich heute mit Full HD und FPS zwischen 30 und 60 zufrieden, muss man für eine GPU nucht viel bezahlen.

Was meinst Du mit "nicht viel"? Bitte einen konkreten Wert: Wieviel muss man bezahlen?

Ich habe mit einer Radeon 9600 fuer WIMRE EUR 100 auf 1600x1200 gespielt, mit einer Radeon X850XT fuer EUR 150 ebenfalls, dann (vor ungefaehr 15 Jahren) auf 2560x1600 gewechselt, und dafuer eine Radeon X1650Pro fuer WIMRE EUR 100 gekauft und damit gespielt. Spaeter dann eine Radeon HD4670 fuer EUR <70.

Leider setzt sich immer mehr durch, auch unter den offiziellen Schreiberlingen: alles unter 4K und 100 FPS ist nahezu unspielbar.

Solche Tendenzen beobachte ich vor allem in Foren zu diversen Themen (auch abseits von Computern), wo es oft Leute gibt, die das Teuerste zum Mindeststandard erheben und alles andere runtermachen. Dass sowas im Laufe der Zeit auch auf die abfaerbt, die da mitlesen (z.B. CB-Redakteure), wuerde mich nicht wundern. Die Hersteller, die vor allem oder ausschliesslich hochpreisige Teile fuer Tests zur Verfuegung stellen, helfen da natuerlich kraeftig mit.
 
  • Gefällt mir
Reaktionen: netzgestaltung, EdgarTheFace, ThePlayer und 4 andere
Hatte damals die 4870 bei Conrad gekauft. Die Grafikkarte war auch mit GDDR5 bestückt. Die Leistung war sehr gut. Soweit ich mich erinnere hatte ich diese Grafikkarte am längsten.
 
  • Gefällt mir
Reaktionen: netzgestaltung
Man kann den Test auch für die Zukunft oder Gegenwart nehmen:
"Es muss nicht immer das Neueste sein.
Neuer ist nicht gleich besser."

Da ich schon eingedeckt war, kaufte ich zwei Jahre später ne 5850.
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-
SHEG schrieb:
Gibt es dieses "Verhalten" bei den aktuellen (G)DDR-Standards eigentlich auch noch? Also dass ein alter Standard aufgrund von Timings bessser ist als der neue?
Hier gibt es schon eine schöne Zusammenfassung für DDR-Speicher:
Tzk schrieb:
Klar. Das gibt es eigentlich zu Beginn jedes Generationenwechsels. Die ersten DDR5 Module waren langsamer als HighEnd DDR4.
Das ist die erste Phase. In einer zweiten Phase...
Tzk schrieb:
Mittlerweile ist DDR5 schneller geworden und DDR4 sieht kein Land mehr - trotz nominell besseren Latenzen.
...sinkt der Latenznachteil und der Bandbreitenvorteil steigt.
Bei DDR3 und DDR4 gab es noch eine dritte Phase, in der dann am Ende die effektiven Latenzen auch insgesamt konkurrenzlos gut wurden.

Jetzt zu GDDR:
Bei GDDR5X gab es große Probleme: Hohe effektive Latenzen kombiniert mit hoher Leistungsaufnahme machten ihn insgesamt eher zu einer unattraktiven Wahl.
So heftig wurde es bei GDDR6X vs GDDR6 bis jetzt nicht; aber klare Dominanz erlangt GDDR6X auf keinen Fall. Unter anderem auch, weil GDDR6 nach wie vor weiterentwickelt wird.
 
  • Gefällt mir
Reaktionen: SHEG und Tzk
Tuetensuppe schrieb:
Dann schau dir bitte auch die Auflösung der Monitore und die erreichten FPS an.
Oftmals nur 20 bis 40 FPS bei 1280x1024.
Gut, aber das ist auch einfach der technischer Fortschritt. Es ist normal, dass es immer weiter geht und ein Standard nicht ewig bleibt.
Meiner Meinung nach sollte man sich da immer einigermaßen an den Konsolen orientieren und dann sind 30-60 fps bei Auflösungen zwischen 1080p und 4k (je nachdem, welche Modi die Spiele anbieten) irgendwie das neue Minimum.
Am Desktop sehe ich 1440p/60fps/high durchaus als erstrebenswertes Minimum an. Wobei ich je nach Genre auch kein Problem mit Upsamling/~40 fps und mittleren Einstellungen habe.
Nur ist auch Letzteres inzwischen recht teuer geworden.
 
  • Gefällt mir
Reaktionen: MORPEUS und bad_sign
Zurück
Oben