News Im Test vor 15 Jahren: GDDR5 versus GDDR3 auf der Radeon HD 4870/4850

Tuetensuppe schrieb:

v_ossi schrieb:

Der vermeintliche "technische Fortschritt" auf Seiten der Spiele äußert sich insgesamt in der "besseren" Grafik, d.h. Auflösungen, Polygonzahl, Anzahl Objekte, Partikeleffekte, Kantenglättung, Schatten und was noch so. Dass das auch umsetzbar war und ist, dafür zeichnet der (technische) Fortschritt bei den Grafikkarten verantwortlich.

Allerdings ist nicht alles technischer Fortschritt sondern vieles auch einem Wachstum der Chips und damit auch der Schaltung drumherum zuzuschreiben. Vergleicht doch mal frühere Karten mit aktuellen unter folgenden Gesichtspunkten:

Leistungsaufnahme
Board-Größe
Kühlergröße & Gewicht

Da kommt man schnell auf das 2-4-fache. Und auch wenn auf Seiten der Fertigungsmethoden wiederum auch ein kontinuierlicher technischer Fortschritt stattfindet, wer sagt dann, dass die Preise für dieses Equipment und die benötigten Materialien gleich bleiben? Schaut doch spaßeshalber mal, was so ein EUV-Belichter kostet ... allein schon im Vergleich zum modernsten DUV-Gerät. Und vielleicht findet ihr auch noch Preise von vor 15, 20 Jahren.

Ich will nicht in Abrede stellen, dass, erstens, die Preise für Grafikkarten seit ein paar Jahren ein Stück weit überzogen sind. Das sieht man meiner Meinung nach auch an der großen Spanne für die jewieiligen Modelle, z.B. bei der RTX 4070 (600 € bis mind. 740 €). Damit verdient dann aber nicht notwendigerweise der GPU-Entwickler einen Batzen Geld, sondern es oft genug eher die Anbieter der Karten selbst.

Zweitens gibt es quasi keine Einstiegs- und Mittelkarten mit früher üblichen 50-120 W Verbrauch mehr.

Und drittens möge man auch die Inflation hierzulande oder die steigenden Arbeitskosten in Ostasien einbeziehen. Als Beispiel für die Inflation nehme man 1,02^15 oder meinetwegen auch nur 1,015^15. Allein das ergibt einen Preisanstieg von ≈25-33%.
 
Zuletzt bearbeitet von einem Moderator:
[wege]mini schrieb:
So macht man es aber.
Man sollte es so aber nicht machen. Wenn man nur Anweisungen gibt und anschließend nicht mehr etwas macht, dann muss man auch kein Chef sein und das Gehalt, dass man kassiert ist nicht gerechtfertigt.

Natürlich sollte man als Chef nicht jede Enscheidung in der Ebene darunter übernehmen, jeden Arbeitsschritt überwachen und Co. Das ist keine Frage. Man sollte sich aber entsprechende Controlling-Werkzeuge mit der Zeit aneignen und die Fortschritte der Teams validieren.

Ein schlechter Chef gibt entweder nur Arbeitsanweisungen und lässt ansonsten die Zügel locker oder gibt haargenaue Befehle und mischt sich jedes mal ein. Ein guter Chef gibt Arbeitsanweisungen und weiß, wann er der Zügel locker lassen kann und wann die Zügel ggf. angezogen werden muss. Wann er dem Team den Freiraum lässt, und wann der Freiraum eingeschränkt werden muss.

Ein guter Chef erkennt Probleme und Hürden und steuert genau dann dagegen, denn der Chef ist der Steuermann!
 
  • Gefällt mir
Reaktionen: miagi
[wege]mini schrieb:
So macht man es aber.

Wozu braucht man dann einen Leiter?

Ich sage doch dem Maurer auch nicht, er soll eine gerade Mauer mauern, damit das Dach darauf hält, obwohl auch eine schiefe Mauer das Dach halten würde.

Als Bauleiter sagst Du dem Maurer schon, was er machen soll und wann. Wenn der einfach irgendwas mauert, was ihm gerade in den Sinn kommt, wird aus dem Gebaeude nichts, zumindest nicht das geplante. Und das gilt ganz besonders fuer Gebaeude jenseits des Ueblichen. Bei Standardhaeusern haben die Ausfuehrenden wohl genug Erfahrung, dass Maengel in der Bauleitung bis zu einem gewissen Grad ausgeglichen werden koennen. Bei aussergewoehnlichen Gebaeuden kommen da oft grosse Kostenueberschreitungen zustande (Flughaefen sind da regelmaessig betroffen).

Wenn der Chef schuld ist, weil das Team nicht abgeliefert hat, läuft irgend etwas grundsätzlich falsch.

Wenn die Aufgabe in den Moeglichkeiten des Teams liegt, liegt es natuerlich in der Verantwortung des Chefs; genau dafuer ist er da; er muss die Mitglieder des Teams kennen, entsprechend ihrer Faehigkeiten fuer Teilaufgaben einteilen, eventuell passende Leute rekrutieren, und bei herausfordernden Aufgaben das Team inspirieren.

Und wenn die Aufgabe nicht in den Moeglichkeiten des Teams liegt, ist der Chef dafuer verantwortlich, das fruehzeitig aufzuzeigen.

Klar, wenn die Teammitglieder ohnehin das Richtige tun, braucht der Chef nicht eingreifen, aber wenn das Team am Ende nicht abliefert, haben die Teammitglieder offensichtlich nicht das Richtige gemacht, oder die Aufgabe war jenseits der Moeglichkeiten des Teams.
 
  • Gefällt mir
Reaktionen: mojzika1 und DevPandi
Tuetensuppe schrieb:
Gibt man sich heute mit Full HD und FPS zwischen 30 und 60 zufrieden, muss man für eine GPU nucht viel bezahlen.

Da hat er vollkommen recht. Ich habe 2019 eine RTX2060 gekauft für FullHD. Das hat ausgezeichnet funktioniert. Ich hatte Glück mit der RTX2060 sie lief bis 2000 MHz und hat FullHD locker gerockt bis zu hohen FPS. Also 90 - 120 FPS. Will man immer noch FullHD spielen empfehle ich eine gebrauchte RTX2060(Super) oder RTX2070 sollte man irgendwo zwischen 80 und 140 € kriegen können.
 
Der beste Artikel kommt am Samstag, im Test vor 15 Jahren :schluck:
SHEG schrieb:
Ich mag die Retro-Ecke. Das führt einem immer wieder schön vor Augen, über welche Themen man sich vor Äonen mal den Kopf zerbrochen hat. :)
Wunderbar diese Bezeichnung von Zeit zu lesen :daumen:
[wege]mini schrieb:
Die war auch "legendär".

Die erste 40nm ihrer Zeit, sehr hoher Takt, leider "nur" 128bit SI, dafür aber GDDR5.
Oder die 5770/5870 tolle Grakas:hammer_alt:

Bei diesen Artikeln wünsche ich mir mehr Bilder, wie die Karten aussahen, aber meistens kommen diese aus der Community und haben etwas authentisches :jumpin:
 
  • Gefällt mir
Reaktionen: Brati23, [wege]mini und Holgmann75
CDLABSRadonP... schrieb:
Bei DDR3 und DDR4 gab es noch eine dritte Phase, in der dann am Ende die effektiven Latenzen auch insgesamt konkurrenzlos gut wurden.
Bei SDR (Qimonda FE-7) und DDR1 (BH-5 und TCCD) war das auch der Fall. Bei DDR2 bin ich mir gerade nicht sicher.
 
@Redaktion
"Am Ende des Tests ließ sich festhalten, dass die Radeon HD 4870 vor allem von ihrem höheren GPU-Takt profitierte und der GDDR5-Speicher zwar insgesamt nützlich, aber nicht der Star der Show war."

Das geben die Balken nicht her.

Und hier stimmt auch was nicht, 4850 schneller als 4870?
cb_1.JPG
 
[wege]mini schrieb:
Später war dann Raja Koduri Schuld.
Später kam dann erst mal die radeon 5000 serie welche nVidia das fürchten lehrte.
Und ATi/AMD Treiber fand ich ehrlich gesagt nicht besser/schlechter als die von nVidia.

Beide seiten haben mist gebaut.
nVidia hat und das muss man einfach sagen, die bessere Werbeabteilung.

Ich kann mich an nichts vergleichbares wie "best Played on ATi" oder AMD oder "the way its ment to be played" von ATi/AMD errinern, in keinem Spiel.
Gab sogar spiele in denen das nVidia Logo zu sehen war obwohl man eine ATi Karte hatte.

Bei Intel war es nicht anders. Intel Inside Logo und Animation mit Pentium Logo wenn ein Pentium in der Kiste war. Von AMD hab ich sowas nie gesehen. Nie.
 
Ich hatte eine HD4850. Was ein Schrottding. Soviele schlechte Treiber, soviele Probleme dadurch in Spielen. Habe dann ein Update auf eine GTX560 gemacht. Damit waren die Probleme dann gegessen.
 
DevPandi schrieb:
Ein guter Chef erkennt Probleme und Hürden

Auch das ist richtig.

Aber der Chef ist nicht dafür zuständig, die Menschen einzustellen und dann zu überwachen, ob sie tatsächlich den Anforderungen gewachsen sind, für die sie eingestellt wurden.

Die Lehrausbilder, die ich kennen gelernt habe, heulen z.B. ständig über die Personaler, die ihnen den Mist beschafft haben, den sie jetzt ausbilden müssen.

Wenn der Daumen auf dem Nagel ist, damit der gerade angesetzt wird und der Lehrling kurz davor ist, mit dem Hammer auf den Daumen zu schlagen (keine erfundene Geschichte), du erklärst dass das keine gute Idee ist und du dem Lehrling beim Denken zuschauen kannst, würdest du am liebsten in der Personalabteilung alle feuern.

Oder wenn jemand lacht, wenn er bei Kontermutter nicht weis, was es ist und meint, du redest von der Mutter seiner Frau. Oder der Spannring ist ein zu enger Gürtel.

Man muss nehmen, was man am Markt bekommen kann und wenn das Personal mies ist, ist nicht unbedingt immer der Chef schuld.

Wir hätten beim FC Energie Cottbus auch gerne einen Messi. Unsere Spieler glauben aber eher, du redest dann über jemanden, der sich von Müll nicht trennen kann. Für besseres Personal haben wir aber kein Geld. :(

mfg
 
Hmm ja...meine 4870 ist nen schnellen RAM-Tod gestorben damals. Wurde dann doch wieder NV^^
 
3850 GDDR3 - 3870 GDDR4 - 4850 GDDR3 - 4870 GDDR5 - 4890 GDDR5 so kenn ich das , und ja ich hatte sie alle inkl. 3870 X2 die coolste war aber die 4870
 
MORPEUS schrieb:
btw. Schaut euch mal die Grafikkartenpreise an. Eine Mittelklasse Grafikkarte für ein paar 80 € neu. :love:

https://www.computerbase.de/2009-04/test-ati-radeon-hd-4770/#abschnitt_preisleistungverhaeltnis

Was legt man heute für eine Mittelklassegrafikkarte hin (die zusätzliche Schummeleien á la FSR und DLSS benötigt um halbwegs zu performen) → 800 €? Das Zehnfache?
Im Strahl kotzen könnte ich. :kotz:
Nicht kotzen, einfach nicht das Spielchen mit spielen. Mondpreise können nur ausgerufen werden, wenn sie auch bezahlt werden.
Und Spielspaß hat nicht wirklich was mit sagenhaft umwerfender Grafik zu tun, daß hat man doch neulich erst wieder bei Gollum gesehen, oder?

Manchmal ist weniger mehr, ich glaube, ich werde zu Grabe getragen mit meiner 1070ti 😂
 
  • Gefällt mir
Reaktionen: hongkongfui und konkretor
halbtuer2 schrieb:
Nicht kotzen, einfach nicht das Spielchen mit spielen. Mondpreise können nur ausgerufen werden, wenn sie auch bezahlt werden.
Ich weiß. Mach ich ja auch nicht. Habe mir zur "kurzzeitigen Überbrückung" :freak: vor 2-3 Jahren eine RTX 1650 (ebenfalls überteuert) gebraucht geholt. Wahrscheinlich nehme ich die auch mit ins Grab.

Nee im ernst. Ich habe die Hoffnung aufgegeben. Der Konsumverzicht bringt nichts.
a) Was willst Du machen wenn dein alte Grafikkarte abraucht?
b) Für Nvidia ist das Gamer-Grafikkartengeschäft nur noch ein minder-rentabler Klotz am Bein. Im professionellen Umfeld - gerade jetzt mit dem KI-Gedöhns - rennen die Kunden denen die Bude ein, so dass die Nachfrage gar nicht befriedigt werden kann - und das zu 20-50x höheren Preisen. Warum also teuren Wafer-Platz an Gamer verschwenden. So traurig es ist, aber ich würde es auch nicht anders machen. Nvidia (und andere Grafikkartenhersteller) sind nicht die Heilsarmee, sondern Firmen die (möglichst hohe) Gewinne erwirtschaften müssen.
Insofern ist da keine Besserung der Lage für uns in Sicht. :heul:
 
Ja, ich erinnere mich noch an den Artikel – und an die Zeit, als man für eine ordentliche Grafikkarte nicht das eigene Mütterlein verkaufen musste. In der "guten alten Zeit" war tatsächlich nicht alles schlecht …

Gruß Jens
 
  • Gefällt mir
Reaktionen: hongkongfui
Ich hatte zu der Zeit eine GTX 260/ 285 und eine HD4850 und dann 4890. Ich habe zu der Zeit wie ein Verrückter Flatout gespielt. GTA IV müsste auch aus der Zeit sein.
 
Das waren noch Zeiten, nvidia hat noch mehr Speicher geliefert, hier über 800 vs 512.
 
Mich wundert es nicht, dass GDDR5 allein nicht viel gebracht hat. Die Arch war durch die niedrige Anzahl ROPs limitiert. Das war schon bei der 3000er Serie so. NV hat da deutlich mehr ROPs gehabt. Auch die TMUs waren bei NV mehr.
 
MORPEUS schrieb:
Ich weiß. Mach ich ja auch nicht. Habe mir zur "kurzzeitigen Überbrückung" :freak: vor 2-3 Jahren eine RTX 1650 (ebenfalls überteuert) gebraucht geholt. Wahrscheinlich nehme ich die auch mit ins Grab.

Nee im ernst. Ich habe die Hoffnung aufgegeben. Der Konsumverzicht bringt nichts.
a) Was willst Du machen wenn dein alte Grafikkarte abraucht?

Willkommen im Club der Leute, die es zumindest noch mit Humor nehmen können.

Konsumverzicht bringt schon was, denke ich mal, wenn das Produkt in den Regalen liegeb bleibt, wird vielleicht mal über die Preispolitik nach gedacht.
Und falls meine derzeitige Grafikkarte abraucht: ich hab hier noch eine Radeon HD 7870 rum liegen, die funktioniert noch.
Ich könnte zwar kein Project Cars mehr spielen, vermutlich auch kein Rise of the Tomb Raider, aber sie würde zumindest auf meinem PC noch ein Bild hervor zaubern.
Zur Zeit ist da nichts, was mich noch zum Kauf einen neuen Karten hinreißen würde, ich bin so langsam raus aus dem Alter, muss ich gestehen.
Ich glaube tatsächlich, diese 1070ti, die ich hier habe, wird meine letzte angeschaffte Grafikkarte sein, ich hoffe, sie macht noch ein paar Jahre, bis mein Spieltrieb dann gänzlich verschwunden ist.

Und wenn nicht: daß Ur- Doom läuft auch noch auf der HD 7870 😉
 
  • Gefällt mir
Reaktionen: EntelodonX
Zurück
Oben