News AMD stellt Radeon-HD-8000-Serie für OEM-Rechner vor

Für Dich mal der neuste BF3-Benchmark von PCGH: http://www.pcgameshardware.de/Battl...attlefield-3-Grafikkarten-Benchmarks-1042773/ Wenn Dir also +60% min. FPS und avg. FPS noch zu wenig ist beim Wechsel von 6970 zu 7970, dann ist für Dich in der Tat erst ein Wechsel bei der übernächsten Generation sinnvoll. Allerdings verstehe ich nicht, wie einem 60% Mehrleistung noch zuwenig sein kann, aber jedem das Seine...
 
AnkH schrieb:
Für Dich mal der neuste BF3-Benchmark von PCGH: http://www.pcgameshardware.de/Battl...attlefield-3-Grafikkarten-Benchmarks-1042773/ Wenn Dir also +60% min. FPS und avg. FPS noch zu wenig ist beim Wechsel von 6970 zu 7970, dann ist für Dich in der Tat erst ein Wechsel bei der übernächsten Generation sinnvoll. Allerdings verstehe ich nicht, wie einem 60% Mehrleistung noch zuwenig sein kann, aber jedem das Seine...

Weil 60% nunmal nicht viel ist. Vor ein paar Jahren waren 100% die Regel und nicht die Ausnahme bei jeder Generation. Und den wirklichen WoW-Effekt hatte man nach etwa 2-3 Generationen.

Von Geforce 6 auf Geforce 8 sind 300%. Dafür musst du heute fast ein ganzes Jahrzent warten.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9234186#post9234186
 
Vielleicht bekomme ich im Herbst für meine alte Radeon 9800 ja noch einen guten Preis ;)
 
@G3cko: Die 8800er auf G80- und später G92-Basis waren aber auch eine Ausnahmeerscheinung, ebenso die Ati 5800er Reihe. Das hast einfach nicht bei jeder Generation... zudem kranken zumindest die High-End Karten mittlerweile an ihrer Leistungsaufnahme - wo früher halt mehr Strom gezogen und ggf. die Kühlung aufgebohrt wurde hat man seit es 200-250 Watt Grafikkarten gibt einfach ein Limit erreicht das man mit Luftkühlung gerade noch so unter Kontrolle halten kann, zusätzlich ist das Umweltbewußtsein (zumindest bei manchen) heute stärker ausgeprägt. Ich denke mal wenn die nächste Generation zwar 100 % mehr Rechenpower hätte, aber dafür auch 400-500 W verbrauchen würde, das würde nicht so gut ankommen (und wäre für Luftkühlung auch ein ziemliches Problem).
 
Zuletzt bearbeitet:
Äpfel mit Birnen, wie so oft. Wenn Du Geforce 6 mit Geforce 8 vergleichst, must Du auch berücksichtigen, welcher Zeitraum dazwischen liegt, nämlich ziemlich genau 3 Jahre. Nimmst Du nun die Kepler, Erscheinungsjahr 2012, so musst Du den Vergleich mit einer Karte aus dem Jahre 2009 machen, z.B. GTX680 mit GTX280. Und was stellt man da fest: natürlich nicht 300%, aber trotzdem ein ordentlicher Schritt. Zumal die 300% Käse sind, je nachdem mit welcher Software man den Test macht. Nimmst Du beispielsweise Crysis Warhead und geneigte Settings, so ist eine GTX680 auch mal schon 100% schneller als eine GTX580, siehe hier: http://www.pcgameshardware.de/Grafi.../Test-Geforce-GTX-680-Kepler-GK104-873907/16/
 
Gezielte Kundenverwirrung mit dem Ziel, diese zu täuschen. Mehr braucht man zur Namensgebung aktueller Grafikkarten nicht zu sagen. Es ist sehr traurig und bezeichnend, wenn dies so offensichtlich betrieben wird.

ist nicht neu. Gabs schon vor Jahren zb. in Aldi-Rechnern.
 
An alle die denken, dass jetzt jede HD8000 eine umgelabelte HD7000 ist, dies gilt nur für den OEM-Markt! Sprich: Alle Fertig PC´s!
Die HD8000 die für den Einzelhandel erst noch rauskommen (vorraussichtlich Q2/2013), sind natürlich vollwertige Neuerungen und keine umgelabelten HD7000 Grafikchips! Bitte nicht verwechseln!

Hier gilt, wer solche Fertig-PC´s kauft, wird so oder so verarscht! Bei Qualität, beim Preis und meistens auch bei der Beratung/Service!

Da dies uns User hier im Forum hoffentlich nur zu 0,00001% betrifft, kanns doch egal sein!
 
Zuletzt bearbeitet:
Ich persönlich finde es aber trotzdem mehr als unnötig von AMD, selbst wenn es nur in den Fertig PC's ist, wird es so für ne große Verwirrung sorgen.
Wehe Nvidia zieht mit diesem Müll bei den GTX Karten auch noch nach -.-
 
Michi879 schrieb:
Ich persönlich finde es aber trotzdem mehr als unnötig von AMD, selbst wenn es nur in den Fertig PC's ist, wird es so für ne große Verwirrung sorgen.
Wehe Nvidia zieht mit diesem Müll bei den GTX Karten auch noch nach -.-

Was ist dann?

Nvidia hat dafür bei den Notebookchips nachgezogen :)

Viel spaß beim weiteren aufregen :)

https://www.computerbase.de/2013-01/nvidia-kontert-rebrand-aktion-von-amd/

Dort ist es noch viel "ärgerlicher"!
Zitat ComputerBase.: "Nach anfänglich ein oder zwei Modellen, die weitergeführt wurden, vermischen sich mittlerweile bis zu drei, vier Generation in einem Produktupdate für ein neues Jahr."

:freak:
 
Zuletzt bearbeitet:
AnkH schrieb:

da gebe ich dir vollkommen Recht. ABER ich spiele höchstens 4 Stunden in der Woche und da lohnt sich für mich die Ausgabe von über 300€ einfach nicht. Hohen Einstellungen in FullHD reichen mir.

Ich hätte ja noch meine alte und geliebte HD 6850 gehabt (meine erste Richtige Grafikkarte) jedoch machte ich ein Fehhler es mit Combat Gaming Power Netzteil laufen zu lassen. Der Rechner musste dran glauben und ich musste einen neuen PC kaufen (dieses mal mit Markennetzteil :D )
 
Ich mag ja auf den Schlauch stehen, aber kann mir mal jemand erklären was das mit dem Rebranding auf sich hat? Was ist der Sinn dahinter. Bringt das wirklich neue Käufer? Das wage ich doch stark zu bezweifeln.
 
ich denke mal so. Damit haben die Entwickler mehr Zeit für neue GPU Architektur. Und da man heute dank Konsolen keine so hohen Anforderungen stehen, können die sich das erlauben. Verdienen länger Geld mit fast gleichen und leicht überarbeiteten Grafikkarten.
 
G3cko schrieb:
Von Geforce 6 auf Geforce 8 sind 300%. Dafür musst du heute fast ein ganzes Jahrzent warten.

Wenn man das nicht in Prozenten sondern in absolutem Leistungszuwachs rechnet, sind die Sprünge heute aber größer als jemals zuvor. Wenn du z.B. ausrechnest, wie viele alte GeForce 6 in die Leistungslücke zwischen einer HD6970 und HD7970 passen, sind das ziemlich sicher viel mehr als nur 2.

Man kann sich halt nicht ständig verdoppeln. Ansonsten würden wir uns ja exponentiell unendlich schnellen Grafikkarten nähern. ;)
 
Läuft für mich unter "Betrug am Kunden".

AMD ist echt zum in die Tonne treten.... haben die die Marketingabteilung von OS/2 übernommen?
 
Ich empfinde das als Etikettenschwindel. Die 8000er-Kennung gaukelt die neuste Technik vor und die zahlreichen, unwissenden Käufer werden über die Aktualität der verbauten Technik getäuscht. Man kann dieses Vorgehen nur als unehtisch bezeichnen.

Grüße
Mork
 
ZeT schrieb:
Läuft für mich unter "Betrug am Kunden".

AMD ist echt zum in die Tonne treten.... haben die die Marketingabteilung von OS/2 übernommen?

Da ist Nvidia natürlich um Welten besser was Marketing angeht! (Vorsicht Ironie!)
Beide Unternehmen schenken sich da nix!

Was dagegen tun kann man nicht!
 
Ehrlich gesagt verwundert mich das ganze nicht, nur der Zeitpunkt verwundert mich. Sinnvollerweise hätte man das ganze bei Einführung der Turbo-Karten gemacht. Es wäre kein reines umlabeln, obendrein hätte man das gut begründen können, da mit den GHZ-Editionen/V2/7870 Black „Tahiti LE“ etc. eh damals viele sich beschwert haben, dass man ja kaum mehr durchblicken kann welche Version man nun hat. Obendrein wären die Karten in der Herbst bis Weihnachtszeit gekommen ein ausgezeichneter Zeitpunkt.

Volker schrieb:
Aus HD 5450 wird HD 8350. Awesome! So kann man auch vier Jahre alte Technik noch als neu verkaufen
Na bei Nvidia wird halt genau das gleiche passieren, das kündigt sich ja schon an. Wenigstens sind beide Unternehmen in der Hinsicht gleich "super".
Zu den Karten braucht man nun wirklich nichts zu sagen, das sind doch wirklich reine OEM wünsche, warum sollte AMD in diesem Leistungsbereich noch Karten entwickeln? Die sind ja nur knapp besser als die Onboardlösungen und gegen die APU intigrierte Grafiklösung kommen sie dann nichtmal mehr an.
Was soll man atm an einer solchen Unperformance-Karten auch neuentwickeln? DX11 können die Karten, UVD ist dabei. Das ist doch einfach nur Affig. Wenn ich mir einen DVD-Player,Toaster,etc kaufe, der nun eine andere Nummer hat als im Jahr davor, dann werde ich doch auch nicht geil und denke mir, der hat all die neuen Funktionen.
Und die Sachen weiter als 5450 zu kaufen wäre doch auch nur dämlich, dann würde jeder denken, das Ding ist veraltet, aber das ist ja nicht der Fall, es ist halt nur eine Einsteigerlösung, und dass der Produkt-/Entwicklungszyklus bei diesen in einem langsameren Tempo läuft als im Highend sollte nun wahrlich niemanden überraschen.


BTW. Ich habe mich zuletzt mit einer gebrauchten 5770 verstärkt, reicht für mein Gelegenheitsspiel ist zwar nicht Performancetechnisch auf dem Niveau einer aktuellen Hochleistungskarte, aber das brauche ich ja auch nicht. Im Einsteigerbereich ist zwischen 5770 und 7750 weder was Features noch was Leistung angeht ein spürbarer Unterschied. Jetzt ist es quasi das selbe wie eine 8740.
Was natürlich durchaus interessant ist....
https://www.computerbase.de/2012-02/test-amd-radeon-hd-7770-und-hd-7750/5/
von 7750 nach 7970 ---> +176%
bzw um es noch übler wirken zu lassen
https://www.computerbase.de/2012-08/test-amd-radeon-hd-7950-mit-925-mhz/2/
von 7750 nach 7970 GHZ ---> +233%

Und damals:
https://www.computerbase.de/2010-02/test-ati-radeon-hd-5830/18/
von 5750 nach 5870 Ghz --> +99%

Man sieht es wurde durchaus Platz geschaffen um die x8y0 und x9y0 Serien zu haben und nicht nur die x8y0.
Natürlich kann man sagen, dass wurde auf Kosten der x7y0 Reihe gemacht, da diese sich kaum weiterentwickelt hat. Aber Fakt ist nunmal der Anspruch an eine derartige Eingangs-Midrangekarte ist in den Jahren auch kaum gestiegen. Wenn dies geschieht werden die Karten auch wieder ein Stück näher aneinander Rücken.
 
Zuletzt bearbeitet:
Da hast du ja auch recht, aber in diesem Artikel geht es nicht um Endivia sondern um AMD. Das sich diese beiden Firmen nicht sooo viel nehmen sollte ja auch bekannt sein.

Ich finde es nur frustrierend wo sich AMD hinentwickelt hat. Meine erste selbst verbaute CPU war ein 166Mhz AMD. Damals (im Endeffekt bis zur Übernahme von ATI) einer meiner Top 5 Firmen überhaupt. Aktuell steht AMD bei mir ganz weit unten. Viel Rauch um Nichts. Falsche Versprechen oder überhöhte Erwartungen geschürt und den Kunden bitter enttäuscht.

Nach der Bulldozerfarce ist der einzige Vorteil den AMD hat, der Nachteil von Intel im Bereich der integrierten GPU.
 
Zurück
Oben