News Verwirrung um „Radeon HD 6700“-Spezifikationen

Es ist wirklich sehr verwirrend.

Eine Grafikkarte die die Hauptpriorität in Sachen Performance-pro-Watt hat, soll angeblich weniger Stromverbrauch.
Also, eine HD 6770 mit einer Leistung von HD 5870 soll ca. -25% weniger Strom verbrauchen.
Sehr verwirrend,
vor allem da sich der HD 5870 noch an der damals schlechten 40nm-Fertigung orientieren musste und dementsprechend mehr Strom verbrauchte.

Es scheinen manche zu vergessen, der Sinn einer neuen Generation ist heutzutage die Effizienz zu steigern.

Wenn HD 6770 (Barts) eine TDP von 150 Watt hat, könnte die HD 6870 (Caymann) eben eine 225W-TDP haben, da HD 6870 "nur" 50% größer sein soll.
Sicher wäre das unüblich, aber der 32nm-Cancel war ja auch etwas unüblich.
 
Whoozy schrieb:
@terraconz: Also ich denke mal nicht das PhysX hier das Thema ist. Also wenn du sonst nichts zu sagen hast dann lass es. Desweiteren möchte ich nur noch eine sache sagen, Physikberechnung gibt es schon länger als PhysX. Und es wird sowieso in absehbarer Zeit eine offene Lösung geben für Nvidia sowie für AMD, alles andere macht keinen Sinn. Also mach dir nicht ins Hemd.

Es geht auch nicht darum ob Physx oder Bullet oder Havok oder was weiß ich...........
Es geht darum das Nvidia atm mit ihrem Geld (nennt es von mir aus Schmiergeld) die PC Spiele Entwickler massivst unterstützt. Da wird Code von Nvidia Developers geschrieben oder eigens Developer auf Nvidias kosten eingeflogen um Sachen wie AA oder eben Physikberechnungen zu implemetieren. Siehe Batman AA z.b.! Wer springt dann in die Bresche? Denkst du ernsthaft das AMD oder Intel da nen Finger rühren? Und denkst du ernsthaft das die AAA Spiele Entwickler von sich aus mehr für die PC Fassung tun? Nein, die konzentrieren sich auf die Konsolen und schieben dann mit Glück nach nem halben Jahr nen halbgaren Port für PC nach in dem nichts verbessert wurde. Also ich persönlich bin froh das ich Mafia 2 z.b. nicht für meine PS3 sondern für den PC kaufen konnte, da das mehr an Features schon ein schalgendes Argument ist. Wie gesagt völlig unabhängig von Physx, würde AMD ihr Bullet ähnlich pushen und ne Art TWIMTBP Programm auflegen wäre ich genauso zufrieden, das Problem ist sie kommen nicht in die pushen oder haben kein Interesse daran. Was auch verständlich ist da sowas die Karten verteuern würde und das ist das letzte was AMD brauchen kann.
 
Ich finde die Entwicklung ebenfalls schade.

Das die Karte unter last absolut mehr verbaucht als der entpsrechende Vorgänger könnte man ja noch mit mehr Leistung und trotzdem besser Effizenz erklären.

Schade finde ich aber auch die Entwicklung des Idle Verbrauchs.

Im fall der HD6770 sind das immerhin 5 Watt mehr, das entspricht einer erhöhung von ~28 % !
 
@terraconz: Wie auch immer, dennoch bin ich der Meinung das es in absehbarer Zeit für alle etwas nutzbares geben wird.

@mrpellepelle: Laut der Folie ist doch die Effizienz verbessert worden. Jetzt ist die Frage ob die Folie nun echt ist. Desweiteren sollte klar sein, das man in dem selben Fertigungsprozess nicht drum herum kommt bei steigender Leistung den Stromverbrauch auch zu erhöhen.

Ich mein was soll das ? alle schreien nach mehr Leistung, beschweren sich dann aber das der Verbrauch steigt. ich würde das gemecker verstehen wenn wir jetzt bei 28nm ankommen würden und absolut der Verbrauch steigt. Aber grade hier sollte das Verständnis wohl größer sein, das beim selben Fertigungsprozess das ganze ein unmögliches unterfangen ist.
 
Hallo

Ich verstehe die ganze Aufregung nicht, solange keinem offiziellen Daten von AMD bestätigt sind, ist alles andere nur pure Spekulation. Also abwarten und Tee trinken.
 
ascallon schrieb:
der preis wird bestimmen, welches segment die einzelnen karten bedienen sollen. wenn die 6770 199,- euro kostet wird sie kein nachfolger der 5770 sein. und für 140 euro ist die performance viel zu hoch.

Die 3870 und 4870 wurden jeweils mit 210€ Startpreis Veröffentlicht, die 5870 vom Fleck weg für 350€ - Der Name ist nicht zwingend an einem Preis gebunden, und die Leistung ist viel zu relativ um sie an Namen zu binden. Zumal: was heute als Allround Performance mit Leistung für die Masse die 5770 für ~135€ ist, war vor 3 Jahren die 8800 GT für 200-250€, ne Zeitlang mit ner HD4850 oder GTS 250 etwas günstiger, aber GTX 260 lagen auch gut an den 200€ oder drüber.
Es wäre also nicht unmöglich, das 6770 und 6750 ein Preissegment um 50€ höher des jetzigen bedienen. Mit den HD66XX, HD65XX und HD6400XX gibt es dann noch genügend potentielle Karten, um die Preisregionen unter 150€ zu bedienen, vielleicht auch mal ohne das alle 8€ ne neue Karte wartet, sondern erst alle 12€.

Mit Logik ist dieser Frage schlussendlich nicht bei zu kommen, es gibt für beide Szenarien genügend Für und Wider.
Was jedoch fest steht ist die Tatsache, das ein Barts als HD6800 und Cayman als HD6900 so ziemlich jeder als Marketingfehler ansehen würde.
 
Wo ist denn das Problem? Sofern die Daten stimmen, verbraucht die HD 6770 weniger als die HD 5850 und ist gleichzeitig schneller. Aktuell ist die HD 5850 ja auch schneller als die GTX 460 und gleichzeitig sparsamer.
Wenn das mal keine Verbesserung ist, weiss ich auch nicht weiter.
Natürlich müssen die Daten erst mal stimmen, bevor wir uns zu euphorisch über AMD's neue Kassenschlager freuen.

Die HD 6770 wird sowieso keine Mainstream-karte. Die spielt in einer höheren Liga als die HD 5770, angefangen beim Preis.
Die HD 6750 hingegen könnte möglicherweise die HD 5770 ablösen. Ähnliche TDP, gleiche Preisregion (150 Euro?), höhere Leistung, mehr Features usw.
Aber ich schätze, die HD 5700 werden uns wohl noch länger begleiten und dürften in den nächsten Monaten weiter im Preis fallen.
Oder erscheinen die HD 6600 bereits in diesem Jahr?

Aber ich sehs schon kommen. Die ganze Folie war ne einzige Verarsche. ^^
 
Zuletzt bearbeitet:
@Whozzy:
Und wer würde deiner Meinung nach das Zepter in diesem Bereich in die Hand nehmen wenn Nvidia sich gänzlich in den professionellen Sektor zurückgezogen hat? Es bleiben dann nur AMD und/oder Intel die die Macht hätten sowas zu bewerkstelligen und keiner der beiden zeigt Interesse daran. Oder hast du eine andere Firma im Sinn die mir grad nicht einfällt?
 
computerbase83 schrieb:
..abwarten was die zukunft bringt ob ATI oder NVIDIA hauptsache endlich mal gute Karten

Wo ist dein Problem? Es gibt genügend gute Karten!
Viel Leistung für wenig Geld, und geringem Verbrauch unter Last und Idle, verglichen mit den Karten der letzten Jahre.
Wenn du die Leistung einer GTX 480 erwartest, mit dem Verbrauch einer 5450, dann kannst du noch 5-6 Jahre warten, denn das ist absolut unrealistisch.
 
Es gibt doch bereits Alternativen, eine hast du schon genannt Bullet. Nur wenn Nvidia sich als weitaus stärkerer Konkurrent da reindrückt wird das so erstmal nichts werden. Aber wie gesagt das wird auch ein Ende haben. So und nun basta ich habe keine Lust mehr mit dir darüber zu plaudern. Ich habe schon bereits in meinem ersten Posting gesagt das es hier nicht wirklich reingehört.
 
Zum Thema Preise; ist aus dem Chiphell-Forum zu hören (ich weiß, alles Spekulation): Die Preise sollen bei 239 und 279 US-Dollar liegen. Mit umgerechnet 185 (6750) und 215 (6770) Euro wären die neuen AMD-Grafikkarten zwar teurer als gedacht, würden aber bei der versprochenen Leistung genau ins aktuelle Preisgefüge passen.

Edit: Ich denke übrigens nicht, dass die Karten wie die HD 5800 nach kurzer Zeit im Preis ansteigen werden. Dafür ist die GTX 460 zu beliebt und NVidia kann da ja immer noch etwas an der Preisschraube drehen. Selbst wenn die Leistung stimmt, ne GTX 460 1GB für ~ 150€ wäre für viele dann wahrscheinlich noch interessanter.
 
Zuletzt bearbeitet:
Wenn die Daten tatsächlich stimmen sollten, dann kann sich Nvidia warm anziehen und gleichzeitig die Taschentücher auspacken. Geschätzt 70-85% mehr Leistung bei einer lediglich um 35% gestiegen Leistungsaufnahme ist schon krass. :D

Arbiter Elite schrieb:
Also kommt die Midrange 67xxer Reihe vor der Highend 68xx?
Schade...

AMD greift zuerst die GTX460 an, die einzige Gute Karte, die Nvidia im Moment auf dem Markt hat.

Dr. MaRV schrieb:
Ich frage mich warum ständig über so unnütze Sachen wie ATI ist viel Stromsparender geschrieben wird? Wen interessiert der Stromverbrauch? Leistung wird gefordert.

Also wenn eine HD5870 oder GTX480 100W mehr verbrauchen würden, wäre es egal. Hauptsache zusätzlich 5% Leistung. Alles klar. :lol:

terraconz schrieb:
Meiner Meinung beschreitet AMD genau den falschen Weg mit seinen Karten atm. Es hat ja zur Vorstellung der der HD5k Reihe kurz Hoffnung gegeben durch Eyefinity das AMD endlich auch mal an den Features arbeitet und nicht nur an der Rohleistung. Was interessiert mich Rohleistung wenn das was dabei rauskommt scheiße aussieht/weniger Funktionen bereit stellt?

AMD verbessert die Leistung seiner Grafikkarten (also MEHR Leistung/Watt) und das soll falsch sein!? :lol:
Versuch mal etwas logisch zu denken, sonst fliegst du noch von der Hauptschule. :)

mrpellepelle schrieb:
Ich finde die Entwicklung ebenfalls schade.

Das die Karte unter last absolut mehr verbaucht als der entpsrechende Vorgänger könnte man ja noch mit mehr Leistung und trotzdem besser Effizenz erklären.

Jetzt haben die Karten doch mehr Leistung pro Watt, was soll den daran falsch sein? Wenn man die Daten auf andere Grafikkartenmodelle übertragen würde hätte meinetwegen eine 6670 oder 6570 mehr Leistung als eine 5770, würde aber weniger verbrauchen. Also ist doch alles in Ordnung, besser kann es doch gar nicht kommen! :)
 
Zuletzt bearbeitet:
Ich hoffe das AMD da was feines aus dem Hut zaubert und den Konkurrenzkampf weiter anfacht. Davon profitiert man als Kunde ja nur :)
Die Stromaufnahme ist mir persönlich eher egal, fällt meiner Meinung nach nicht so stark ins Gewicht und dürfte im Vergleich zu meiner 4870 X2 auch nicht viel mehr steigen :P
 
Bahn frei für eine spätere 5730 mit reduziertem Takt und ev. kleinerer Speicherbandbreite, die die gleiche Leistungsaufnahme wie eine 5770 haben wird aber ein gutes Stück schneller ist, bei gleichem Preis. So solls doch sein, oder? ;)

Hoffentlich hat es AMD nun auf die Reihe gekriegt im Idle die Speicherspannung zu reduzieren. Dann sind die Leistungsaufnahmewerte auch gleich wieder viel besser. Nur zur Info: Das macht bisher nur die GTX460....
 
Zuletzt bearbeitet:
Ich finde es gut das AMD da noch mal schwung rein bringt in 40nm.
Die 6770 XT wäre so wie sie nach der Folie erscheinen soll ein inteligenter schritt von AMD.
Da NV ja noch Ihren 104 Chip haben den sie freischalten können auf 384 Schader.
Womit beide Hersteller dann bei der Leistung einer HD5850 und GTX470 Nieveu wären oder gar in manchen Fällen an einer HD5870 kratzen würden.
Mir soll es recht sein.
Ich hoffe das AMD einen vollausbau Highend Single Chips alls Dual Karte bringt.
Was bei 225 W (was ich jetzt schätze)wohl nicht ganz so einfach wird.

Auf Die Single Highend Lösung seitens AMD erwarte ich den Konnter seitens NV mit dem 110 Chip.
Der aber mit rund 550mm² und 576 Shadern ein ganz schöner Heizer werden könnte wen das stimmt was so kursiert.
@DVP
Haben sie doch mit der 6750 bei 118W.
Na die 10 W mehr bei GTX460 Nieveu .
Wir sind ja auch nicht bei 28nm oder sowas angekommen etwas mehr wird sich sich die neue Serie schon genemigen.
Zumal die GTX460 da schon bei 160 W ist.
 
Zuletzt bearbeitet:
terraconz schrieb:
AMD muß endlich wieder zu alter Stärke finden und damit meine ich die gute alte ATI Zeit. Im Moment ist AMD nichts weiter als der Aldi der IT, so billig wie möglich und nur mit Balkenlänge überzeugen zu wollen. Aber wie man sieht scheint es ja beim Großteil der Käufer zu ziehen, leider. Die machen sich halt ausser um Balken/avg FPS sonst keine Gedanken.

Hm, ich will Spielen und dafür brauche ich Leistung zu einem guten Preis.
Warum sollte ich für Features bezahlen, die ich nicht haben will?
 
Fuzi0n schrieb:
Wenn die Daten tatsächlich stimmen sollten, dann kann sich Nvidia warm anziehen und gleichzeitig die Taschentücher auspacken. Geschätzt 70-85% mehr Leistung bei einer lediglich um 35% gestiegen Leistungsaufnahme ist schon krass. :D




Also wenn eine HD5870 oder GTX480 100W mehr verbrauchen würden, wäre es egal. Hauptsache zusätzlich 5% Leistung. Alles klar. :lol:

Hier wird aber nicht um 100W sondern um 20, 30 oder gar nur 5W gejammert, 5W das macht nach 200 Betriebsstunden 19 Cent aus, so arm ist kein Schwein das man nicht jede Woche 20 Cent in die Spardose werfen könnte. Man kann es auch übertreiben mit dem ganzen Verbrauchsgelaber...

Wie kommst du auf eine Steigerung der Leistung von 70%? Von der Fermi Architektur kursierten am Anfang auch Gerüchte von 50, teils sogar über 100% Mehrleistung zu AMD, am Ende waren es nur wenige Prozent, wie du selbst schon festgestellt hast. Nimm es mir nicht übel, aber für mich du ein typischer AMD/ATI Fanboy. Und ja, wenn ich unbedingt die stärkste und schnellste Karte haben möchte sch**ße ich auf 100W Mehrverbrauch, da kann das Ding auch 200W mehr verbrauchen. Die 20 Cent mehr am Tag zum Zocken gönne ich mir dann. Wer seinen Rechner 24/7 laufen lässt um zu downloaden oder sonst was und sich dann über zu hohen Verbrauch aufregt/ärgert, macht so oder so generell etwas Falsch, dafür reicht auch ein kleines System auf Atom Basis was unter Vollast nicht mehr als 25-30W verbraucht.
 
Nun, Features will der Normalverbraucher aber.
Physikalisch korrekte Zerstörung gehört zur guten Grafik dazu, ist aber mit reiner Rohleistung kaum zu bewerkstelligen, da gehören extra dafür abgestellte Transistoren her.
Dasselbe mit Eyefinity, bevors das gab musste man sich für einen 3-Monitor Betrieb immer so n komisches Teil kaufen "Triple Head 2 Go", na alles klar bin ich aber heilfroh, dass ich jetzt (auch meinen Office PC) quasi ohne Aufpreis mit 3 Bildschirmen betreiben kann.
Solche Features will man, und in der Tat hat AMD hier mit Eyefinity ein großes Vorbild abgegeben, das ist ein Feature, das man überall gebrauchen kann, Büro, Multimedia, Gaming, Überwachung etc. etc.

Weger Leistungsaufnahme: Alles Spekulationen, selbst wenn da was offiziel WÄRE würds nicht stimmen (wie man in Tests oft sieht). Da braucht man über Gerüchteweise Verbauchseigenschaften gar nicht reden, was wir einzig wissen ist, dass es wieder 40nm sein werden, ergo sind große Überraschungen (positiv, wie auch negativ) eher unwahrscheinlich.

Und noch einmal für die, dies nicht begriffen haben, ich zitiere mal den Weltenspinner, der hats so schön gesagt, hier:
Der Stromverbrauch hat auch bei Lautstärke, Hitzeentwicklung, Karten-
sowie Kühlergröße und Lebensdauer etwas mitzureden.
Hat man ja bei der GTX480 gesehen... gute Leistung, aber auf (zu) hohe Kosten in Form von Lautstärke, Temperaturentwicklung, Karten- und Kühlergröße und Lebensdauer.

Effizienz ist das Zauberwort, hier muss gearbeitet werden und hier wird auch gearbeitet, so wies sein soll, da hat nur nVidia mal mit dem GF100 voll ins Klo gegriffen und mit dem GF106 schnell wieder nachgebessert.

mfg
 
Zurück
Oben