News Verwirrung um „Radeon HD 6700“-Spezifikationen

@computerbase83 in der news von deinem link steht nichts vom stromsparend ;) würde mich wundern wenn aufeinmal die nvidia gpus stromsparend werden. man hat nur allzu gut gesehen, dass bei fermi mehr leistung = viel mehr strom bedeutet...
 
Die Karten werden niemals an die aktuellen Preise von der 5700er ran kommen.
Denn sie liegen knapp vor der 5850 die aktuell 250€ kostet.
Wenn die 6700er jetzt 200€ kosten sollten, wo fängt dann die 5850 an?
 
Zuletzt bearbeitet:
Kaffeesatzlesen am Morgen und das nichtmal auf 9Live.

Aber klingt ganz spannend, welche Tendenz sich so herauskristallisieren.
 
... Leute, Leute - nun macht euch doch nicht gleich in die Hose! Außerdem kann man das Fell des Bären erst dann verteilen, wenn man ihn auch erlegt hat ... :D
 
Laut Fudzilla hat Nvidia etwas in petto um die 6xxx Reihe zu kontern, man wird allerdings erst den Launch abwarten. Irgendwie müssen die ja auch die Zeit bis zur 28nm Fertigung überbrücken.
 
Thaquanwyn schrieb:
... Leute, Leute - nun macht euch doch nicht gleich in die Hose! Außerdem kann man das Fell des Bären erst dann verteilen, wenn man ihn auch erlegt hat ... :D

Zu spät :kotz:. Man erhofft ja das beste zu billigen Preisen. Hätte mir die HD5850 auch gekauft
wenn sie nur 190€gekostet hätte. Aber 250 sind mir zuviel. Also warum dann keine 6770 für
hoffentlich 150-190€. Dann wird diese ein Kassenschlager.
 
Rollefitsch schrieb:
Der Folie nach zu urteilen würd ich mal behaupten, dass die 6750 die 5850 ablösen könnte bei fast ident. bzw. min. höherer Leistung aber deutlich geringer Stromaufnahme.
Das gleiche gilt auch für die 6770 und 5870.
Naja nicht wirklich. Die 6770 ist anhand der Daten der 5870 schon deutlich unterlegen.
Ich denke die 6770 ist leicht über einer 5850 und die 6750 zwischen 5770 und 5850.
Ich bing espannt was AMD dann darüber plaziert :)
 
Sir @ndy schrieb:
@Fermi kann dann wohl endgültig einpacken
glaub ich nicht , wenn die neuen 6er zu stromfresser mutieren.

Auch wenn die 6er Stromfresser werden, schlimmer als eine Fermi geht eh nicht. Also brauchen wir uns da keine Sorgen zu machen.

Wehrwolf schrieb:
Laut Fudzilla hat Nvidia etwas in petto um die 6xxx Reihe zu kontern

Klar haben sie das. Nvidia hat immer etwas was besser ist - zumindest in Jen-Hsuns träumen. Der Märchenerzähler würde sogar seine eigene Kinder anlügen, wenn es um sowas geht. Peinlich, aber ... The Way It's Meant To Be Played.
 
Zuletzt bearbeitet:
@computerbase83: danke für den Link schön zusehen das Nvidia kontern kann von Leistung her was die HD6870 günstiger machen könnte da Preiskampf herrscht.

@BEnBArka: Das selbe trifft auch auf die neue HD6000 Reihe zu, die HD 6770 wird auch nicht so an den TPD Werten bleiben wie bei der HD5770 geben über. Mehrleistung mehr Stromverbrauch ist doch klar.

Größsten Stromverbrauch Rückgang werden wie haben wenn nächstes Jahr von 40nm auf 28nm gewechselt wird. Obwohl man das auch nutzen wird um ein großen Sprung von Leistung zu Gewinn in den man eine 200TPD HD7870 bringen wird.
 
Diese neue Folie... könnte das nicht eine ältere sein aus den Zeiten wo man noch an Northern Islands und 28nm-Prozess glaubte? Würde auch zur sehr niedrigen Stromaufnahme passen.

lg
 
Ich frage mich warum ständig über so unnütze Sachen wie ATI ist viel Stromsparender geschrieben wird? Wen interessiert der Stromverbrauch? Leistung wird gefordert. Ich meine hier wird um so banale Sachen wie 30W geringerer Verbrauch philosophiert. Das bedeutet man spart nach rund 35h maximalem Dauerbetrieb ganze 19 Cent. Wie lange soll man da Zocken bis sich das rentiert hat? Ich freue mich auf die neuen AMD Karten, wage aber keine Vermutung zu deren tatsächlicher Leistung zu äußern, die Fermi Architektur wurde anfangs auch in den 7. Himmel gelobt teils mit gefälschten Benchmarks und wusste dann etwas zu enttäuschen. Bei mir zählt das P/L Verhältnis und da Bekommt man in meinen Augen bei nVidia mit PhysX etwas mehr geboten, wer einmal Mafia II mit PhysX gespielt hat, wird dieses Feature nicht mehr missen wollen. Leider wird es noch zu selten angewendet.
 
ja Nvidia kontert. Klar mit ner GTX490 wo man dann ein extra Netzteil dazubekommt, und ne Stickstoffkühlung! Alles zum Preis von einer Ares-Karte. Ist doch top. Nvidias GPUs sind zu Zeit nicht stromsparend zu bekommen. Übertaktete GTX460 steigen so extrem im Stromverbrauch. Nvidia hat bestimmt was, nur was und WANN???? Im Nirvana irgendwann.
 
computerbase83 schrieb:
abwarten was die zukunft bringt ob ATI oder NVIDIA hauptsache endlich mal gute Karten
...

:rolleyes: das letzte Jahr wohl verpennt oder?
Also es gibt diverse Leute die mit ihren HD57*0 und HD58*0 absolut zufrieden sind.
Leistung, Stromaufnahme, Lautstärke alles im Grünen ;)
Die 260er NV konnte da nun auch nix mehr reißen da viel zu spät...
Aber egal bin gespannt was AMD da auspackt :)
 
Unereichbar schrieb:
Wenn die 6770 wirklich so gut ist wie da steht hat meine 4850 glaube ausgedient. 0.0

Nicht nur deine! Meine geht dann auch in Rente! Die HD6770 wäre da schon ein würdiger Nachfolger.:)
 
wie erschließt sich aus der Tabelle, dass es 256bit SI ist?

Taktraten vom Speicher(GDDR5) sind gleich, und laut tabelle ist bandbreite auch gleich...
Das schnall ich nicht...

Auf jeden fall schöne TDP-Werte ;-)
Da kann es vermehrt zu Sinlge-Slot Kühllösungen kommen^^
 
Der Stromverbrauch hat auch bei Lautstärke, Hitzeentwicklung, Karten-
sowie Kühlergröße und Lebensdauer etwas mitzureden. Da sind 30W
ohne Mehrleistung schon eine ordentliche Nummer. Des weiteren zählt
das für mich in das Preis/Leistungsverhältnis hinein. Ich behalte eine
Karte gerne mal 2 Jahre. Da kommen hunderte Vollaststunden und
tausende im idle zusammen, die die Karte deutlich teurer machen.

Effizienz ist wichtig. Wir sind keine Amerikaner, die Unmengen Benzin
durch den Motor jagen, weil es Ölkriege sei Dank kaum etwas kostet
und die Entwicklung guter Motoren dort weniger einbringt als ein zweiter
Halter für Cola-Becher.
 
So schwer ist das nicht.
 
Ich sag euch ich weiß genau das die neuen AMD Karten 300 Watt im idle brauchen und der Konter von Nvidia bei 250 Watt Volllast gleich schnell rechnet. Aber wartet lieber denn nächstes Jahr bringt Intel ne Karte die bei 20 Watt Volllast das 50fache der neuen AMD und Nvidia-Karten leisten wird... Im übrigen sollte ich darauf hinweisen das diese Infos genau so zuverlässig sind wie alle anderen die grad so im Netz rumschwirren. ;-)

lg True
 
Zurück
Oben