News GeForce GTX 260 – Die Kosten müssen runter

@ bensen

Schau dir doch einfach mal die anfängliche Preisstrategie von Nvidia an.
Und was nur nach einem Monat nach Release aus aus diesen Preisen geworden ist...
Man versucht verzweifelt die Kosten zu senken. Ja, Kostensenkungen sind normal. Aber wenn es nicht nur mit einem Refresh getan ist, sondern immer wieder versucht wird mit zig Modellen eine möglichst hohe Gewinnspanne zu erzielen, dann sieht das in meinen Augen schon sehr nach Verzweiflung aus.
Wenn man den Markt gut gelesen hätte, dann wäre so ein Verhalten nicht nötig! War es ja in der Vergangenheit auch nicht...
Und natürlich rudert man von der angestrebten Strategie zurück. Wenn man das nicht getan hätte, dann würde die 260 noch immer über 300€ kosten und die 285 über 400.
Wozu so viele verschiedene Versionen, wenn man seine Strategie nicht ändern muss?


@ y33H@

http://www.ozone3d.net/benchmarks/fur/#comptable
Wie erklärst du dir diese Ergebnisse (schon weiter oben von Wiesi21 gepostet)?
Bedeutet hier nicht mehr ist besser?
 
Zuletzt bearbeitet:
@ Seppuku

Ich kenne die Benches und weiß, dass die Radeons da vorne liegen. Habe nie etwas anderes behauptet. Nur wird die volle ALU-Auslastung eben dadurch erkauft, dass die HD4870 außerhalb der Spezifikationen laufen muss. Unschön - aber ja, sie ist hier verdammt schnell. Musste man nun noch das Fps/Watt ausrechen :)


cYa
 
was fürn glück habe ich auf die radschläge nicht gehört auf den launch der 55 nm version zu warten.

bzgl. tft anschaffung muss ich sagen das ich mit meinem 215tw spva samsung glücklisch bin und ihn nicht tauschen mag gegen einen singenden 24'er
 
Zuletzt bearbeitet:
Das ganze ist ja momentan noch der status quo aber allem Anschein nach wird ATI Monate früher den RV770 Shrink auf 40nm bringen als Nvidia irgendwas in der Leistungskategorie.

@ Unyu: der RV770 hat 256mm² (55nm) nicht 334 und ist damit noch kleiner als ein G92b.

Ein RV770 in 40nm wäre nur noch knapp 140mm² groß, hätte einen deutlich niedrigeren Stromverbrauch und wäre durch etwas höherem Takt sogar noch ein Tick schneller als die alte 55nm Variante.

Dann wird es erst richtig böse für Nvidia.

Leistung = GTX 280
Stromverbrauch = fast halbiert
140mm² vs 470mm² Fläche
 
Für GTX280-Power brauchts bei den 160 5-Vecs mindesten 20-25% mehr Core-Takt, ergo deutlich über 900 MHz. Ob das per Shrink möglich ist? Ich bezweifle es. Konkurrenz aber ist immer gut :D

cYa
 
y33H@ schrieb:
@ Pickebuh

Ok, Update.

Furmark = 79A
Crysis Ice = 57A
Badaboom = 47A

Ergo lastet der Badaboom schon recht gut aus - und zwar die GPU.

Nö...
Furmark ist das einzige was zuverläßig im Windowsmodus arbeitet und dafür sorgt das die GPU wirklich zu 100% ausgelastet wird.
Crysis im Windows mit diesen Low-Profil und niedriger Auflösung zieht kaum Strom und ist daher kaum aussagekräftig.

Daraus folgt das Badaboom eben nicht die GPU voll auslastet so wie du es hier propagierst und verlagt hast das ATI gefälligst 100% auslasten soll obwohl das kostenpflichtige Badaboom schon seit über 1 Jahr auf dem Markt ist und immer noch nicht 100% liefern kann.

Furmark zieht 80 A und Badaboom 47 A.
In Folge dessen lastet Badaboom ca. 50-60% aus was schon sehr gut ist und das man von einem kostenpflichtigen Programm auch verlangen sollte.
 
@ Pickebuh

Wenn ich Fullscreen in 1.920 mit 4x und UH zocke, bin ich mit 57-60A nur knapp drüber. 47A im Vergleich zu 79A sind 60%, die CPU macht fast gar nichts (ein Core wird nicht mal zu 100% genutzt).

Nun zeige mir auf, wo der Avivo das besser macht. Weniger GPU-load, mehr CPU-load, schlechtere BQ meines Wissens. Wo ist im Übrigen dein Shot von der CPU-Auslastung beim Avivo? :)

cYa
 
Zuletzt bearbeitet:
@Seppuku
Irgendwie hast du wirre Gedankengänge. Es hat doch nichts mit einer Strategie zu tun wenn man Karten zu nem hohen Preis verkauft.
Wenn man konkurrenzlos ist verkauft man die Dinger zum Maximalpreis. Kommt Konkurrenz ins Spiel, passt man den Preis der Konkurrenz an. Das hat nichts mit nem Strategiewechsel zu tun, das macht man immer so und nicht nur im Bereich der Grafikkarten.

Wie hätte man den markt denn deiner Meinug nach lesen sollen? Man weiss doch gar nicht was die Konkurrenz rausbringt. In der nahen Vergangenheit hatte Nvidia nur keine Probleme weil ATI den R600 verkackt hat, klar das man da alle Freiheiten der Welt hat.
Es wird ja auch nur das PCB verändert. In der Vergangenheit wo es noch keine Referenzdesigns gab, bzw. genutzt wurden haben die Kartenhersteller immer alle Nase lang das PCB verändert um hier und dan noch ein paar Cent zu sparen.
 
@ bensen

Nochmals:
ATI ist eine andere Strategie gegangen als Nvidia. Das ist glaub ich jedem klar.
Die Strategie von ATI (günstigere, nicht so schnelle Karten, die günstig in der Produktion sind) hat sich durchgesetzt und den Markt diktiert. Nvidia musste also seine Strategie, die eigentlich beide schon so lange verfolgen, wie ich denken kann, ändern müssen...
Was aber nicht so einfach ist, weil die Karten eben nicht als "Billigkarten" auf den Markt kommen sollten. Deshalb auch die ganzen Maßnahmen in der letzten Zeit.
Was ist daran bitte wirr???
 
Da hat sich nvidia zu lange ausgeruht auf dem GeForce 8xxx Erfolg.

Hier kommt die Rechnung.


@bensen
Das was Seppuku sagt ist richtig.

nVidia hat nicht erwartet , dass ATI so stark sein wird und so gerechnet , dass sie ihr Geld für für teure Produkte wieder kriegen.
Wie man sieht war es nicht so und nvidia war/ist gezwungen kosten zu senken um nicht noch mehr Verluste einzufahren.


@Seppuku
Strategie war anders , aber die ATI Karten sind nicht nur günstig sondern auch nicht gerade langsam , also stimmt die Aussage nicht sooo ganz.
 
y33H@ schrieb:
@ Pickebuh
Nun zeige mir auf, wo der Avivo das besser macht. Weniger GPU-load, mehr CPU-load, schlechtere BQ meines Wissens. Wo ist im Übrigen dein Shot von der CPU-Auslastung beim Avivo? :)

Gut das du das erwähnst !
Da hat Badaboom noch einiges nachzuholen !!

Schließlich sollte man alle Resourcen optimal ausschöpfen und da Badaboom nichtmal die CPU in die Arbeit miteinbezieht ist das für mich ein großer Bug !
ATI macht das deutlich besser weil sie zusätzlich zur GPU auchnoch die CPU nutzen.

Wieder ein Punkt den ATI besser macht.
 
Eine fehlende Ausnutzung von GPU Ressourcen nennst du einen Punkt für ATI? Ja ne...
Das wäre wie wenn ein Quad eine GeForce bei Folding@Home unterstützt...nur ein Tropfen auf einen heißen Stein.
 
Wieder ein Punkt den ATI besser macht.
Wenn ein Decoder, der mit GPU-Beschleunigung beworben wird, eine DC-CPU voll auslastet und die GPU mehr oder weniger Däumchen dreht, dann ist das besser?! :freak:

cYa
 
Pickebuh deine Beiträge sind mit Abstand die besten.

Danke für das Bauchweh vor lauter Lachen. :lol:

Reagier dich an einem Sandsack oder sonst was ab, denn mit "!!!" machst du deine Hardware Geschichten nicht zum Fakt.

Eine kleine Rechenaufgabe für dich. Wieviele CPUs(Quads) braucht man um eine 9800GX2 beim Videoencoding zu schlagen.(kleiner Tipp 2-3 stellige Zahl :D) Wieviel Prozent kann also eine CPU beim Encoding mithelfen wenn sie schon die Aufgabe hat der GPU Daten zuzuschaufeln. (kleiner Tipp einstellige Zahl)
 
@Arhey
Das ist das was ich gesagt habe. :confused_alt:

@Seppuku
Was ist denn deiner Meinung nach die Strategie die sie geändert haben? Sie machen genau so weiter wie bisher. Eine Preissenkung ist normal, wenn die Konkurrenz attraktivere Produkte hat. Das ist keine Strategieänderung, deswegen wirr.


Ob ATI den Markt diktiert sei mal dahingestellt. Genauso muss ATI bei den Preisen mit der 4850/4830 aufpassen, die gegen den G92 antreten.
Sie machen sich eben beide gegenseitig die Preise kaputt.
 
ich hab mich ja am anfang gefreut, als ati mit ihren dumpingpreisen highendleistung zu mainstreampreisen gebracht hat und damit auch die preise der konkurrenz massiv gedrückt hat. aber mittlerweile muss man sich echt sorgen machen, dass es bald nur noch billigramsch gibt. -.-
nicht funktionierende stromsparfunktion hier, spulenpfeifen da, schlecht montierte lüfter dort...
ich hoffe, dass die qualität nicht dauerhaft auf der strecke bleibt...
 
hmm mal ne frage:

was wollt ihr eigentlich mit dem hin und her gebattle?
den anderen zu überzeugen?...das ist ja das gleiche wie wenn man mich zwingen würde ein stück ananas zu essen xD
Sowas ist unmöglich ;)

also regt euch ab lasst den anderen seinen müll schreiben und geht mal auf die kosten der Geforce wieder zurück und nicht schon wieder das ATI vs nVida gespräch, das wir schon 7914 mal hatten!^^

und jedem ist das schon denke ich mal klar durch hilfe der anderen threads...ATI hat nen anderewen weg als nVIdia gehabt und siehe da es hat geklappt...bei der 88er nVidia serie war dies anders
uind so wechselt es immerwieder...bin auch froh drüber

ob jetzt nVidia es vorkorkst hat oder nicht, das sieht man an denn an dem verlust den nVidia macht

mal schaun was bei der nächsten generation passieren wird...bin gespannt auf ende diesen jahres;)
wenn nicht shcon was bahnbrechendes im april oder so kommt
 
langsam geht dieses gebashe hier echt einem auf die ***, ich weiß, ich trage hier auch nicht wirklich zur neutralität bei.

Fakt its allerdings, dass AMD Nvidia die Preispolitik kaputt gemacht hat (zurecht) und insgesamt mit ihrem Konzept besser fährt.

Fakt ist auch,dass nvidia bei GPGPU besser und meinetwegen effizienter arbeitet,weil sie einfach mehr Support liefert, was nicht heißt, dass ATI hardware mit der richtigen software dazu nicht in der Lage ist

Fakt ist,dass die Nvidia Karten unbearbeitet energiesparender Vorgehen

Fakt ist,dass nur die nvidia karten hochwertiges SS und AF bieten

Fakt ist, dass ATI karten standardmäßig mehr flimmern als Nvidia karten

Fakt ist allerdings auch,dass nur ATI karten reines geometrisches AA bieten

Fakt ist allerdings auch,dass ATI karten unbearbeitet leiser sind

Fakt ist allerdings auch,dass ATI keine stark fiependen Karten ausliefet, keine Heat bugs hat.

und vor allem Fakt ist, was hier eigentlich die Titelaussage ist,dass ATI mit ihrer Chipstrategie weitaus effektiver wirtschaftet als Nvidia und somit dem Kunden nur zum spielen die bessere Alternative bieten kann, Preis/leistungs technisch. Beim spielen interessiert es nicht, ob irgendeine stresstest die gpu überlasten kann, oder ob die GPGPU unterstützung nicht ideal ist.

Und ich unterstütze nicht immer schlechter werdende Hardware, spulenfiepen, dauerndes umbennen, schlechtere OC eigenschaften und leistungsschwächere Spannungswandler. Von Kundenverarsche ganz zu schweigen.
Auch habe ich es nie gut geheißen,dass AMD zu schwache/billige Spannungswandler verbaut hat, allerdings war es dann die einzig richtige entscheidung, die einzige software auf der welt,die diesen bemerkbar macht zu drosseln. Bei keinem spiel wir eine 4870 kritisch heiß oder der spannungswandler gibt den geist auf, ganz im gegensatz zu früheren, qualitativ hochwertigen Karten mit Heat Bugs.


Damit verabschiede ich mich von diesem Thread, es wird eh wieder nur rumgebashed.


gruß
 
Zurück
Oben