News Nvidia meldet gute Umsätze und Gewinne

Chinamann1 schrieb:
Nicht das ich behaupten möchte der Schreiber habe auch diesmal Recht nur hatte er es im Bezug auf den Fermi bis jetzt immer!

http://www.semiaccurate.com/2010/02/...and-unfixable/

Zombiez schrieb:
Einer Seite die Semiaccurate heißt möchte man eigentlich keinen glauben schenken :freak:

Ich würde den Artikel erst einmal lesen. Hier wird wirklich kompetent ausgeführt woran es beim Fermi mangelt. Um es zusammenzufassen (der Artikel ist wesentlich technischer):

Keine der Fermi-Revisionen hat die grundlegenden Probleme lösen können. Stattdessen werden Shader beschnitten und Taktraten runtergeschraubt. Die Yield-Raten sind trotzdem weiterhin im Keller, ab April wird es daher nur PR-Karten geben. Egal was nVidia jetzt noch macht, bis dann sind die Probleme nur schwer lösbar, die wenigen erhältlichen Karten müssen mit Verlust rausgegeben werden, da man mit der Performance zu wenig, nach einem Refresh seitens Ati, gar nicht mehr punkten kann.

Das Ganze hat auch relativ wenig mit dem 40nm-Prozess bei TSMC zu tun, da die Entscheidungen im Board-Layout falsch getroffen wurden und man momentan versucht, diese zu überdecken, wenn doch eine vollständige Layout-Überarbeitung nötig wäre. Retten könnte nVidia momentan nur der 28nm-Prozess, der aber vor Ende des Jahres nicht nutzbar ist, für einen Fermi-2 aber unausweichlich ist.

Da der letzte für mich wirklich gelungene Ati-Chip der R300 in der 9700 war, hatte ich mich eigentlich auf den GTX 480 gefreut. Momentan sieht es aber so aus, dass es für nVidia dieses Jahr sehr schwer wird, wobei sie ja, wie man im Artikel sieht, genug Standbeine haben, um das abzufangen.

Nochmal den April abwarten, sonst wird es halt bei Erscheinen eine Radeon 5890.
 
hätte ich auch nicht gedacht... andererseits deckt eben der OEM-Martk sicher auch einiges ab.
Was mich schlichtweg stört ist "ATI ist billiger" seit der HD5000-Serie stimmt das schlichtweg nicht mehr, ne gute Midrangekarte kostet auch um die 130 - 150 Euro und Highend fängt deutlich über 200 Euro an. Bei der HD4000-Serie sah das wirklich anders aus. Aber ATI nutzt eben auch die aktuelle Situation aus, viele wollen eine HD5000, sie sind nicht so gut lieferbar und Nvidia hat noch nichts. Einerseits muss ich sagen klar, richtig so, wenn man ein gutes Produkt hat, dass viele wollen kann auc h der Preis entsprechend hoch sein. Teilweise ist es aber schon überzogen (wie bei Nvidia auch immer).

Ich bin gespannt was passiert WENN Nvidia endlich mal Nachschub liefert.
 
Haha und sehe ich noch die Skeptiker, die den Untergang von nV prophezeit haben, weil der Fermi so spät kommt. Schön zu sehen, dass diese Scheuklappen-Prognostiker mal wieder auf die Nase gefallen sind. Viele hier im Forum sind doch leider immer noch so naiv nur den Spiele- bzw. Highend-GPU-Markt zu sehen.

Und der Fermi steht schon vor der Tür. Da kann es doch nur noch weiter Bergauf gehen.
 
hm... die machen umsatz ohne ende, und wir kriegen nichtmal die fermi-karten zu gesicht :( schade...
 
Charlie mag ein großer ATI Fanboy sein, aber er hatte in der letzten Zeit eigentlich immer recht.
Es passt auch alles, denn nicht umsonst hat Nvidia anscheinend schnell nen Heimwerkermarkt besucht um ein Fermi-Fake vorzuweisen...


fromdadarkside schrieb:
DX11 bietet die HD5770, aber dafür reicht dann die Leistung in den meisten Situationen nicht, um die Vorteile richtig auszuschöpfen.

HD5770 in Dirt 2 mit der Auflösung 1280*1024 in den höchsten Details + DX11 sind gar kein Problem....
 
1280x1024 ist auch keine auflösung auf der man normalerweise zockt.... wir reden hier denke ich von "richtigen" auflösungen ab 1680x1050. Aber selbst dort reicht die Leistung momentan noch aus.
Ich selber besitze eine gtx260 192shader und das kärtchen befeuert tapfer meinen 24" mit 1920x1200 ohne Probleme. Ich warte jetzt nur noch darauf, dass nvidia die eigenen Karten raushaut, damit ich mich zwischen ati und nvidia entscheiden und mich am sinkenden preis freuen kann
 
Wenn der Fermi gute Leistung bringt kosten die High End Karten von NVidia sicher über 400€,und das ist sicher was dann ATI macht die 5870er um ~300€ rauswerfen.Kostet die GTX 285 ja noch über 300€ und die ist ja schon eher alt gegen die HD 5870.

Ich hoffe trotzdem dass NVidia bald wieder einen draufsetzt,dass ich mir bald eine 5870er holen kann denn um 400€ Danke nein..
mfg.
 
müsste da nicht weniger Gewinn kommen wegen ATI HD5xxx Serie? denke nicht dass die Leute "alte" DX10 Graka kaufen um dann nochmals in die neue DX11 Grafikkarte zu investieren. Wenn meine alte kaputt gehen sollte, würde ich schon gleich gute ATI DX11 5xxx Karte kaufen ;-)
 
Wie lange gibts denn die komplette HD5000er Serie? Richtig ein paar Wochen.
Und die Verfügbarkeit der Highend-Modelle wahr auch nicht von Anfang an gegeben.
Es werden auch im Lowcost und Mainstreambereich sehr viele Karten abgesetzt. Und da sah Nvidia nicht so schlecht aus. GT220 und 240 konnte man ordentlich absetzen.

Die HD5000 wird sich erst in den nächsten Quartalszahlen so richtig wiederspiegeln. Die ist jetzt von oben bis unten gelauncht, ebenso im Mobilen Markt.
 
kommt halt auf die Ansprüche drauf an. Ich habe mich auch dazu entschlossen, nochmal eine GTX260 zu kaufen, auch wenn diese kein DX11 Unterstützt, und deutlich mehr Verbraucht. Da man jedoch fast ausschließlich nur noch OC Versionen der GTX260er bekommt, liegen diese Karten auf einem Niveau der GTX275/80. Und sind somit um einiges schneller als die HD5770. Einzig die HD5850 liegt dann gleich auf mit der Oc Version, die allerdings deutlich teurer ist
 
Sid6581 schrieb:
Ich würde den Artikel erst einmal lesen. Hier wird wirklich kompetent ausgeführt woran es beim Fermi mangelt. Um es zusammenzufassen (der Artikel ist wesentlich technischer):

Keine der Fermi-Revisionen hat die grundlegenden Probleme lösen können. Stattdessen werden Shader beschnitten und Taktraten runtergeschraubt. Die Yield-Raten sind trotzdem weiterhin im Keller, ab April wird es daher nur PR-Karten geben. Egal was nVidia jetzt noch macht, bis dann sind die Probleme nur schwer lösbar, die wenigen erhältlichen Karten müssen mit Verlust rausgegeben werden, da man mit der Performance zu wenig, nach einem Refresh seitens Ati, gar nicht mehr punkten kann.

Das Ganze hat auch relativ wenig mit dem 40nm-Prozess bei TSMC zu tun, da die Entscheidungen im Board-Layout falsch getroffen wurden und man momentan versucht, diese zu überdecken, wenn doch eine vollständige Layout-Überarbeitung nötig wäre. Retten könnte nVidia momentan nur der 28nm-Prozess, der aber vor Ende des Jahres nicht nutzbar ist, für einen Fermi-2 aber unausweichlich ist.

Da der letzte für mich wirklich gelungene Ati-Chip der R300 in der 9700 war, hatte ich mich eigentlich auf den GTX 480 gefreut. Momentan sieht es aber so aus, dass es für nVidia dieses Jahr sehr schwer wird, wobei sie ja, wie man im Artikel sieht, genug Standbeine haben, um das abzufangen.

Nochmal den April abwarten, sonst wird es halt bei Erscheinen eine Radeon 5890.
Dann frage dich doch mal, warum Charlie in seinem Artikel keine Dual-Fermi erwähnt, die bereits wohl sogar Ende März mit vorgestellt und nur etwas später ausgeliefert werden wird. Ich bin jedenfalls gespannt, wie er Gemini erklären wird.
 
Scythe1988 schrieb:
1280x1024 ist auch keine auflösung auf der man normalerweise zockt.... wir reden hier denke ich von "richtigen" auflösungen ab 1680x1050. Aber selbst dort reicht die Leistung momentan noch aus.
Ich selber besitze eine gtx260 192shader und das kärtchen befeuert tapfer meinen 24" mit 1920x1200 ohne Probleme.

Ach nein ? man zock nicht auf 1280x1024 ? also auf ein 19 Zoll Monitor ? soll ich dir mal was sagen. Es zocken noch mehr leute auf 19 Zoll Monitoren als DU glaubst :rolleyes:. Tellerrand und so. Nur weil du so eine übertriebene Auflösubng nutzt heisst das nicht das alle gamer so eine über Auflösung haben. Ich würde sogar eher sagen das die meisten noch auf unter 22 Zoll sind.

EDIT: Das konnte ich sehr schön auf der letzten lan beobachten. Ist nur etwa 2 Monate her


Da man jedoch fast ausschließlich nur noch OC Versionen der GTX260er bekommt, liegen diese Karten auf einem Niveau der GTX275/80. Und sind somit um einiges schneller als die HD5770. Einzig die HD5850 liegt dann gleich auf mit der Oc Version, die allerdings deutlich teurer ist

Na klar ! das möchte ich sehen, das glaubst doch wohl selber nicht das die GTX260 OC gleichauf mit der HD5850 ist ! Ich bezweifel mal sehr stark das eine OC Version etwa 30 -40 % drauflegen kann. Denn das ist etwa der leistungsunterschied zu HD5850.
 
Zuletzt bearbeitet:
Whoozy schrieb:
Ach nein ? man zock nicht auf 1280x1024 ? also auf ein 19 Zoll Monitor ? soll ich dir mal was sagen. Es zocken noch mehr leute auf 19 Zoll Monitoren als DU glaubst :rolleyes:. Tellerrand und so. Nur weil du so eine übertriebene Auflösubng nutzt heisst das nicht das alle gamer so eine über Auflösung haben. Ich würde sogar eher sagen das die meisten noch auf unter 22 Zoll sind.

EDIT: Das konnte ich sehr schön auf der letzten lan beobachten. Ist nur etwa 2 Monate her
Muss ich absolut zustimmen. Ich selber hab auch noch nen 19"TFT und in meinem Bekanntenkreis gibt nur einen einzigen der nen 22"Widescreen TFT hat.
Fazit -> die meisten spielen noch in 1280x1024.

EDIT:
Achja und bevor jemand anfängt hier irgendwelche Umfragen aus irgendwelchen Foren zu verlinken. Das hat nichts mit der realität zu tun, den in solchen Foren sind nun einmal hauptsächlich Leute mit "etwas" höheren Ansprüchen unterwegs.
 
Zuletzt bearbeitet:
Laut dieser Kleinen umfrage , erkennt man recht gut, wie viele hier auf CB auf welcher Auflösung Zockt. Ich würde auch behaupten, das viele richtige Gamer, sich auch der Stand der Technik angepasst hat, und einen aktuellen TFT zugelegt haben. Auch im Kaufberatung Bereich für Monitore und TFT/LCD´s erkennt man diesen Trend.
 
Das hier ist ein Technikforum was erwartest du ! nicht jeder gamer lungert hier auf Cb rum es gibt so viele die einfach nur spielen möchten und nicht so Technik interessiert sind wie die meisten hier auf CB.
 
mapel110 schrieb:
Dann frage dich doch mal, warum Charlie in seinem Artikel keine Dual-Fermi erwähnt, die bereits wohl sogar Ende März mit vorgestellt und nur etwas später ausgeliefert werden wird. Ich bin jedenfalls gespannt, wie er Gemini erklären wird.

Weil keine Gemini kommen wird.
Die Thermi hat laut Gehäuseherstellern einen unglaublich hohen Verbrauch. (Richtung 5970)
...

Es wäre wohl besser gewesen, wenn sie es wie ATI gemacht hätten.
Denn die Technik für Tesslation war ja schon lange bei ATI da und die Features für DX11 waren ja eigentlich schon für DX10 gedacht, aber Nvidia wollte das nicht.
Hätte Nvidia rechtzeitig angefangen ihre GTX200 Serie DX11 tauglich zu mahcne, hätten sie wahrscheinlich gut mit ATI konkurrieren können und sie hätten den Kurswechsel alla "Scheiß auf die Gamer, GPGPU wir kommen" besser verstecken können...
Ergänzung ()

PS: Es gibt wohl sowieso auch viele die nie im Forum sind (außer über die Kommentierfunktion) und somit auch schonmal rausfallen.
Ich selber hab z.B. eine 1600*900 Auflösung ;)
 
Weil keine Gemini kommen wird.
Die Thermi hat laut Gehäuseherstellern einen unglaublich hohen Verbrauch. (Richtung 5970)

Den gleichen Mumpitz hat man auch zur 295er lesen können, geht nicht, zu warm, zu hoher Verbrauch, physikalische Granzen, sülz, blubber. Das Ende vom Lied war, das nicht nur eine, sondern gleich zwei Versionen davon auf den Markt gekommen sind.

Ich wette der "ich habs alles durchschaut!" Milchmädchenrechner solcher Leute sieht in etwa SO aus.

Einfach mal abwarten und Tee trinken.
 
mapel110 schrieb:
GT2xx in 40nm sind Directx10.1-Chips. Die haben mit G80 genau so wenig zu tun wie mit GT200.

Klar, drum steht ja auch im CB Test folgendes: "Um das zu erreichen, greift Nvidia auf die bewährte GT200-Architektur zurück, wobei die neuen Karten zusätzlich mit der Direct3D-10.1-API umgehen können."

Jocotty schrieb:
Hätte Nvidia rechtzeitig angefangen ihre GTX200 Serie DX11 tauglich zu mahcne, hätten sie wahrscheinlich gut mit ATI konkurrieren können und sie hätten den Kurswechsel alla "Scheiß auf die Gamer, GPGPU wir kommen" besser verstecken können...

Dann hätten sie wohl lieber dich fragen sollen. Denkst du nicht, dass nV das gemacht hätte wenn es möglich und günstig gewesen wäre?

@ News

nVidia ist ganz clever über die Runden gekommen, aber wenn sie den dedizierten Graka Markt nicht zurückbekommen werden die Standbeine bald sehr wackelig wenn Intel und vor allem AMD (wegen DX11 und der Leistung) ihre GPUs in die CPUs integrieren. Dann bleibt fast nurmehr GPU Computing und Tegra. Mal sehen, aber so rosig sieht das in Zukunft nicht aus. Ion ja auch ne klasse Cashcow von der auch der Kunde stark profitiert hat und Ion2 ist schon kein Chipsatz mehr sondern dediziert weils da wohl etwas Stress mit Intel gab bzw. Pinetrail ja keine Northbridge mehr braucht.

@ Whoozy
1600x900 gibts bei 16:9 Notebooks und auch bei normalen Moitoren (haupsächlich 20") von vielen namhaften Herstellern:
http://www.shopmania.de/shopping~online-monitore~filter-resolution-1600x900.html
http://review.zdnet.com/filter/max-resolution/1600-x-900?categoryId=3174&filter=500149_8029621
 
Zuletzt bearbeitet:
Evader schrieb:
Den gleichen Mumpitz hat man auch zur 295er lesen können, geht nicht, zu warm, zu hoher Verbrauch, physikalische Granzen, sülz, blubber. Das Ende vom Lied war, das nicht nur eine, sondern gleich zwei Versionen davon auf den Markt gekommen sind.

Die GTX 295 bestand ja auch nicht wie erwartet aus 2 280ern ;)
Aber eine 460 mit wenig Stromverbrauch ist nicht in Sicht ;)
Es ist nie die Rede davon, dass sie nie kommen wird, aber mapel behauptet, dass die schon Ende März kommt und wenig später ausgeliefert wird...


Whoozy schrieb:
1600x900 ? diese Auflösung hab ich noch nie gesehen wasn das fürn Monitor ? wieviel Zoll?

Meinst du vielleicht 1440x900 ? ( 19 Zoll Breitbild )

15,6" ;)
 
Zurück
Oben