News Fermi: Und täglich grüßt das Gerüchte-Murmeltier

Status
Für weitere Antworten geschlossen.
Lübke schrieb:
@
da wo ati auch geld verdient. nur dass die g210/gt220 in der herstellung billiger ist ;)
genau davon spreche ich ja.


Das Marktsegment wird es mit spätestens dem Intel Calarkdale bzw. der nächsten AMD IGP-Generation nicht mehr so geben. Wer bezahlt schon 30-40 EURO extra wenn der IGP die gleiche Leistung bietet. Die g210/gt220 Geschichten kommen einfach ein Jahr zu spät. Der Zug ist dann für NV wohl auch abgefahren.
 
Der Fermi ist einfach zu schnell zu komplex geworden. Die PCIe-Spezifikation bremst bereits? Der 40nm-Fertigungsprozess erzeugt bei einem solchen Mega-Chip zu viel Ausschuss?

Als selbsternannter Technologieführer ist man halt oft gezwungen gegen die Zeit zu pokern. Hoffentlich wird NVIDIA in dieser Runde nicht zu viel verlieren. Aber vielleicht ist der nächste Pott dann umso größer...

Vielleicht steckt dann ja auch noch ein Hauch von 486 mit drin...;)

Wer weiß schon, wo sich NVIDIA mittelfristig hin entwicklen wird? Momentan sind die jedenfalls so mit dem Brüten beschäftigt, dass sie es nicht einmal schaffen die Preise anzupassen. :)
 
@Complication: ich glaube, du verstehst grad gar nicht, worauf ich hinaus will. es geht überhaupt nicht darum, ob die gt240 selbst mit zukünftigen ati-karten konkurieren kann oder nicht, es geht um das prinzip, nach dem der chip hergestellt wird: schlicht und billig. ohne viele extras.
wenn man genug shader reinstopft, wird der chip so schnell wie der fermi, aber bei deutlich weniger transistoren und damit deutlich billiger. dp-leistung ist dann zwar ein witz, aber was juckt es den gamer?
und darum denke ich, werden chips nach dem chema chips wie den fermi auf dauer verdrängen.
mehr wollte ich damit gar nicht aussagen.

@danko71: igps gibt es aber schon lange. nur wandern die vom board in die cpu. sicherlich wird es aber auch wieder billigere cpus ohne zusätzlichen grafikkern für das untere marktsegment geben, und die leistungsstarken cpus werden ebenfalls keine igp haben. die igp in der cpu wirkt sich imho auf die igp im chipsatz aus, aber nicht auf die diskreten grafiklösungen.
 
Zuletzt bearbeitet:
wenn man dem g215 dx11 spendieren würde, wäre sie technisch auf aller neuestem stand. dazu mehr shader reinpacken, und das gegenstück zur 5770 wäre fertig und wohl jedem preiskampf gewachsen.
das hört sich so an wie wenn man bei ner grafikkarte 2 transistoren oder einen kleinen zusatzchip dazu löten müsste und schwupps hat man dx11, dx11 braucht eben ein komplett neues chipdesign, nvidia hat ja bei den dx10 karten noch nicht mal teslation oder wie das heißt, das stellst du dir also zu einfach vor. Und will dich, und die presse hören, wenn in ein paar monaten dann solch eine karte als top-modell rauskommen würde und nicht mal die ati-karten überflügeln würde.


danko71 schrieb:
@Complication

Nvidia hat nicht aufs falsche Pferd gesetzt. GPGPU ist einfach ein ganz eigenes und auch sehr wachstumsträchtiges Martksegment das Nvidia mit aller Macht für sich sichern möchte.

Ja GPGPU ist sicher wichtig, aber nvidia setzt eben immer auf spezielle hauseigene standards und so mächtig ist nvidia nicht (wars nicht und jetzt ists erst recht nicht mehr) um so was auf breiter front durchzusetzen, deshalb werden sie damit auf die fresse fallen, so gut wie kein entwickler hat lust für einen grafikchip hersteller der im vergleich zum restmarkt nen kleinen anteil hat spezialsoftware herzustellen. Man will eine schnittstelle die mit allen 3 Karten laufen oder wenigstens die meistens, um so verherender ists für nvidia das sie jetzt marktanteile verlieren, damit stirbt deren gpgpu spezialschnittstelle endgültig. Siehe auch ein interview von John Carmak der nicht gerade Nvidia feindlich ist.
"verschwendetes geld"
 
Lübke schrieb:
und darum denke ich, werden chips nach dem chema chips wie den fermi auf dauer verdrängen.
mehr wollte ich damit gar nicht aussagen.

Dagen spricht ein überaus gewichtiger Fakt nämlich die stetig sinkenden Absatzzahlen bei PC-Spielen. Der PC ist für die Spieleentwickler schon seit einiger Zeit nicht mehr im Focus.
Das ist eine Spirale die demnächst auch bei den PC-Grafikkartenherstellern ankommt. Warum glaubt ihr sucht sich Nvidia ein anderes Marktsegment in das sie mit ihrem Know How in Sachen GPU-Computing vordringen können? Doch nicht weil der PC-Gamergrafikmarkt wie die Sau boomt.
Ergänzung ()

@Complication

Da bin ich wohl auch einer Ente aufgesessen :freak:

Aber egal, für Gelegenheitsspieler reicht ein IGP jedenfalls aus.
Solche Leute sind notorisch geizig und würden eher die Details auf Minimum reduzieren als sich für 50 EURO oder mehr eine Grafikkarte zu kaufen. Das erlebe ich regelmäßig in der eigenen Verwandschaft und Bekanntschaft.
 
auch in konsolen sitzen gpus von ati und nvidia ;) und auch da wird es zukünftig nur noch um schnell und billig gehen, denn überteuerte konsolen verkaufen sich schlecht und grade bei konsolen sind dinge wie bildqualität oder features uninteressant. ob sich die xbox oder die sony playstation besser verkauft, liegt nicht an den gpus, sondern an preis und zubehör.

@blackiwid: nimm nicht alles so wörtlich, es geht ums prinzip des kleinen billig-chips. das der g215 kein dx11 kann, sollte denke ich mal klar sein. und was tesselation angeht: meine 3850 hat eine tesselationseinheit, nur bringt ihr das rein gar nichts, weil die erstens nicht dx11 kompatibel ist und zweitens wäre die karte viel zu langsam für tesselation.
und ob die gt240 tesselation können wird, liegt halt dran, wie nvidia ihre softwarelösung realisieren. aber auch wenn älteren chips diese software nutzen könnten, eine gt240 könnte niemals die erforderliche leistung aufbringen.

aber ums jetzt nochmal für alle ganz deutlich zu machen, was ich sage:
g80 -> g200 -> gf100 = schlechte entwicklung weil zu teuer
g94 -> g215 = die zukunft weil billig
 
Zuletzt bearbeitet:
das mit teslation bezog sich darauf das man nicht so einfach aus der karte ne dx11 karte machen kann da noch nicht mal das vorhanden war. Über die nützlichkeit von teslation wollte ich jetzt nicht diskutieren, aber du bist auf meinen 2. halbsatz dann nicht eingegangen, wenn nvidia jetzt nur ne evolution gemacht hätte sprich kaum mehr leistung gebracht hätte dann hätte nvidia alle nachteile auf der eigenen seite, hoher preis und schlechtere leistung wie der konkruenz und dazu immernoch verspätet. jetzt haben sie wenigstens vielleicht den einen vorteil das sie paar % mehr leistung wie die konkurenz liefern wenn sie glück haben.
 
aus welchem nasenloch hast du denn bitten den blödsinn gezogen?

Warum springen eigentlich immer so viele auf solch handwarmes, geistiges Ejakulat an?
Wenn du jedem glauben würdest, der meint, es alles genau zu wissen und zu kennen, dann wäre nV schon lange tot.
Natürlich nur im eigenen Hirn.

Schaut man sich den letzten Quartalsbericht an, sieht man schnell, das da nicht wirklich was dran ist, schöner Gewinn, schöne Margen (was ja indirekt ein Indiz dafür ist, das man am verkauften Krempel in der Tat verdient) und 160 Mio. in die Kriegskasse gespült.
Ich kann mir durchaus vorstellen, das man sich dafür entscheidet, den gleichen Weg wie ATi zu gehen, aber das Rückgrat des Unternehmens aufgeben, das am meisten Umsatz und Gewinn abwirft ist völliger Schwachsinn.
 
Zuletzt bearbeitet:
g94 -> g215 = die zukunft weil billig
Nur im Verhältnis zu den sonstigen Nvidia Produkten - doch es reicht ja nicht zu sich selber Konkurrenzfähig zu sein ;)
Eine GraKa ohne DX11 kann gar nicht zukunftsfähig sein, weil die Vorteile eben nicht nur im highend Gaming liegen. Direct2D z.B. beschleunigt mit DX11 nativ über die Hardware und benötigt mindestens DX10.1 um über die WDDM 1.1 Treiber mit Umweg GDI zu beschleunigen, wenn auch nicht so effektive wie mit DX11 wo GDI gar nicht mehr benötigt wird -> Das ist auch einzig und alleine der Grund für die hektischen Releases der kleinen Karten von Nvidia. Bisher haben sie ja immer abgestritten dass es was bringt. Selbst Browser nutzen diese Features schon mit "Aha-Effekt" wo es gar nicht auf Fps ankommt.
 
@blackiwid: genau das meine ich ja: sie investieren unsummen in den fermi, damit er alles mögliche an gpgpu-fähigkeiten und an spieletechnologien beherrscht und letzten endes fallen sie damit auf die schnauze, weil es viel zu teuer ist und gar nicht in dem maaße gewürdigt wird. da war ati viel cleverer mit ihrer hd4k und jetzt hd5k. ein vergleichsweise simpler und kleiner chip, schnell genug und billig zu produzieren. mit dem g215 hat nvidia ja schon mal das gleiche gemacht: kann kaum mit dem g94 mithalten, aber ist deutlich billiger und durch die notdürftige implementierung von dx10.1 bekommt man jetzt auch noch den verkaufsfördernden win7 aufkleber. das ist (leider) die zukunft. mir persönlich wäre ein fermi ableger mit allem zick und zupf lieber, aber letzten endes entscheidet vor allem der preis und die nackte leistung. der rest sind nette gimiks aber wiegen keine 100 € preisdifferenz zu gleichschnellen produkten auf. ein "g315" dürfte für nvidia die zukunft im grafikkarten markt (spieler) sein. ein rückzug aus selbigem aber halte ich für äußerst unwahrscheinlich und auch für völlig sinnlos.
aber die trennung von profi-hardware (fermi-quadro, tesla) und spielegrafikkarten halte ich im falle nvidias für einen dringend erforderlichen schritt, wenn sie die agressive preisstrategie von amd überleben wollen. der fermi geht imho völlig am spielermarkt vorbei.

@Complication: ich glaub, du hast immer noch nicht verstanden was ich sagen wollte^^. vergiss ma den g215. nehmen wir halt den rv770 in relation zum g200. die 4870 verkauft sich genau so gut wie die gtx260. spielerein wie physx oder cuda hätte sich nvidia für den spielermarkt besser komplett schenken können und statt des monsterchips was billiges entwerfen, damit wären sie deutlich besser in diesem bereich gefahren. so arbeiten sie an der grenze der wirtschaftlichkeit und ati tanzt ihnen immernoch auf der nase herum. und der fermi wirds nur noch schlimmer für nvidia machen. zu groß, zu teuer, zu viele extras, die der spieler gar nicht braucht.
imho muss nvidia für den spielermarkt was eigenes bringen. klar ist das mehr entwicklungsarbeit und kosten, aber die alternative wäre wirklich, den markt aufzugeben, da sie nicht mehr wirtschaftlich mithalten können. und genau da machen sies mit dem g215 besser. er kommt zwar spät, aber er ist ein schritt in richtung wirtschaftlichkeit. mit solchen chips (also nachfolger davon) kann nvidia wieder mitmischen.
 
Zuletzt bearbeitet:
Lübke schrieb:
aber die trennung von profi-hardware (fermi-quadro, tesla) und spielegrafikkarten halte ich im falle nvidias für einen dringend erforderlichen schritt, wenn sie die agressive preisstrategie von amd überleben wollen. der fermi geht imho völlig am spielermarkt vorbei.
Da stimme ich dir voll und ganz zu. Doch Nvidia muss halt erstmal die Strukturen schaffen die Ati/AMD ja schon hat - da zeigt sich jetzt der Vorteil der Übernahme durch AMD. Nvidia muss die Bereiche erst trennen und etablieren. Ich vermute sie wollten es unter einen Hut bringen und sind daran gescheitert den Spagat zu schaffen.

Wäre es geglückt, dann wäre das natürlich ein Hussarenstück gewesen. Doch das wäre Larabee auch gewesen vor 2 Jahren. Hier entscheidet oft nur der Zeitpunkt ob etwas genial oder völlig am Markt vorbei und zu langsam ist. Das ist Technik ;)

Vielleicht gelingt es ihnen ja die neue Architektur langfristig zu skalieren.
 
der spagat ging jahre lang gut. quadros sind seit jeher geforce-basiert. allerdings steigen die anforderungen in dem profisegment und gleichzeitig sinken die anforderungen für spielerkarten. und wenn nvidia das nicht langsam erkennt, stehts schlecht um sie. der g200 hatte das problem und der fermi wird es noch sehr viel mehr haben.
 
Complication schrieb:
Nur im Verhältnis zu den sonstigen Nvidia Produkten - doch es reicht ja nicht zu sich selber Konkurrenzfähig zu sein ;)
Eine GraKa ohne DX11 kann gar nicht zukunftsfähig sein, weil die Vorteile eben nicht nur im highend Gaming liegen. Direct2D z.B. beschleunigt mit DX11 nativ über die Hardware und benötigt mindestens DX10.1 um über die WDDM 1.1 Treiber mit Umweg GDI zu beschleunigen, wenn auch nicht so effektive wie mit DX11 wo GDI gar nicht mehr benötigt wird -> Das ist auch einzig und alleine der Grund für die hektischen Releases der kleinen Karten von Nvidia. Bisher haben sie ja immer abgestritten dass es was bringt. Selbst Browser nutzen diese Features schon mit "Aha-Effekt" wo es gar nicht auf Fps ankommt.

Moment mal! Ob eine GPU DX11 zertifiziert ist oder nicht, liegt nur daran, ob sie ein vorgegebenes komplettes Feature-Set beinhaltet. Fehlt eines dieser Key-Features gibts keine DX11-Zertifizierung. Das heisst noch lange nicht, dass die GPU keine der DX11-Features nutzen kann. Der G80 durfte sich nicht DX10.1 konform nennen, bot jedoch DX10-Erweiterungen, die in den DX10.1-Spezifikationen enthalten waren. Diejenigen Dinge, die du aufgezählt hast, sind möglicherweise schon auf wesentlich älteren GPUs möglich. Dass sie es jetzt in die DX11-Spezis geschafft haben, heisst genau nichts! Die Direct3D-API ist eine Vorgabe, nichts weiter, darüber hinaus ist alles möglich... Das sollte nur mal gesagt sein!
 
Der G80 bot einige, jedoch nicht alle DX10.1 Features, deswegen wird er zurecht nicht als DX10.1 Kompatibel bezeichnet.

Bin ja mal gespannt, als was der "Geforce-Fermi" rauskommt! GTX480?

Ich tippe mal auf:
512 Sp. GPU -> GTX385 (Wahrscheinlich Revision B)
448 Sp. GPU -> GTX380
256- 3XX SP. GPU. -> GTX360
 
KAOZNAKE schrieb:
Bin ja mal gespannt, als was der "Geforce-Fermi" rauskommt! GTX480?
Naja mit ner 3xx machts so langsam keinen Sinn mehr - da blickt doch wirklich keiner mehr durch bei denen :freak:
Ergänzung ()

AwesomeSauce schrieb:
Diejenigen Dinge, die du aufgezählt hast, sind möglicherweise schon auf wesentlich älteren GPUs möglich. Dass sie es jetzt in die DX11-Spezis geschafft haben, heisst genau nichts! Die Direct3D-API ist eine Vorgabe, nichts weiter, darüber hinaus ist alles möglich... Das sollte nur mal gesagt sein!
Was möglich und nicht ist zeigt dieses Diagramm - und es geht nicht nur um möglich, sondern in erster Linie darum was nativ auf der Hardware läuft oder was über die Treiber erst ermöglicht wird und somit zusätzliche Ressourcen benötigt und langsamer läuft:
Hier wurde das Thema ausführlich diskutiert:
Aus dem Artikel geht hervor, dass es im Prinzip 3 verschiedene Umsetzungen des Direct2D gibt je nach verbauter Hardware/DX Version.
  1. Für DX9 Karten und XP (maximal DX 9) die ganz linke
  2. Für Vista und DX10 Karten unter Win7 mit WDDM 1.1 Treibern die mittlere mit dem "Umweg" Direct3D10
  3. Für DX10.1 und höher unter Win7 der direkte Weg über das DXGI
https://www.computerbase.de/forum/t...gpu-beschleunigung.666573/page-5#post-6997959
direct2d.png
 
Ich als Symphatisant von guten P/L- Nvidia und ATI-Karten nenne immer noch einen Pentium D830 und ne 9600GT mein Eigen. Und die guten Spiele wie CoD 4-6 und FarCry 1 (+2) laufen alles ohne rumzumaulen.
Gesamtverbrauch des Systems unter Last: 220 Watt.

Und wenn mir kalt ist, hole ich mir keine Highend-Graka sondern drehe die Heizung auf. ;)

Das was Highend momentan angepriesen wird reicht grade mal dazu aus, ein 2 Jahre altes Spiel wie Crysis auch in hohen Auflösung und mit allen Details, endlich mal flüssig darzustellen. Tolle Leistung der Industrie. :eek:
 
Lübke schrieb:
er meinte das eher in dem sinne, dass die karten mehr zu bieten haben, als die dx-angabe verrät. bei meiner 3850 z b tesselation: dx11-feature aber die karte ist als dx10.1 deklariert, weil sie die vorraussetzungen für dx11 nicht voll erfüllt.
Das ist ja der Irrtum - Tessellation ist kein DX11 Feature sondern wurde von DX11 aufgenommen. Auch die XT2000 Serie hatte Tessellation Units: http://www.trustedreviews.com/graphics/review/2007/05/16/AMD-Radeon-HD-2900-XT/p6

Auch die Xbox360 hat eine Tessellation Unit:
Tessellation is a technology that has been around for a few GPU (graphics processing unit) generations. AMD has had Tessellation support since 2001, which was then called Truform; we also implemented Tessellation in the XBOX 360 GPU, then codenamed “Xenos”. Tessellation is a feature which increases the number of polygons in an image. Basically, Tessellation enables a more lifelike image, both of objects and landscape. Back in the day characters who were CG (computer generated) looked very blocky, almost cartoon like; with the use of Tessellation, developers are now able to significantly increase the number of triangles to draw an image, thus creating a more lifelike quality in games.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben