News Weiterer GeForce-Grafikchip „GF108“ gesichtet

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
Tja, wieder wenig Gewinnbringend für nVidia, aber die müssen für den CashFlow was rausbringen. Wichtiger wäre es jedoch, dass sie den starken Notebookmarkt wieder mit sinnigen DX11 Lösungen bedienen können. Wenn man die Prospekte von Elektronikketten momentan ansieht, liest man nurmehr ATI oder Intel IGP. Das wird sich wohl auch gewaltig auf die Zahlen des nächsten Quartals auswirken.
 
Die Speichergrößen dürfte gerade auch im günstigen Einsteigermarkt wieder variieren, da man hier und da gern Augenwischerei mit mehr Grafikspeicher betreibt.


genau das dachte ich mir auch. Naja mal sehen wie die karten sich schlagen.
 
bin mal sehr gespann wie sich die "neuen" chips gegen die AMD chips schlagen^^
AMD is bestimmt besser ;)
 
Zu spät würde ich sagen. Wenn es dabei bleibt, dass die NVidia-Chips bei gleicher Leistung gegenüber ATI mehr Strom verbrauchen, werden die meisten wohl weiterhin zu ATI greifen. Gerade im Lowend-Bereich wird auf den Stromverbrauch geachtet.

Wie man aktuell sieht: Eine nicht übertaktete Standard GTX 460 zieht mehr Strom als eine deutlich potentere Radeon 5850. Solange sich an der Effizienz nichts ändert, wird NVidia keinen Stich machen können. Da muss schon eine neue Architektur her.
 
Nachdem schon die alte nVidia-Serie da unten beim Stromverbrauch nicht entfernt mithalten konnte, habe ich die Befürchtung, dass das hiermit nicht wirklich besser wird.

Die da als Vergleich dienende Münze sind übrigens 100 Forint, 23.8mm Durchmesser hat das Ding :)
 
Etwas zu spät, wenn AMD schon im Oktober beginnt ne neue Produktpalette zu releasen, auch wenn die Mehrleistung eventuell gering ausfällt, erwarte ich, dass man besonders was Leistung/Watt angeht, sich nochmals verbessert.
Und auch eventuell die Chipgröße der kleinen GPU´s nochmal verkleinert wird, auch wenns jetzt der gleiche Fertigungsprozess ist.

Und bei dem tendenziell größeren CHip fallen die Margen für Nvidia natürlich deutlich geringer aus.
Also werden sie, wie sie es bereits getan haben, ihre Grafikchips immer leistungsmäßig knapp über den AMD Derivaten ansiedeln.
Die GT240 dürfte dann EOL werden.

Mal schaun wie sie sich gegen eine HD5570 schlagen werden.
Denn diese ist mit nur 25 bis 30Watt verbrauch in Games, die Speerspitze.
 
Zuletzt bearbeitet:
Naja.... bestimmt 2x6pin
 
also ansich bin ich auch fan der aktuellen ati karten, jedoch gibt es leute die andere schwerpunkte haben.

So gibt es wirklich leute die kleine cuda anwendungen haben (und wenn es nur das videobearbeitungsprogramm sei) - welches zusätzlich zu der cpu auch die gpu nutzen soll.

leute die solch eine karte kaufen, haben meist keine leistungsstarke cpu, also wollen sie eig. alles nutzen was es gibt.
Desweiteren ist die linux unterstützung dann doch etwas besser als die von ATI...
 
Schätzungen der Maße sprechen von einem 127 mm² großen Grafikchip, der gegen AMDs „Redwood“ antreten wird.

Da es sich bei dem Modell um eine „Qualification Sample“ handelt, lassen die verbauten Speicherchips nur bedingt Rückschlüsse auf das Serienprodukt zu. Die Hynix-Speicherchips sind in dem Fall 2 GBit große DDR3-Speicher mit 800 MHz, die wahrscheinlich an ein 64-Bit-Speicherinterface gebunden sind
.


Redwood (HD5670/5570/5550) hat 128bit SI. GF108 wird mit diesem Speicherinterface leistungsmäßig wohl eher Cedar (HD5450) Konkurrenz machen (können).
 
xdadia schrieb:
Naja.... bestimmt 2x6pin

Denke ich nicht. Die Karten in dem Segment dürfen einfach keinen extra Stromanschluss benötigen.

Schaffe89 schrieb:
Und bei dem tendenziell größeren CHip fallen die Margen für Nvidia natürlich deutlich geringer aus.

Stimmt allerdings. ATI ist in dem Segment so verdammt gut aufgestellt. Das sieht man schon an den Preisen der Einsteiger DX11 Karten, die wirklich mit netten Preisen auf dem Markt platziert wurden und das völlig ohne Konkurrenz. Da kann man sich schon vorstellen, dass AMD trotzdem genug damit verdient und noch viel Luft hat, falls sich doch mal eine Konkurrenz blicken lässt.
Die Leistung wird wohl gar nicht so entscheidend sein. Die Kunden, welche unter den Segmenten von 57XX Karten wildern werden nur sehr bedingt im Internet nach Benchmarks recherchieren. Natürlich gilt das NICHT für Leute wie uns auf CB sondern für den Mainstreamkäufer der eine DX11 Karte drin haben will.

@ Raucherdackel

23% größer bei halbem Speicherinterfache? Na gute Nacht!
 
Wenn man Vorteile für Nvidiakarten durch Cuda sieht, muss man auch dementsprechende Programme benutzen.
Bei einfachen Bildbearbeitungsprogrammen wie Photoshopp kann Cuda nichts ausrichten, läuft auf Stream genauso, da muss man schon ins spezielle gehen.
 
Zuletzt bearbeitet:
64bit Anbindung ist für heutige Zeiten wirklich "mager". Das ist für ein neues office PC zu wenig^^
 
aklaa schrieb:
64bit Anbindung ...Das ist für ein neues office PC zu wenig^^

Warum? Wo würdest du das in einem klassischen Office PC mit den gängigen Standardanwendungen merken?
 
Raucherdackel schrieb:
.


Redwood (HD5670/5570/5550) hat 128bit SI. GF108 wird mit diesem Speicherinterface leistungsmäßig wohl eher Cedar (HD5450) Konkurrenz machen (können).
Volker liegt auch falsch, Gf108 hat auch nen 128bit SI.
Deswegen passt dazu auch ne Version mit DDR3, mit 64bit Si würde man wohl nur GDDR5 verwenden.
 
Zuletzt bearbeitet:
DvP schrieb:
@ Raucherdackel

23% größer bei halbem Speicherinterfache? Na gute Nacht!

Zudem hat Redwood im Vollausbau noch GDDR5. Die Karte wird definitiv langsamer als die HD5550. Dessen nomineller Stromverbrauch übrigens bei 40W liegt.

Cedar hat einen nominellen Stromverbrauch von 19,1 Watt. Da sollte Nvidia nicht weit weg sein, sonst schauts schlecht aus.
 
Zuletzt bearbeitet:
Klingt logisch AffenJack, habs mal ergänzt :)
Ich denke aber die Karte zielt eher noch auf den 50-Dollar-Markt, da vom GF106 kleinere Ableger kommen sollen, als GTS 445 und 440. Die packen dann die 5700 und 5600, während GF108 darunter spielt.
 
Laut dieser CB-News hier soll GF106 ein 128bit SI haben. Deswegen glaub ich eher, dass GF108 ein 64bit SI hat, und dafür gegen Cedar antritt.

Warum sollte Nvidia zwei verschiedene Chips mit 128bit SI aufm Markt werfen?
 
Zuletzt bearbeitet:
mironicus schrieb:
Zu spät würde ich sagen. Wenn es dabei bleibt, dass die NVidia-Chips bei gleicher Leistung gegenüber ATI mehr Strom verbrauchen, werden die meisten wohl weiterhin zu ATI greifen. Gerade im Lowend-Bereich wird auf den Stromverbrauch geachtet.

Wie man aktuell sieht: Eine nicht übertaktete Standard GTX 460 zieht mehr Strom als eine deutlich potentere Radeon 5850. Solange sich an der Effizienz nichts ändert, wird NVidia keinen Stich machen können. Da muss schon eine neue Architektur her.

Und vor allem im Oktober kann auch mit den neuen ATI-Refresh gerechnet werden!
 
Zurück
Oben