News Weiterer GeForce-Grafikchip „GF108“ gesichtet

Raucherdackel schrieb:
Warum sollte Nvidia zwei verschiedene Chips mit 128bit SI aufm Markt werfen?

ATI hat derzeit auch zwei. Der eine ist auf Leistung aus und wird in den 57xx verkauft; der andere auf billig und steckt in 55xx/56xx.
 
@AffenJack: Joa, dann wird GF108 genauso beschnitten werden wie GF106 bei der 450, und dann sind wir wieder bei den 64 bit.

@TheK: Nö, HD5700 ist Juniper. Edit: und hat auch 128bit, stimmt.
 
Zuletzt bearbeitet:
und....wie lange solls dauern bis dann mal DX11 Fähige Notebook GPUs erscheinen? Oh man...die lassen sich extrem viel Zeit! Das haut nicht hin...die haben eigt. die neue Reihe komplett(außer 460) in den Sand gesetzt...hab auch momentan ne GTX260, bin aber kein Fanboy, nehme das was gut ist(P/L)
 
Bisher hat Nvidia seine Chips immer zwischen den ATI Produkten platziert.
Von daher ist zu vermuten, dass eine GTS 455 etwas schneller als ne 5770 wird und ne GTS 450 etwas schneller als ne HD 5750.

Und bei allem unterhalb dieser Leistungsklasse (GT 440 und kleiner), wird DX11 doch nur zum Marketing Gag.
Eine zb. GT 240 verbraucht genauso wenig wie ne 4670 oder 5670, und ist in Spielen genauso (un)brauchbar...

Ich versteh zb. bei ATI nicht warum es überhaupt, noch 4-5 Modelle unterhalb der HD 5750 gibt.
Da reicht doch die HD 5450.
Wenn ich unterhalb diese HD 5750 Klasse einkaufe, dann will ich doch eh nur eine Karte die
- billig ist,
- ein sauberes Bild liefert,
- HD Beschleunigung bietet,
- und möglichst passiv arbeitet.

Und eigentlich schaft das ne HD 4350 genauso, nur wird die ja nicht produziert, bzw. als Rebranding bei Notebooks unter dem Namen HD v530 verhöckert.
 
Ist zwar Juniper aber hat trotzdem ein 128bit großes SI.

@ DVD HD5670/HD4670 ist in SPielen also unbrauchbar?
Wenn du meinst. Der Sinn warum dies so sein sollte erschließt sich mir allerdings nicht.
 
nvidie hinkt im Moment ganz schön hinterher, hoffentlich bekommen sie die Kurve.
 
Schaffe89 schrieb:
@ DVD HD5670/HD4670 ist in SPielen also unbrauchbar?
Wenn du meinst. Der Sinn warum dies so sein sollte erschließt sich mir allerdings nicht.

Na, für welche Spiele haben solche Karten überhaupt genug Leistung?
Irgendwelche Konsolenports, da braucht man aber kein DX11 für.
Da kann ich auch gleich bei einer HD 3870 oder 8800 GT bleiben, die sind genauso schnell.
 
Nvidia zieht ja wieder mal etwas an bei der Entwicklung , hoffe ATI hat dann mit der 6000 Reihe nen richtigen Burner der Nvidia mal schön abzieht damit es die mal richtig schmerzt und die erkennen was passiert wenn man Mist baut
 
@ DVD_

DX11 kann mit gleichem Featureset wie DX10 einen Performancevorteil bringen, wie zum Beispiel in Battleforge. Warum sollte man also drauf verzichten? Wer sagt denn, das du umsteigen sollst, wenn du so eine Karte hast? Von dem abgesehen, dass die neuen energieeffizienter sind.
 
DVD_ schrieb:
Na, für welche Spiele haben solche Karten überhaupt genug Leistung?

Die Karte sollte mehr Leistung haben als meine alte HD3850 und Weniger verbrauchen. Da ich mit meiner alten Karte noch alles Zocken kann sehe ich da kein Problem. Klar zwar nicht mit Allem auf Max aber das muss sie ja auch nicht.

DVD_ schrieb:
Irgendwelche Konsolenports, da braucht man aber kein DX11 für.

Was hat das eine mit dem anderen zu tun? Man kann auch ein CS1.6/Q3/UT oder ähnliches bauen das DX10/DX11 benötigt (Auch von den Features her).
Ergänzung ()

DvP schrieb:
DX11 kann mit gleichem Featureset wie DX10 einen Performancevorteil bringen, wie zum Beispiel in Battleforge.

Kommt das nicht auch durch den Einsatz von DirectCompute und dem Multithreaded Renderweg? ?
 
@DvP
Ja nun, ich kauf doch aber entweder eine neue Karte mit der ich dann auch halbwegs, neue Spiel flüssig zocken kann, für mich persönlich fängt das aktuell grad mal bei der 5770 an, oder wenn ich nicht vorhab mit dem Chip zu zocken, Stichwort HTPC, dann reicht mir auch der kleinste der aktuellen Reihe.
Alles andere ist weder Fisch noch Fleisch.

Battleforge ist ja ein 1A Beispiel hierfür.
Selbst in DX11, bräucht ich mindestens eine HD 5770 um überhaupt über 25fps zukommen in 1680*1050 4xMSAA/16AF.
https://www.computerbase.de/artikel...-460-test.1263/seite-14#abschnitt_battleforge

Und für Avg. 40FPS reicht hier erst ne 5850 / GTX 465 / 460 1G.
 
@ DVD_

Junger Mann, wer sagt denn, dass die Karte was für dich sein soll? Willst du jetzt über die Sinnhaftigkeit eines kompletten Produktsegments sprechen? Eines sehr absatzstarken noch dazu? Angebot und Nachfrage. Manche wollen ein wenig zocken und sind heilfroh wenn so eine Karte im neuen Komplettsystem drinnen ist, da werden wohl auch die meisten unter die Leute gebracht und bekommen DX11 noch dazu und die Karten brauchen wenig Strom. Wo ist das Problem? Ich will dir ja keine verkaufen...

Battleforge war nur ein beispiel und sorry, aber 4xMSAA/16AF ist wirklich ein dummes Argument bei diesen Grafikkarten. Blockbuster wie COD4 und Dirt2 kannst du damit super zocken und das ist für 70€ ganz ok. Dann kann man sich auch vorstellen wie wenig Hersteller von Komplettsystemen dafür bezahlen.
 
Zuletzt bearbeitet:
Aha, dumm ja.
Ok, also wenn zb. der Mädchenmarkt mit der HD 5550 und super Doll, megaviel VRAM wirbt, dann ist das ok, weil es ja nur die betrifft, die sich schon seiner Zeit, von bei der HD 3450 mit super Doll, megaviel VRAM haben täuschen lassen und jetzt Ersatz dafür suchen. *g*

Verstehe ... und es stimmt, Kantenglättung ist wirklich dumm, nicht dass das schicke, neue DX11 Bild am ende noch auch noch gut ausschaut. *hust*
 
Zuletzt bearbeitet:
DvP schrieb:
Warum? Wo würdest du das in einem klassischen Office PC mit den gängigen Standardanwendungen merken?

Für einen klassischen Office-PC nimmt man aber IGP's, weil die erstens günstiger sind und zweitens weniger Strom verbrauchen.

1080p Videobeschleunigung und Aero haben die auch alle :)
 
naja, was bleibt nvidia auch anderes übrig als solche chips zu bringen. nvidia hat verluste fast in jeder sparte.

ach ja an einige die meinen das eine hd 5770 für manches nicht ganz reichen würde, mal einen denk anstoß!!!die karte reicht für alles dicke und zwar auch in full hd (1920x1080) und wenn man aa und af nutzen will, steckt man sich eine zweite rein auf crossfire und man steckt selbst einige der neuen nvidias der 400er serie in die tasche( bis auf die 480gtx vieleicht). und brauch immernoch weniger strom.

für mich hat die 400er serie von nvidia momentan keinerlei daseinsberechtigung( zu teuer, zu stromhungrig zuwenig mehr leistung was die konkurenz angeht)
 
@ DVD_

Wer hat von irgendeiner Werbung gesprochen? Und ja, es ist dumm. Wer 4xAA und 16xAF in aktuellen Spielen verwenden will bzw. überhaupt weiß was das ist, der wird sich aus gutem Grund keine solche Graka kaufen. Wenn deiner Meinung nach erst eine 5850 reicht um um überhaupt Sinn zu machen und diese dann unter 100€ kosten muss, dann reg dich bitte bei der Siliziumindustrie, Halbleiterfertigern und GPU-Entwicklern auf.

@ Jevermeister
Richtig! Ich wüsste eben auch nicht bei welchen Office Anwendungen mir eine DX11 Graka mit 64bit Anbindung zu wenig Speicherbandbreite haben sollte. Bei Photoshop? Da wirds wohl auch meist reichen und das ist schon keine klassische Office Anwendung.
 
Zuletzt bearbeitet:
Finde meine HD 5770, die ich seit Dezember 2009 habe top und kann alles in hübsch damit zocken

Greetz,
GHad
 
@DVD:

Es soll Leute geben, die keinen ATX-Tower als HTPC im Wohnzimmer stehen haben wollen, sondern etwas im ITX-Format. Und trotzdem soll der HTPC spieletauglich sein. -> HD5570, hat die Leistung einer 8800GT unter DX10/11 Spielen. Und demnächst GF108 im Vollausbau, wenn er denn so kommen sollte, oderGF106 kastriert
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Etwas zu spät, wenn AMD schon im Oktober beginnt ne neue Produktpalette zu releasen, auch wenn die Mehrleistung eventuell gering ausfällt, erwarte ich, dass man besonders was Leistung/Watt angeht, sich nochmals verbessert.
Angeblich soll wieder die mobilen GPUs als erster präsentiert werden.

Wichtiger milenstein ist die Notebook-Umstellung bei Sandy-Bridge & Fusion.
Vielleicht kommt AMD gerade richtig und rechtzeitg.
Vorallem, wenn sie einen Konkurrenzfähigen Optimus-Gegenpart anbieten, wird es erst recht interessant.

Mehrleistung ist nicht das wichtigste. Performance ist gut, aber wichtiger sind immer die Effizienzsteigerungen und da ist immer die Frage wer die größere Effizienzsteigerung macht.
 
mironicus schrieb:
Wenn es dabei bleibt, dass die NVidia-Chips bei gleicher Leistung gegenüber ATI mehr Strom verbrauchen, werden die meisten wohl weiterhin zu ATI greifen.
Wie man aktuell sieht: Eine nicht übertaktete Standard GTX 460 zieht mehr Strom als eine deutlich potentere Radeon 5850. Solange sich an der Effizienz nichts ändert, wird NVidia keinen Stich machen können. Da muss schon eine neue Architektur her.
Wo siehst du das denn?
Eine GTX460 benötigt je nach Hersteller 1-15W mehr. Im Idle dafür 4-5W weniger und bei der Blu-Ray wiedergabe soagar 14-17W weniger, da verbraucht eine 5850 70% mehr.
http://ht4u.net/reviews/2010/msi_n460gtx_cyclone_1024mb/index12.php

Gegen eine im gleichen Preisbereich liegende 5830 sieht man sogar besser aus.

Ich würde da eher behaupten beide Karten machen nen guten Job. 5W hin oder her sind völlig egal, da sind die Unterschiede zwischen den Herstellern einer Karten ja größer.

Gerade der Idle und BluRay Verbrauch ist bei den ganz kleinen Karten interessant. Wie der aussheen wird muss man abwarten, aber dass der jetzt sehr schlecht sein soll, kann ich bisher nicht rauslesen.
 
Zuletzt bearbeitet:
Zurück
Oben