News Nvidia GeForce GTX 480M offiziell vorgestellt

Athlonscout schrieb:
Hole dir die neue GTX465 und passe Taktraten und Spannungen nach unten an und du hast eine GTX480M für den Desktop.
Im Prinzip hast du Recht, allerdings glaube ich, dass die Chips der GTX 480M noch speziell selektiert sind und deswegen wird wohl nicht jede GTX 465 diese niedrige Spannung bei diesen Taktraten mitmachen. Aber probieren könnte man es durchaus, wenn man denn will.

Krautmaster schrieb:
Auf die Rechenleistungswerte kann man eh nichts geben.
Stimmt, auf die Rechenleistungswerte kann man kaum etwas geben, aber es ist hin und wieder schon vorgekommen, dass ein Spiel an ein Speichbandbreitenlimit und gar Texturfüllratenlimit gestoßen ist. Also leichte Tendenzen kann man den ganzen Werten schon entnehmen.
 
Die Texturfüllrate wird den neuen GTX´en früher oder später eh im irekten Vergleich mit ATI zum Verhägnis werden.
 
die mobilen chips werden vermutlich wohl auch nicht mit 512 physikalisch vorhandenen shadern gefertigt sondern vllt 384 und die tesla-bestandteile werden wohl auch komplett bei dem chip fehlen. sprich er hat gar nicht die fläche des desktop-fermi.

denke nicht, dass die chips identisch sind.
 
@Lübke

Auf was soll er denn sonst basieren. Der GF104 ist ja meines Wissens noch nicht soweit.
Das da ein spezieller Chip entwickelt wurde, kann ich mir beim besten Willen nicht vorstellen. Bei den geringen Stückzahlen einer GTX480M wäre ein eigener Chip nie und nimmer wirtschaftlich zu fertigen.
 
ein vollständiger fermi wäre imho schlicht zu groß. der fermi ist ja angeblich modular aufgebaut. damit sollten kleinere ableger problemlos möglich sein. dass es noch keine gf104 zu kaufen gibt, könnte schlicht daran liegen, dass nvidia die begrenzten 40nm kapazitäten erstmal für die hochpreisigen chips nutzt... wenn der gf104 nicht noch veränderungen gegenüber dem gf100 erhält, dann sollte er technisch gesehn längst hergestellt werden können. wobei eine überarbeitung der architektur für die kleineren fermiableger sicher auch wünschenswert wäre...

der umkehrschluss würde ja sonst bedeuten, dass dem gtx480m physikalisch 512 shader zur verfügung stünden, die teilweise freigeschaltet werden könnten. bei meiner 7900gs waren auch die shader softwareseitig deaktiviert, sodass ich sie per rivatuner einfach wieder aktivieren konnte :)
aber n 3-milliarden-transistorenklotz in einem mobilen gerät... erscheint mir eher unwahrscheinlich...
 
laut meldung hier scheint es ein identer chip zu sein.

The GTX 480M will use the same GF100 chip used in desktops, but "customized to fit into the notebook thermal budget". This is a very good thing since the desktop GTX 480 has a Thermal Design Power of 250 watts. Cutting the clock speeds and number of CUDA cores significantly reduces power consumption, while reducing the size of the memory interface to 256 bits allows a reduction in the amount of GDDR5 memory required.
 
@Athlonscout: wow das wäre ja der hammer :O
dann würde mich das teil sogar reizen^^
volt um 0,1-0,2 runter (ggf auch etwas takt) und shader freischalten soweit es geht... im idealfall also ma eben so auf >480 shader, dann würde das teil ja richtig vorwärts gehn :king:

dagegen ist die freischaltung meiner 7900gs auf 7900gt jedenfalls ein witz :D
 
@Lübke

Wozu? Für die Kohle kannst dir auch ein feines leises Wakü GTX480 SLI Monster System basteln mit schönem Haltegriff.
 
@Lübke

freue dich da mal nicht zu früh!

Nvidia kappt seit der GF7 Serie (deshalb glaube ich dir auch nicht, dass du deine 7900GS freigeschaltet hast) nicht benutzte Einheiten per Lasercut - somit also auch kein Stromverbrauch der deaktivierten Einheiten.

Bei meinen Grafikkarten gings bei der 6800, meine 7900GS und alles was später kam war per Lasercut kastriert.
 
@GodCast: ehrlich gesagt reizt mich das aufbohren selbst daran. wie du wohl an meiner sig siehst (top graka: 3850), brauche ich die leistung nichtmal ansatzweise ;)

@Athlonscout: bei den desktopkarten ging es meistens nicht. in einzelfällen haben die aber scheinbar auf normale 7900gt auch 7900gs bios gepackt, da gings dann mal (jedenfalls haben das vereinzelt leute im inet behauptet). ich weis nicht, obs bei notebooks generell der fall ist, oder ob ich einfach glück hatte, aber bei mir hats geklappt.
lasercut kostet auch geld da ist es teilweise klüger, die unwissenheit der leute auszuntzen und einfach n anderes bios draufzuklatschen...
und wenns bei der gtx465 für desktop schon per softmod gemacht wird, warum sollte man dann ausgerechnet beim notebook zusätzliche kosten verursachen, zumal die gtx480m das topmodell darstellt und nvidia sich damit ja keine eigene konkurrenz machen würde. da wäre es höchstens ein feature, das den hohen preis noch mehr rechtfertigt.
sicher ist es zwar nicht, aber imho ist die wahrscheinlichkeit nicht gering dafür.
aber so viel kohle werde ich ganz sicher nicht für ein gamernotebook ausgeben^^ wie gesagt, mich würde nur das ausreizen der hardware daran reizen. die leistung selbst kann ich aber nicht gebrauchen. ich nehme noch immer mein notebook mit der 7900 auf lanpartys mit und bin zufrieden. und wenn würde ich eins mit ner hd5 holen, wegen des verbrauchs. der war auch das ausschlaggebende argument für die 7900 und gegen die x1800...
 
@Lübke

Einheiten, die nicht per Lasercut deaktiviert werden sind auch Verbraucher, ergo wäre wohl eine TDP von 100W nur schwer realisierbar.
Ob bei einer Verkaufs-465 wirklich eine Freischaltung auf 448 Streamprozessoren möglich ist (schön wärs ja schon), darf auch bezweifelt werden.Bis jetzt sind ja nur ES im Umlauf.
 
Die Texturfüllrate wird den neuen GTX´en früher oder später eh im irekten Vergleich mit ATI zum Verhägnis werden.
Bin da eher für den Vram, die 2GB Modelle von ATI machen den Strick über lange Zeit dann zu. ;)

Auf jeden Fall wird die theoretische Tessellations Leistung das nicht kompensieren können...
 
hiermal ein interessanter bericht der sich sehr nahe an einem echten spiel bewegt. viele benchmarks sind ja eher synthetischer natur und man kann nicht wirklich klar sagen wie sich die grafikkarte in einem "echten" spiel auswirkt:.
http://ht4u.net/news/22181_stand-al...dator_veroeffentlicht_-_amd_sieht_sich_vorne/

Ich pers. schaue immer...was schluckt eine Karte an Watt und was leistet sie dafür. Von diesem Gesichtspunkt darf man die GTX480 nur mit der ATI 5970 vergleichen....und bei diesem praxisnahen spielebenchmark ist die 5970 einfach effektiver.
Viele Tester vergleichen die 480 immer mit der ATI 5870 und das finde ich falsch. Die 5870 verbraucht viel weniger Strom, von daher darf sie auch weniger leisten.

Wenn eine Karte 290-300 Watt zieht, dann müssen 290-300 Watt gekühlt werden. Dann ists mir egal ob die Leistung von einem Chip, oder von 2, oder 10 grafikchips benötigt wird...mal übertrieben gesprochen.
300 Watt sind 300 Watt....unabhängig von der Anzahl der integrierten Chips. Es bringt mir ja keinen Vorteil wenn die 480 nur einen chip hat...deswegen muß ich trotzdem 300 Watt irgendwie kühlen....und auf Dauer natürlich auch bezahlen.
1 Kilowatt Strom (also 1000 Watt) kostet bei uns in Hessen aktuell 21-23 cent (preis steigt unaufhörlich...). Also unter Vollast kostet so eine Karte gut alle 3 - 3,5 Stunden ca. 21 cent im Verbrauch...ganz einfache Rechnung.
Surft man...schluckt die Karte 50 Watt...also wären erst nach 20 Stunden ca. 21 Cent Kosten verursacht worden. Aber wenn jeder ehrlich ist...die meiste Zeit wird mit so einer Karte sicher gezockt....und das summiert sich schon über die Zeit...glaubt mir :) Ich denke mal vielen ist das nicht so bewußt daher wollte ich diese einfache Rechnung mal anführen.

Von daher vergleiche ich für mich pers. die ATI 5870 noch nichtmal mit der 470....die 470 schluckt 225 Watt maximum und die 5870 nur 188 watt.
Rein vom Stromverbrauch kann man momentan also gradmal 2 Karten miteinander vergleichen zwischen Nvidia und ATI. Wenn die 460 oder 465 mal kommt...wie sie auch immer heißen mag (namen sind schall und rauch)....dann kommt aus meiner sicht der erste faire vergleichspartner zur ATI 5870.

Ein Auto was 20 Liter auf 100Km schluckt darf ja auch mehr leisten (PS) als ein Auto was nur 10 Liter schluckt. Also da muß man schon fair sein beim vergleichen und da halten sich viele nicht dran finde ich.

hier ist auch nochmal eine sehr informative übersicht die ich euch zeigen wollte:
http://www.pc-erfahrung.de/grafikkarte/vga-grafikrangliste.html
 
Zuletzt bearbeitet:
@Kasmopaya: aber dir ist schon klar, dass die gtx480m (um die es in diesem thread geht) über 2gb vram verfügt, oder? ;)
und wenn ati mit 2 gb modellen kommt, kommt nvidia mit seiner gtx480 3gb bzw gtx470 2,5 gb. wo soll da das problem für nvidia sein? schaffe hat schon recht, die texturfüllrate ist das handycap des fermi. das wird auch klar wenn man bedenkt, dass die gtx480 nur über 60 statt der geplanten 128 tmus verfügt. der gf104 soll mutmaßlich über 64 tmus verfügen, was 50% des ursprünglichen fermis wären und somit tatsächlich mehr als bei der gtx480.

chendal: dual-gpu-karten kann man grundsätzlich nicht mit singel-gpu-karten vergleichen. die frameverläufe sind nicht vergleichbar. zwar haben dual-karten sehr hohe framezahlen aber auch teilweise extrem große frameabstände in den verläufen. darum ist eine gtx295 klar langsamer als eine 5870, auch wenn sie meist etwas mehr frames bringt.
 
Zuletzt bearbeitet:
@Luebke: Jo das stimmt schon aber aus meiner Sicht ist da eher noch Optimierungsbedarf zwischen der Kommunikation 2er Grafikchips auf einer Karte. Das mit den Frameabständen wird sich sicher peux a peux verbessern mit zukünftigen TreiberOptimierungen ... denke mal unabhängig vom Hersteller. Zumindest wäre das eine schöne Entwicklung :)
 
Zuletzt bearbeitet:
ob es jemals so kommt, dass zwei chips ohne zeitverlust miteinander kommunizieren können, wage ich jetzt mal zu bezweifeln. auf jeden fall bleibt es immer eine frickellösung, die softwareseitig unterstützt werden muss und durch rendundanzen niemals die effiziens eines einzelnen chips errechen kann.

aber wir kommen langsam vom thema ab ;)
 
Beim mobilen Fermi sowie der GTX465 sollte man daran denke, daß das mit 99%iger Sicherheit Chips sind, die sich nicht für GTX480 und GTX470 eignen - die Yield ist so mies, daß so halt teildefekte Chips verwendet werden. Ich kann mir nicht vorstellen, daß wir hier ein Phänomen erleben werden, wie bei den X2, X3 und X4-CPUs von AMD, die aufgrund der sehr hohen Ausbeute tatsächlich einfach nur "herunterkastriert" sind.

Der mobile Fermi wird einfach nicht geeignet sein, mit mehr Shadern und mehr Takt zu laufen, genau wie die GTX 465 nicht mit mehr Shadern funktionieren wird, weil sie einfach teildefekt sind und die defekten Teile der DIE abgeschaltet werden.
 
bei der gtx465 werden die funktionierenden shader wohl meist bei <448 liegen (mit glück auch ab und an mal darüber, da die kontrollen nicht 100%ig sind und beim ersten anzeichen von möglichen fehlern lieber ausgesiebt wird), bei der gtx480m wird das kriterium für die selktion vermutlich die benötigte voltzahl sein, sprich es müssen qualitativ gute chips genutzt werden, um mit möglichst niedriger spannung den takt zu erreichen. dafür ist bei den shadern alles über 352 ausreichend. da die mobilen chips deutlich teurer verkauft werden als die für die gtx470, könnte ich mir vorstellen, dass diese bei der selektion priorität haben.

somit wäre theoretisch auch mal ein exemplar mit den vollen 512 shadern möglich. das wäre aber dann wohl nur einer unter 10000 ;)

ist aber alles nur reine spekulation.

dass die erfolgsquote aber nicht annähernd an die der amd-cpus ranreichen wird, kann man wohl als gesichert ansehn ;)
 
chendal schrieb:
...
1 Kilowatt Strom (also 1000 Watt) kostet bei uns in Hessen aktuell 21-23 cent (preis steigt unaufhörlich...

Eine Kilowattstd und nicht Kilowatt. Sorry fürs Kleinkarriertsein^^


gruß
 
Zurück
Oben