News Weitere Bilder und Infos zur GTX 470/480

Status
Für weitere Antworten geschlossen.
sind die gleichen bilder wie wir sie beim letzten mal schon sahen, nur dass diesemal die zensierungen mit weisen klebern makiert sind.. rechts außen, der lange senkrechte bei den anschlüssen, wenn man genau hin sieht, sieht man den schwarzen sticker auch..

somit sind es KEINE neuen bilder, sondern die selben..


Fazit: solange hier diese aufkleber das wichtigste verstecken (am chip hätte man die echtheit spätestens gesehen) halte ich das nach wie vor für einen fake und dahinter verbirgt sich ne geforce 2xx GTX oder sowas... aber keine fermi.
 
Zuletzt bearbeitet:
@AndrewPoisen - gute Idee mit dem Luftdurchlaß auf dem PCB - Habe mich auch schon über Temperaturanstieg bei CF geärgert, weil die Karten zu dicht aufeinander hängen und der Karte in PCIe Slot 1 die Luft wegbleibt....:freak:
 
Also definitiv kein Fake. Wer jemals einen Kühler von einger GTX200er abgenommen hat, wird nichts vergleichbares mit diesem Bild finden. Die Anordnung sowie die komplette Architektur ist anders.

Das Aussehen des Chips erinnert mich aber stark an den G80 - zumindest was die Größe angeht.

Ergänzung:
Der Dual-Fermi (glaube Gemini?) war in irgendeinem Gerücht mal für Juni/Juli geplant. Ob das noch stimmt, kann mal wieder keiner sagen. Sollten sie es schaffen zwei GTX470er irgendwie auf eine Platine zu bekommen wie die GTX260er/275er beim GTX295 wäre es zumindest möglich.
Zurzeit spülen aber die News zu den GTX470/480 das Netz zu stark zu. Man findet die alten News kaum noch.
 
Zuletzt bearbeitet:
Ich hoff die karten werden nicht VIEL schneller als die 5800er :p sons hab ich meine umsonst gekauft ._.
 
@CockyBocky
Umsonst bestimmt nicht, denn du kannst ja bereits damit spielen :evillol:

Selbst wenn die Nvidia Fermis schneller wären hast du immer noch gute Werte mit deiner 5800er, also keine Angst vor den Benchmarks. Du musst bedenken, es gibt immer noch genug Leute die fahren auf eine Nintendo Wii ab - mit Auflösungen, die wir PC-Gamer nicht mal in den 90ern hatten. Während andere hingen nicht mal mit HD und 1920 zu 1080 (HD) zufrieden sind.

Such dir dein persönliches Feld aus, nutz dein zur Verfügung stehendes Budget und spiel glücklich.
 
Zuletzt bearbeitet:
CockyBocky schrieb:
Ich hoff die karten werden nicht VIEL schneller als die 5800er :p sons hab ich meine umsonst gekauft ._.

Wieso umsonst? Es ist doch noch unbekannt, wie viel die Karten überhaupt kosten werden. Außerdem sollte man sich fragen, ob solche hohen Leistungsaufnahmen gerechtfertigt sind... In meinen Augen einfach nur krass.
 
Also so weit ich weis ist der G80 im A2 Stepping erschienen: https://pics.computerbase.de/1/5/8/8/6/151-1080.2876949035.jpg

Die 8800 Ultra hatte dann erst A3: https://pics.computerbase.de/1/7/0/6/0/3-1080.3528348682.jpg

GT200 auch A2 Stepping: https://pics.computerbase.de/1/5/0/6/1/25-1080.3162155167.png

Hoffentlich gibts da kein Mischmasch bei Fermi, spätestens GPU-Z wird dann Aufschluss drüber geben welches Stepping man bekommen hat. Für eine GPU ist das A3 Stepping auf jeden Fall eines der höchsten Steppings in letzter Zeit. Ob das gut ist in Form von weniger Stromverbrauch, weil man einfach zu viel Zeit hatte wegen TSMCs Versagen, oder weil die GPU das ganze wirklich gebraucht hat, weils vorher zu schlecht war, das kann man auslegen wie man will. Da hilft nur ein Test. :rolleyes:

Zum Stromverbrauch kann man immer noch nichts sagen, weil TDP und Stromanschlüsse einfach keine Aussagekraft drüber haben. Wird auf jeden Fall eine harte Nuss den Idle Verbrauch und die Performance per Watt der HD 5000er zu knacken, so viel ist sicher...
 
Ich würde die Berichterstattung solange boykottieren, bis es mal gescheite Infos und einsatzbereite Produkte gibt, anstatt NVidia aus der Hand zu fressen und ihnen monatelang nachzuhecheln. Die sind nicht in der Lage, ihre Produkte fertig zu präsentieren. Dann sollte man sie nicht beachten, anstatt sie für ihre Versteckspiele auch noch zu belohnen. Die tun ja so, als gäbe es nur sie. Da haben sie sich bei mir getäuscht.
Das gibt auch für andere Hersteller. Diese taktischen Spielchen mache ich nicht mit.
Im Moment ja nur keine ATI kaufen, die NVidia könnte ja viiel besser sein und in einem halben Jahr dreht sich das Spielchen wieder. Nur wer das boykottiert, zeigt den Herstellern, dass sie ihr Praktiken ändern sollen.
 
Och schade, wieder keine neuen infos! :( Ich will endlich eine laufende Fermi sehn mit benches und so! :evillol: Wenn ihr da schon die Karten im hinterzimmer liegen gehabt habt, warum habt ihr denn nich auch gleich ein paar benches gemacht? Wäre sicher sehr spannend gewesen! :D
Sind die angaben der Leistungsaufnahme nur schätzungen aufgrund der Anschlüsse oder die tdp-werte? Wie kommt man denn dann damit auf died stromaufnahme? :confused_alt: das eine hat doch nix mit dem anderen zu tun, sagt man hier zumindest.
 
bin schon auf die ersten tests auf cd gespannt,... vorallem da bald graka-tausch ansteht :D
 
Ich bin sowas von gespannt auf die Karte. Ich mein wenn sie nicht die bombe ist hat Nvidia verloren. Ati hatte vorsprung und kann sobald Nvidias karte draussen ist den Preis drücken also muss Fermi ja eine Leistungsrevolution bringen um in dieser Generstion mithalten zu können. aber genau solch eine bombenleistung denke ich wird sie haben.
 
Hardware_Hoshi schrieb:
Stromverbrauch idle?
Im Prinzip ist der maximale Stromverbrauch zweitrangig, denn es kommt hauptsächlich darauf an wie gering die Wattzahlen im idle, also Leerlauf sind. Die meisten User dürfte deshalb eher interessieren ob und wie die Stromsparfunktionen. Sofern irgendwann einmal Tests vorliegen, kann man sehen, ob der Mittelwert aus allen Verbräuchen gut oder eher schlecht sind.

Alles andere ist reine Spekulation und raten ins Blaue und fördert nur Trolle und Fanboys zutage.

@ Hardware_Hoshi
Aus deiner Sicht ist die elektrische Leistung unter Last vllt zweitrangig, aber denk mal an die Leute, die sich dann um eine 480er stabil zu betreiben auch noch ein neues Netzteil kaufen dürfen! Bei 300 Watt, sollten es denn wirklich so viel sein, wäre das wohl eine erhebliche Zahl an Betroffenen...
So oder so, eine Grafikkarte die mir beim Zocken 250-300 Watt aus der Steckdose saugt, ist für mich eher ein FAILmi denn ein FERMI!
 
Ich bin sowas von gespannt auf die Karte. Ich mein wenn sie nicht die bombe ist hat Nvidia verloren.
Wenn die Architektur als ganzes floppt sind sie genauso verloren wie ATI seit dem R600, erst Jahre später können solche Fehler dann beseitigt werden wie erst die HD 5000 dann eindrucksvoll gezeigt hat. Bei ATI steht so ein Poker übrigens mit der HD 6000 ca. Anfang 2011 an.
 
spätestens GPU-Z wird dann Aufschluss drüber geben welches Stepping man bekommen hat.

Ja genau, deshalb zeigt GPU-Z bis heute die 285er Chips als Rev. B1 an, obwohl es B3 sind.
GPU-Z ist ein Hilfsmittel, aber garantiert kein Lieferant für Fakten.

solange hier diese aufkleber das wichtigste verstecken (am chip hätte man die echtheit spätestens gesehen) halte ich das nach wie vor für einen fake und dahinter verbirgt sich ne geforce 2xx GTX oder sowas... aber keine fermi.

Zum einen gibts Bilder in Web, die auch die Fertigungscodes etc. des Chips zeigen, zum anderen könnte man wenn man der Theorie folgt das ohnehin alles Fake ist, auch die Aufschrift des Chips faken.
Übrigens gibts keine Geforce 2XX Einzelkarte mit Lüftungsloch. Das hatte die 295 und da sah die Platine um Welten anders aus.
Die Frage ist doch, wozu das ganze?
Die Karten werden Ende März offiziell vorgestellt und kommen -in welcher Dosis auch immer- in den Handel, auf der Cebit rennen die mittlerweile Stinklangweiligen Sled-Demos und Kartenfotos sowohl Aus- als auch Eingebaut gibts ebenfalls zuhauf.
Langsam sollte auch der letzte geschnallt haben, das es tatsächlich Fermi-Karten gibt, auch wenn das einige vielleicht traurig macht.
 
Zuletzt bearbeitet:
Stören hier niemanden die angeblichen 300W an der die GTX 480 kratzen soll? Damit wäre wohl die Mär vom Thermi definitiv auf dem Tisch.
 
inge70 schrieb:
Fazit: solange hier diese aufkleber das wichtigste verstecken (am chip hätte man die echtheit spätestens gesehen) halte ich das nach wie vor für einen fake und dahinter verbirgt sich ne geforce 2xx GTX oder sowas... aber keine fermi.


:lol: sorry mehr fällt mir dazu nicht ein ;)

Kasmopaya schrieb:
Wenn die Architektur als ganzes floppt sind sie genauso verloren wie ATI seit dem R600, erst Jahre später können solche Fehler dann beseitigt werden wie erst die HD 5000 dann eindrucksvoll gezeigt hat. Bei ATI steht so ein Poker übrigens mit der HD 6000 ca. Anfang 2011 an.

was hat die 5000 gezeigt? dir ist schon bewusst das die 5000 serie nach wie vor auf dem R600/2900XT basiert?!?
 
Zuletzt bearbeitet:
@godcast: Les doch mal richtig! :D Das ist eine Schätzung wegen der Anschlüsse und hat nix mit der echten lastlaistungsaufnahme zu tun. :lol:
 
Diese Lüftungsschlitze lassen wohl wirklich auf einen hohen Verbrauch schliessen. Anders sind die fast nicht zu begründen. Aber 300 Watt wären wirklich nicht mehr zeitgemäß, man denke an die Erderwärmung. Da kann man ja froh sein, dass es nur 5000 Karten geben soll am Anfang. Dann werden diese Umweltsünder wenigstens nicht auch noch in großer Stückzahl verbreitet. Das Testsystem von CB mit Intel Core i7 965 Extreme Edition und einer HD5870 hat ja gerade mal knapp über 300 Watt verbraucht unter Last.

Also wie es aussieht wird Nvidia mit diesem Monster wohl die Leistungskrone wieder zurückerobern wollen und zwar mit aller Macht und Rohgewalt. Das Preis/Leistungs- und das Leistung/Verbrauch-Verhältnis werden aber wohl ziemlich sicher bei AMD besser bleiben. Die haben aus den Fehlern des R600 gelernt, mit der HD5830 aber leider einen kleinen Dämpfer gezeigt. Niemand ist perfekt, aber trotzdem scheint AMD hier vernünftiger zu Arbeiten.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben