News Weitere Bilder und Infos zur GTX 470/480

Status
Für weitere Antworten geschlossen.
Nvidia wirds inoffiziell ziemlich egal sein, welcher Partner Bilder veröffentlicht! Eine bessere Werbung gibt es für Nvidia nich. Würde es keine "Löcher" geben, würde keine sau über Nvidia schreiben bzw. bei weitem nicht in diesem Umfang, aber so sind die schlicht und ergreifend ununterbrochen in aller Munde. Es vergeht kein Tag ohne "Topnews: Fermi ist angelich eine Grafikkarte" ;)
 
Die Bilder bestätigen schonmal die VRAM-Größen von 1280MB bei der GTX470 bzw 1536MB bei der GTX480.
Leistungsaufnahme und Taktraten bleiben weiterhin nur Spekulation.
Wenn die Taktraten aber schon wie beim GT200 im vergleich zu ATI spürbar geringer ausfallen, dann kann man keine allzu große Mehrleistung erwarten.
 
Wen interessierts ? Es ist nur ein Stück Hardware ... es kann nicht Kaffee kochen, keine Wäsche waschen, kann kein Mittagessen kochen, es heilt nicht Krebs oder Aids ...

Ehrlich gesagt versteh ich das ganze Getue um diese Grafikkartengeneration nicht wirklich. Aber es ist faszinierend zu sehen wieviele auf diese PR Masche reinfallen.
 


Mal eben mit meiner alten Karte verglichen. mfg :)
 
Zuletzt bearbeitet:
Eigenartig, dass noch immer keiner eine lauffähige Fermi gesehen hat. Überall wo die GF100 Demo gelaufen ist waren die Gehäuse verschlossen und man konnte nicht reinsehen. Warum die Spielchen? Laufen da vermutlich sogar ATI Karten oder GT200 Karten? Welche Gründe könnte es noch geben?
Ich denke noch immer: Hätten sie was das läuft, würden sie es stolz zeigen... :o
 
SixpackRanger schrieb:
Wen interessierts ? Es ist nur ein Stück Hardware ... es kann nicht Kaffee kochen, keine Wäsche waschen, kann kein Mittagessen kochen, es heilt nicht Krebs oder Aids ...

Ehrlich gesagt versteh ich das ganze Getue um diese Grafikkartengeneration nicht wirklich. Aber es ist faszinierend zu sehen wieviele auf diese PR Masche reinfallen.

Du sagst "nur"?! Gerade weil es Hardware ist, stehe wir doch alle so darauf. Wir sind alle Pioniere und Hardwarejunkies - natürlich interessiert es uns. Anders dagegen den "Normalo", der gerade mal weiß wie man den PC anschaltet. Dem ist Fermi egal, der ist schon froh, wenn er ins Internet kommt (klickt auf IE-Symbol oder hält Google-Suchmaske für Internet:lol:).
 
rocksolid84 schrieb:
@ Hardware_Hoshi
Aus deiner Sicht ist die elektrische Leistung unter Last vllt zweitrangig, aber denk mal an die Leute, die sich dann um eine 480er stabil zu betreiben auch noch ein neues Netzteil kaufen dürfen! Bei 300 Watt, sollten es denn wirklich so viel sein, wäre das wohl eine erhebliche Zahl an Betroffenen...
So oder so, eine Grafikkarte die mir beim Zocken 250-300 Watt aus der Steckdose saugt, ist für mich eher ein FAILmi denn ein FERMI!

Hm, das tolle daran, da kannst das Netzteil für die Graka sparen, die schließte dann gleich direkt an die Steckdose an. Also kein neues Netzteil, sondern ne neue Verteiler-/Steckerleiste ist dann nötig.
 
Zuletzt bearbeitet:
Um ehrlich zu sein, die Leistungsaufnahme von dem Chip ist doch völlig egal O.o

Was primär zählt ist der "Wirkungsgrad" bzw. Leistung pro Watt. Wenn das Ding doppelt so viel Strom zieht als ne 5000er ATI, dafür jedoch das Dreifache an Rechenleistung bereit stellt ist der Mehrverbrauch gerechtfertigt.
 
@ Damien White

Richtig und deswegen frage ich mich auch regelmäßig und öffentlich warum CB nicht endlich ein solches Rating einführt. Die Daten sind sowohl bei CPUs als auch bei Grafikkarten vorhanden, nur offensichtlich will keiner die Tabelle erstellen.
Man könnte sogar einen Value Faktor mit Stromverbrauch, Leistungsrating und Anschaffungspreis errechnen. Auch diese Daten sind alle vorhanden. Ich würde nur auf den Wert schauen, da er alles vereint, was interessiert.


P.S.: Hoffe hierzu endlich mal eine Reaktion zu bekommen. Die Emails an die Redaktion waren fürn A****. Sorry, aber das musste mal gesagt werden. Ich habe über die Jahre hinweg schon ein paar Nachrichten (wohl weniger als 20) an die CB Jungs geschrieben habe und Antworten gibts kaum. (Sorry für die Verallgemeinerung aber einzelne Namen nennen bring ja auch nix.


@ Tinpoint

Hmm, wenns ein Fake wäre um die GF100 schlecht aussehen zu lassen, wäre die 5870 bei den Min. Frames in dem einen Crysis test nicht so viel schlechter. Was meinst du? Könnte also stimmen. Auch dass die GF100 auf den höchsten Settings so knapp dran kommt.
 
Zuletzt bearbeitet:
GodCast schrieb:
Stören hier niemanden die angeblichen 300W an der die GTX 480 kratzen soll? Damit wäre wohl die Mär vom Thermi definitiv auf dem Tisch.

Immer diese Pappnasen hier. High-End verbraucht auch High-End!
Ist genauso als wenn ich rumheule das mein Porsche zuviel frisst, mein 50 Zoll plasma 300 Watt verbraucht oder mein 200qm Haus hohe Heizkosten hat:freak:

Am besten Avatar in Echtzeit rendern und das ganze mit ner Knopfzelle als Spender.

Dann spielt mit eurer 5770 auf eurem 19 Zoller aber heult nicht alle Threads voll.
 
Zuletzt bearbeitet:
@DvP

Man müsste den direkten Watt-Wert der Karte oder des Prozessor ermitteln. Bei CPU`s geht es meines Wissens nach nicht (wird ja immer das Gesamtsystem genommen) bei Grafikkarten nur durch einen Ensprechenden Adapter.

Erst wenn du das einzelne Bauteil isoliert messen kannst, kannst du auch so eine Tabelle aufstellen. Anonsten hats nicht viel Sinn.

Ich zum Bleistift reg mich immer leicht auf wenn CB nen 600 Watt Netzteil für kleine Karten und Prozessoren verbaut.
 
Und wo sind jetzt die Infos zur Leistung ? Stromaufnahme, Länge, etc. das ist doch zweitrangig. Erstrangig ist für mich die Leistung und da vermiss ich irgendwo informationen zu.

mfg Jojo
 
meiermanni schrieb:
Immer diese Pappnasen hier. High-End verbraucht auch High-End!...

Es hat aber kaum jemand (bis auf einige Wenige) nen High-End-Einkommen für die Stromkosten oder???
Selbst die meisten Haussicherrungen sind dann bei mehreren Verbrauchern bald zu schwach, da wird das Stromkabel in der Wand dann zur Heizspirale, (statt Füßbodenheizung gibs dann bald ne Unterputz-Wandheizung), da kann die Hausdame dann nicht mal mehr den Backofen/Herd oder Staubsauger anwerfen, wenn am selben Leitungsnetz, gibt's dann ne Stromnutzungsplanung in der Fam.
 
Zuletzt bearbeitet:
White_Eagle schrieb:
Es hat aber kaum jemand (bis auf einige Wenige) nen High-Endeinkommen für die Stromkosten oder???

Ganz einfach dann kauft man sich die Karte nicht,(und greift zu einer 5870) aber das ewige Rumgeheule ist doch nicht zum Aushalten!
Davon mal abgesehen, wer die 20€ mehr im Jahr nicht tragen kann, kann sich auch keine >500€ Karte leisten.
 
Man könnte jetzt unsachgemäß werden und behaupten, dass ATI sich auf dem Gebiet der Leistunsaufnahme verbessert und nVidia sich verschlechtert hat und dann noch anführen, dass bei den CPUs mehr Leistung heutzutage mit weniger Verbrauch einhergeht und damit deutlich zeigt, dass bei den Grafikkarten von nVidia der Trend SCHEINBAR deutlich in die falsche und unökonomische Richtung führt, aber das sollte man bei den verkappten Fanboys hier nicht machen glaube ich :D
 
Ich glaube die Pappnasen hier sind eher diejenigen Leute, denen der Verbrauch völlig egal ist. Nur damit sie Porsche fahren, auf ihren tollen 50" Plasma glotzen und Crysis mit 50xAA und 9000x5000 Pixel spielen können werden Resourcen verbraucht, die dann dafür sorgen, dass die Umwelt weiter verschmutzt wird und Atomkraftwerke nicht abgeschaltet werden. Und kommt mir nicht, es wäre jetzt egal, was der einzelne macht. Wenn jeder in Deutschland im Jahr im Schnitt nur 125 kWh einsparen würde, dann wären das 10 Milliarden kWh. Würde jeder einmal mehr mit dem Fahrrad anstatt mit dem Auto fahren könnte man ebenso viele Liter Benzin oder Diesel sparen. Aber soviel Nachhaltigkeit und ökonomisches Denken kann man wohl vom durschnittlichen Hardware-Freak nicht erwarten. Dürft ihr alle mal euren Kindern erklären: "Papa, warum haben wir heute kaum noch was zu essen und warum ist es draußen so dreckig und grau?". " Das liegt daran mein Sohn, dass der Papa unbedingt Crysis auf seinem 30" Monitor in hoher Auflösung spielen wollte. Das war wichtiger als alles andere."

Denkt mal darüber nach...
 
Qbix schrieb:
dass bei den Grafikkarten von nVidia der Trend SCHEINBAR deutlich in die falsche und unökonomische Richtung führt, aber das sollte man bei den verkappten Fanboys hier nicht machen glaube ich :D

Und? Das streitet auch kein Nvidia Nutzer ab. Wüsste nicht was das mit Fanboy/Nichtfanboy zu tun haben soll.
Dabei könnte man ja auch noch anführen das ATI erst ab der 5xxx Serie es mit dem Idle Verbrauch hinbekommt.
Und wie gesagt erst einmal abwarten was der Fermi mehr leistet und dementsprechend mehr verbraucht und das ganze kannst du dann gerne in Relationen setzen.
 
@Derschlambi

das problem ist einfach, dass fast keiner CRYSIS mit 50xAA und 9000x5000 spielen will, koste es was es wolle
tatsache ist dass jeder nen mittelklasserechner hat und crysis auf mittel-high zockt in 22" auflösung...und das stellt genauso eine minderheit dar, die meisten user haben nämlich keine ahnung von computern, zocken und surfen auf ihren 1500€ Wannabe Mediamarkt und Aldi rechnern
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben