[NEWS] GeForce GTX 485

L

l1n00x

Gast
Ab diesem Herbst soll es einen Refresh der GTX 480 geben, nämlich die GTX 485. Neben leicht erhöhten Taktraten für Speicher und Chip, sollen bei dieser Karte die vollen 512 Shader aktiviert sein, die noch bei der GTX 480 auf 480 Stück beschränkt war. Wie die GTX 480 basiert aber auch die GTX 485 auf dem GF100.
Fraglich ist, ob Nvidia bei dem neuen Topmodell die Lautstärke, insbesondere aber die Leistungsaufnahme senken kann. Eine weitere Steigerung des Energiebedarfs kann ich mir nicht vorstellen, jedoch basiert die Karte auf demselben Chip umfasst mehr Shader und ist nochmals höher getaktet.


Es bleibt zudem sehr spannend, wann auf das Topmodell kleinere Modelle ala GTX 475 folgen werden. Vielleicht schafft es Nvidia damit nicht nur die Leistungskrone weiter auszubauen, sondern auch Spieler, die auf die Leistungsaufnahme achten, anzusprechen.

Alles kann HIER auch noch mal nachgelesen werden.


Vielleicht kommt die GTX 475 erst später, da diese sich dann eher an geldbewusste Spieler (Leistungsaufnahme) richten könnte. Ein Chip-Refresh wäre hier denkbar.

Was meint ihr?
 
Zuletzt bearbeitet: (GTX 470 --> GTX 475)
Durch ein neues PCB und neues Stepping wäre eine Senkung des Energiebedarf durch aus denkbar.
 
Also rein von der Leistung her sind diese Karten Schwachsinn! Lohnen würden sich diese nur durch niedrigere Leistungsaufnahme , wie du halt schon sagtest ! Ansonsten sollte nvidea mal drüber nachdenken ob sie nicht noch mehr kunden an amd/ati verlieren wollen ! Ich bin nach wie vor enttäuscht von den völlig überteuerten und stromfressenden Monstern!

Da wird höchstwahrscheinlich auch keine 485 oder 475 helfen!^^
 
Eine Karte die noch mehr Strom braucht als die GTX 480?

Na denn, der Umwelt zur Liebe.


MfG

tmkoeln
 
der redakteur der quelle vermutet, dass nvidia die chips selektiert.
so könnte die leistungsaufnahme ungefähr gleich bleiben.
 
naja die Leistungsaufnahme kann auch besser werden, wenn die den Produktionsprozess verbessern. Dadurch könne Leckströme kleiner werden und somit auch die leistungsaufnahme.
Laut einen englischen artikels denn ich vor dem Release der GTX480 gelesen hab, soll fermi extreme schwierigkeiten mit den Leckströmen haben, deswegen auch den hohen Strombedarf :(
 
(ironie ein)Wäre doch geil wenn die GTX485 die erste Standartkarte mit zwei 8-pin Anschlüssen wird und dann noch SingleGPU. Damit kann nVidia dann auch noch werben, ich seh schon das MediaMarkt Prospekt vor mir liegen: "Weltneuheit........"(ironie aus)

Hoffentlich wird das was ordentliches, und nicht noch eine Karte die sich in die Thermi-Grillforce-Fail-Reihe einsortiert. Kann mir aber fast nicht vorstellen das die weniger verbraucht als eine GTX 480, selbst gelichviel ist zu viel.
 
sehe ich genauso, bevor nVidia Energiemonster 3.0 auf den Markt wirft sollten die lieber noch 2 monate warten und was gegen den hohen Energie bedarf tun. ich mein hallo ?!
ATI hat es auch geschafft und nVidia hat mehr Geld zur Forschung zur Verfügung wenn ich mich nicht ganz irre....

naja ich hab nVidia schon abgeschrieben vlt. kommt in der nächsten generation ja mal wieder was anständiges.
 
ich finds interessant dass es trotzdem genug "kluge" menschen gibt, die mit aller kraft versuchen ihre ach so "tolle" eisbären-töter-nvidia-karte einsetzen und das auch noch für die "beste" lösung halten. außerdem hat seit langem ati die performence krone. die hd 5970 ist gegen alles erhaben. nvidia hat nur so "gute" grafikkarten entwickelt, das man keine dual gpu "braucht" ... (bzw. es technisch nicht möglich ist :-) )
ich schreibe das als ehemals nvidia anhänger
 
Im Herbst soll laut Gerüchten auch der GF100b erscheinen. Bessere Fertigung, geringerer Energiebedarf und mehr Leistung.

Ich drücke nVidia die Daumen.
 
@ Luxon

Die 5970 kann man vergessen.
Die Microruckler merkt man stark bei der Karte.
Beim zocken ist eine GTX 480 haushoch überlegen.
Ich erwähne nur mal kurz PHysX , Cuda und die eindeutig höhere Tessallation und AA Leistung.
 
Schonmal mit ner Dualkarte gezockt @ Martinherrmann?
Und das leidige Thema mit den µrucklern ist wirklich nicht so schlimm, wie es hier in den Foren gehyped wird.
@ Topic
Ich bin mal gspannt, ob Nvidia die Leistungsaufnahme senken kann.
Ich kann mir bei der Fertigung bei mehr Shadern und eventuell allen Rops, die man bei der GTX480 ja zur Hälfte gekürzt hat nicht wirklich eine Karte vorstellen, die dann weniger verbraucht.
Aber die effizients verbessern wäre trotzdem schön.
 
Ja ich habe schonmal mit einer Dual gezockt.
Vor der 480 hatte ich eine GTX 295 und im Zweitrechner habe ich mom eine 5970 ich weis also wovon isch rede:)
 
Schaffe89 schrieb:
Und das leidige Thema mit den µrucklern ist wirklich nicht so schlimm, wie es hier in den Foren gehyped wird.
Sagt der, der sein µRuckelndes CF-Gespann verteidigen muss.

SGPU > MGPU

Schaffe89 schrieb:
eventuell allen Rops, die man bei der GTX480 ja zur Hälfte gekürzt hat
WTF?! :rolleyes:
 
Zuletzt bearbeitet:
@Schaffe89
Es ist sicherlich auch relativ subjektiv. Vor allem wenn man mit Vsync zockt und hohe Settings wählt, die man bei so einer Karte auch zu erwarten hat, sollte man leicht in die Gefilde der MR kommen.
BTW
Es gibt ja auch genug Leute die sich über AF Flimmern beschweren . Von daher gibt es auch Leute die MR sofort sehen.
 
ich bin ja wirklcih mal gespannt was der refresh bringen wird beim fermi.

übrigens nettes schmankerl für die "ne so starke karte gerbacht das man keine mgpu karte braucht" fraktion:

NV wird eine dualkarte auf basis zweier 475 bringen laut gerüchten und kehren damit in dem multiruckler markt zurück XD
 
Auf Basis zweier GF104 aka GTX 460 OC.
 
Nur das Nvidia die MR deutlich besser im Griff hat als ATI!:heilig:
 
y33H@ schrieb:

Irgendwas flattert mir im Kopf herum von einer Halbierung. Wars jetzt im Vergleich zu den G200 oder am Chip selbst.
Vielleicht kannst dich ja noch erinnern.

y33H@ schrieb:
Sagt der, der sein µRuckelndes CF-Gespann verteidigen muss.

Sage ich, weil ich schon etliche CF und SLI Systeme hatte.
Gerne werden Fazits, besonders von PCGH übernommen und für allgemein gültig erklärt. Nach dem Motto Multi GPU=Schrott.
Und jeder plapperts nach. So siehts aus im Forum.
Martinherrmann mal ausgeklammert, wenn er schon Probleme damit hatte.

martinherrmann schrieb:
Es gibt doch noch Leute hier die Ahnung haben.

Ja besonders die, die gleich persönlich werden und nichts zur Diskussion beitragen. Zeugt von unglaublich gut umgesetzten Fachwissen.
 
Zuletzt bearbeitet:
Zurück
Oben