News Neue Gerüchte um Nvidia GeForce GTX 460

tnfruit schrieb:
meine vermutung ist, das die sich bis dahin um 3d kümmern

Oh nein,bitte nicht auch noch AMD ATI die so einen Rotz einführen.Von der Shutter Brille von Nvidia bekommt man nach ner halben Stunde derbe Kopfschmerzen.3D mach nur dann sinn,wenn man einen HD Beamer sein eigen nennt.Auf nem Monitor mit 120 Hz Frequenz sieht das zwar gut aus,aber das Blickfeld ist einfach zu gering.

Ich bin grundsätzlich nicht gegen die 3D technik und im Gegensatz zur ELSA Revelator Brille hat sich diese Technik enorm weiter entwickelt.Jetzt müsste das ganze nur noch zu erschwinglichen Preisen zu bekommen sein.

Bei AVATAR hat mich diese Technik umgehauen und endlich mal ein Film,bei dem im Kino die Leute von Anfang bis Ende komplett ruhig waren :evillol:

Für den Home Entertainment Bereich aber immer noch zu unausgereift.Noch ein paar Jährchen warten.


Greetz!
 
Einfache Frage: Gegen welche Ati tritt den jetzt die GTX 460 an?
 
Badewannenteste schrieb:
im Gegensatz zur ELSA Revelator Brille hat sich diese Technik enorm weiter entwickelt.


Ja? Wo ist denn der große Unterschied? Beides arbeitet doch mit Shutterbrillen.
 
@bitchinheat

da sich nv aktuell so gerne zwischen den amd modellen platziert, dürfte sie zwischen der 5830 und der 5850 liegen
 
bitchinheat schrieb:
Einfache Frage: Gegen welche Ati tritt den jetzt die GTX 460 an?

ich persönlich denke sie wird besser sein als die 5830 aber deutlich schlechter als die 5850.

@topic

ich denke das ist die reste verwertung. ich könnte mir vorstellen das nvidia zur zeit nur das topmodell also die 480 produzieren lässt und alle anderen karten einen defekten teil haben und so entstehen 470 und 460. aber so gewinnt man nun mal auch kein geld. sie sollten einfach den "thermi" in die tonne hauen und was besseres entwickeln. denn so geht es mit nvidia eindeutig berg ab.

nicht das ich das schlimm finden würde aber es muss ja nicht sein.:D ich will ja das meine 5850 relativ günstig bleibt.
 
Angeblich sollen sich auch eigentlich deaktivierte Shader-Einheiten wieder aktivieren lassen. Diese wurden anscheinend per BIOS abgeschaltet. Quelle

Die GTX 480 war schneller als die HD5870, die GTX 470 lag zwischen der HD5850 und HD5870. Ich denke das die GTX 460 etwa auf dem Niveau der HD5850 liegen wird. Wenn sich die Shader wirklich freischalten lassen, dann wird es vielleicht sogar auf GTX 470-Level sein.

Noch habe ich mir die HD5850 nicht gekauft. Wenn die GTX 460 also nicht zu teuer und lieferbar ist, dann wird das vielleicht meine neue Karte :D
 
Miniami schrieb:
Noch habe ich mir die HD5850 nicht gekauft. Wenn die GTX 460 also nicht zu teuer und lieferbar ist, dann wird das vielleicht meine neue Karte :D

ich würde and deiner stelle einfach die 5850 kaufen denn keiner weis wann die 460 raus kommt wenn sie überhaupt rauskommt. ich bezweifel das man die restlichen einheiten komplett wiederherstellen kann. warum sollte man das auch wollen? ok man hat eine gtx 470 oder gar eine gtx 480 zu einem recht günstigen preis bekommen aber der stromverbracuh ist doch recht hoch und ich bezweifel mal das du ein kraftwerk zu hause hast.
 
LuXon schrieb:
Oder vergleichst du auch einen 3Ghz Dualcore mit nem 3Ghz Quadcore?

Schlechter Vergleich! Wenn du schon die beiden CPUs als Referenz nehmen willst, dann wäre die Anzahl der Kerne die Menge des VRAM und der Takt ist der Takt.

Also 3GHz Dualcore vs. 3,5GHz Dualcore wäre da treffender ;).
 
Zum Thema ATI und 3D. Das funktioniert mit Shutterbrillen seit Catalyst 10.3. Mit dem IZ3D Treiber, den man kostenfrei herunterladen kann auch mit anderen Technologien und gar nicht schlecht, z.B. hab ich bissle Borderlands mit Rot/Grün Brille gspielt. Im Endeffekt bietet ATI mehr Optionen 3D zu erleben als NVidia, es ist nur nicht so bekannt.

Greetz,
GHad
 
atichecker schrieb:
ok man hat eine gtx 470 oder gar eine gtx 480 zu einem recht günstigen preis bekommen aber der stromverbracuh ist doch recht hoch und ich bezweifel mal das du ein kraftwerk zu hause hast.

keine ahnung was hier immer über den stromverbrauch gejammert wird. ich habe eine GTX470, zocke im schnitt so 2-3 stunden am tag. bei gut 125 watt mehrverbrauch gegenüber einer ati, macht das sagen wir mal gemittelt rund 0,33kwh/tag, was dann etwa 10 cent entspricht.
ich zahle meinen strom selbst (wahrscheinlich im gegensatz zu 95% aller stromverbrauchsheuler hier), aber solche "mehrbelastungen" fallen wirklich nicht ins gewicht!
 
mir ist egal gegen was die gtx 460 antritt... hd 5770? ;)
mir kommt keine nvidia graka mehr in Rechner.


ja ne is klar @saugling bei deiner gtx 470 unter volllast wirst wohl nach guter 1 stunde schon 1kwh. verballern wo andere mit ati hd5850 erst nach 3-4 stunden 1kwh verbraucht.
würde da noch mal nach rechnen.
 
Zuletzt bearbeitet:
Wer regt sich eigentlich über Stromverbrauch auf? Wir müssen mehr Strom verbrauchen. Wenn wir nicht einmal 550W-Netzteile ausreizen, na was wird denn dann aus den 1200W-Netzteilen? Die kann dann ja niemand gebrauchen und dann gehen die Netzteilhersteller mit ihren Super-PSUs baden. Nach dem Gigahertz und Terrabyte bereits etabliert sind, ist es entgültig Zeit für den Kilowatt-PC.
Ich rufe zu mehr SLI-Systemen auf. Vergesst die 460, die zieht keinen Saft. Es müssen schon mindestens zwei 470er sein.
 
Ich spreche mal mit den Jungs die die PCIe-Spezifications festlegen und rate denen, dass sie Grafikkarten mit mehr als 6 8-Pin-PCIe-Stecker erlauben sollen und so den Stromverbrauch in die Höhe treiben sollen. Dann schafft es nVIDIA vielleicht mal wieder eine Grafikkarte auf den Markt zu bringen, die sich deutlich von AMD absetzen kann.
Ist doch echt lächerlich mit der Fermi GTX480. Selbst die GTX470 ist doch echt nicht gelungen.

Wer regt sich eigentlich über Stromverbrauch auf? Wir müssen mehr Strom verbrauchen. Wenn wir nicht einmal 550W-Netzteile ausreizen, na was wird denn dann aus den 1200W-Netzteilen? Die kann dann ja niemand gebrauchen und dann gehen die Netzteilhersteller mit ihren Super-PSUs baden. Nach dem Gigahertz und Terrabyte bereits etabliert sind, ist es entgültig Zeit für den Kilowatt-PC.
Ich rufe zu mehr SLI-Systemen auf. Vergesst die 460, die zieht keinen Saft. Es müssen schon mindestens zwei 470er sein.
__________________
1.PC CPU:i7 860; Mainboard:Gigabyter GA-P55-UD6; GPU:Gainward GTX470; Ram: 4 GB G.e.i.L. 2133er; Gehäuse:Lancool K62; Netzteil: Cougar CM 550W
2.PC CPU:Core2Duo E6850; Mainboard:Gigabyte GA-P35-DS3; GPU:Gainward HD4850 GS; Ram: 2x2GB Geil 1066er; Gehäuse:Enermax Vostok; Netzteil: Be Quiet! Dark Power Pro 530W
> MacBook Alu, Dual Core 2,4 GHz, 2 GB DDR3-1066, 250 GB HDD, 9400M

Wenn der Kuchen redet, haben die Krümel Pause.
 
Ycon schrieb:
Ich pers. glaube nicht, dass die beiden fehlerhafte technische Pläne an TSMC geschickt haben und deswegen die Karten nicht so der Brüller sind (nVidia z.B. bringt deren Karten ja unterhalb der ursprünglichen Spezifikation auf den Markt, etc.)

nVidia hat schon Fehler in der Planung gemacht, die sehr spät erst aufgefallen sind, deswegen auch die Verschiebungen. Bei anandtech kannst du lesen was bei ATI alles nötig war um die 5800 Serie mit den besten Chancen in 40nm produzieren zu lassen. Dafür hat man auch ganz schön brutale Resultate mit der 4770 in Kauf genommen. Wie dem auch sei, die Situation ist (entschuldigung) beschissen. Sowohl für ATI, als auch nVidia und für uns erst recht. Und TSMC hat Narrenfreiheit und verdient bestimmt auch noch ganz toll als exklusiver Fertiger in der Technik :-(
 
@ELMOKO
Nein! Deine Vermutung ist falsch und die Rechnung von Saugling in etwa richtig:
Leistungsaufnahmedifferenz = 125 W
125 W * 3 h = 375 Wh = 0.375 kWh

Bei einem Strompreis von 25 Ct/kWh entspricht das etwa 10 Ct.

Wenn der PC aber neben dem Spielen auch für andere Dinge eingesetzt wird, leidet man natürlich auch unter dem höheren 2D/2Monitor-etc.-Verbrauch.
 
da fällt mir grade was auf ... meine infos gf102 halber gf100 besagt auch, das der "voll gf102" in der gts450 zum einsatz kommen soll ... die gtx 460 könnte also doch ein fast vollkommen zerstörter gf100 sein oO

sorry für die fehlinfo oben
 
@ELMOKO
hilfe, wo bin ich hier gelandet? :lol:
ist dir klar was eine kilowattstunde ist? offenbar nicht!
kleine nachhilfestunde:
damit auf deinem stromzähler (naja, eher dem deiner eltern:D) 1kwh auflaufen, müsstest du eine leistung von 1000 watt eine stunde lang "verbraten".

@Janusgesicht
ich werde wegen 10-15 watt mehrverbrauch im 2D desktopbetrieb jetzt keine detailierte mehrkostenrechnung anfangen. hier reden wir von gut 5 euro im jahr (ausser du hast dein system 24/7 am laufen).
 
Das sind 36,5€ im Jahr, allein durchs zocken, bei der eh schon teureren Karte.
Und was Janusgesicht auch meint, ist der zusätzliche Verbrauch bei mehr als einem Monitor - das sind nicht 10-15 Watt sondern 50-60 Watt. Jede einzelne Minute die du Surfst, dir Bilder anschaust oder nen Browsergame spielst.

Würde sich der Mehrverbrauch z.B. in einem preislichen Vorteil beim Kauf bemerkbar machen, wäre das ja dahingehend noch in Ordnung. Tut es aber nicht.
 
Zuletzt bearbeitet:
Wer die 3 Bildschirme bei allen Anwendungen nutzen muss bitteschön. Ich denke die Energiebewussten User werden das nicht tun. Auch werden Normalanwender sicher keine 3 Monitore Nutzen, eher Leute die sowas Hobbymäßig betreiben oder beim Arbeiten wirklich einen Nutzen daraus ziehen können. Und die sind sich dem Mehrverbrauch denke ich bewusst und nehmen diesen auch in kauf.
 
Zurück
Oben