Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Überarbeitete GTX 590 und GTX 595 im Anmarsch?
- Ersteller Volker
- Erstellt am
- Zur News: Überarbeitete GTX 590 und GTX 595 im Anmarsch?
GeneralAnal
Lieutenant
- Registriert
- Okt. 2009
- Beiträge
- 603
Das bringt uns zur alles entscheidenden Frage:
Werden die 8pin Anschlüsse übereinander oder nebeneinander verbaut?
Werden die 8pin Anschlüsse übereinander oder nebeneinander verbaut?
FloridaRolf
Cadet 2nd Year
- Registriert
- Apr. 2011
- Beiträge
- 21
So ein Ding überhaupt noch mit Luftkühlung betreiben zu wollen finde ich extrem gewagt von Asus. 
LundM
Banned
- Registriert
- Dez. 2010
- Beiträge
- 2.449
Naja presstig zeug^^
Nvidia will die alleinige herschaft.
Die hatten die 6990 etwas unterschätzt.
Denk ma wen sie richtung standart takt gehen wird sie die 6990 zerrupfen und das selbe bild wie im single bereich ergeben.
gtx 595
gtx590 6990
gtx 580
Nvidia will die alleinige herschaft.
Die hatten die 6990 etwas unterschätzt.
Denk ma wen sie richtung standart takt gehen wird sie die 6990 zerrupfen und das selbe bild wie im single bereich ergeben.
gtx 595
gtx590 6990
gtx 580
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
?Nvidia rätselt da vor sich hin, erhöht Taktraten, der Stromverbrauch steigt weiter, verbessert die Kühlung?
Die wissen doch ganz genau das die HD 6990 2x2GB nur wegen dem Vram so davon zieht in den wichtigen Einstellungen. Man müsste nur 2x3GB Vram verbauen und hätte das Ziel erreicht, ohne großes Tam Tam.
Ihr seit ja lustig, wenn ihr GPUs beschränken wollt, müsstet ihr CPUs komplett abschaffen. Die sind in der Performance per Watt weit hinter Fermi.
Die wissen doch ganz genau das die HD 6990 2x2GB nur wegen dem Vram so davon zieht in den wichtigen Einstellungen. Man müsste nur 2x3GB Vram verbauen und hätte das Ziel erreicht, ohne großes Tam Tam.
Ihr seit ja lustig, wenn ihr GPUs beschränken wollt, müsstet ihr CPUs komplett abschaffen. Die sind in der Performance per Watt weit hinter Fermi.
Zuletzt bearbeitet:
T
trick17
Gast
Geld regiert die Welt (-:
Ja, merkwürdiger Satz in einer (Schein) Demokratie.
Zum Thema GTX 590 und GTX 595 ... was wäre denn so schlecht wenn die Leistungsaufnahme begrenzt wäre ? Der einzige Effekt wäre doch der, dass sich die Hersteller mehr Gedanken machen müssten. Ich wette das trotzdem jedes Jahr die Frameleistung steigen würde .. ohne solch grotesken Auswüchse wie die >350W Grafikkarten.
Zuletzt bearbeitet:
RediMischa
Lt. Junior Grade
- Registriert
- Juli 2007
- Beiträge
- 369
Kasmopaya schrieb:?Nvidia rätselt da vor sich hin, erhöht Taktraten, der Stromverbrauch steigt weiter, verbessert die Kühlung?
Die wissen doch ganz genau das die HD 6990 2x2GB nur wegen dem Vram so davon zieht in den wichtigen Einstellungen. Man müsste nur 2x3GB Vram verbauen und hätte das Ziel erreicht, ohne großes Tam Tam.
Ihr seit ja lustig, wenn ihr GPUs beschränken wollt, müsstet ihr CPUs komplett abschaffen. Die sind in der Performance per Watt weit hinter Fermi.
irgendwelche beweise das ihr tatsächlich der v-ram ausgeht?
K
klomax
Gast
Naja, soll Asus das einfach mal machen.
Erstens wird es nicht sooooo viel mehr kosten, weil die Produkte einen weitaus geringeren Material- und Herstellungspreis haben, als es der Verkaufspreis am Ende suggeriert.
Prestige halt, und dafür findet sich immer ein potenter Käufer.
Ich mache mir eher Sorgen, dass die Karte von selber anfängt abzurauchen.
Außerdem sollte man vorher die Belastbarkeit des hausinternen Stromnetzes vom Elektriker abchecken lassen, und vielleicht noch ein kurzes Telefonat mit dem AKW-Betreiber seines Vertrauens, dass es gleich los geht...
Erstens wird es nicht sooooo viel mehr kosten, weil die Produkte einen weitaus geringeren Material- und Herstellungspreis haben, als es der Verkaufspreis am Ende suggeriert.
Prestige halt, und dafür findet sich immer ein potenter Käufer.
Ich mache mir eher Sorgen, dass die Karte von selber anfängt abzurauchen.
Außerdem sollte man vorher die Belastbarkeit des hausinternen Stromnetzes vom Elektriker abchecken lassen, und vielleicht noch ein kurzes Telefonat mit dem AKW-Betreiber seines Vertrauens, dass es gleich los geht...
Berserkervmax
Banned
- Registriert
- Apr. 2004
- Beiträge
- 3.118
3 x 8 Pin..da bin ich ja froh das mein Netzteil 4 x 8 Pin.
Wer weis was die nächste GK Generation an Strom braucht...
Wer weis was die nächste GK Generation an Strom braucht...
Jenergy
Rear Admiral
- Registriert
- Dez. 2008
- Beiträge
- 5.486
Da hast du vollkommen recht. Nur müssten dann auch Mainboard- und Netzteilhersteller mitziehn. Ansonsten werden halt weiterhin SLI- und Crossfire-Systeme gebaut. Das Ganze ist wie gesagt nicht einfach umzusetzen, denn wer die Rechenleistung braucht - damit meine ich keine Hobby-Zocker, sondern Unternehmen die sie für wissenschaftliche Anwendungen nutzen - hat keine andere Wahl und sollte deswegen auch nicht "bestraft" werden.trick17 schrieb:Ich wette das Trotzdem jedes Jahr die Frameleistung steigen würde .. ohne solch grotesken Auswüchse wie die >350W Grafikkarten.
M
MEDIC-on-DUTY
Gast
Gibt es eigentlich schon Infos zur 6xx Serie von NV? Also Kepler?
Zuletzt bearbeitet von einem Moderator:
terraconz
Commodore
- Registriert
- Juni 2009
- Beiträge
- 4.946
trick17 schrieb:Jetzt wird es einfach nurnoch lächerlich. Ich finde es sollten lamgsam mal gesetzliche bestimmungen diesen Stromvergeudungs Wahnsinn stoppen.
Alles, aber auch wirklich alles, wird bis ins groteske übertrieben. Ab hier ist jetzt mal der Gesetzgeber gefragt.
Genau das mir dann vorgeschrieben wird was ich in meinen 4 Wänden tun und lassen darf? Sicher nicht! Dann kommts irgendwann soweit das mir so ein Ökofutzi mit Jesusschlapfen die Polizei auf den Hals hetzt weil ich die Klospülung zu lange betätigt habe, ne danke.
Vorallem bedenke die Relation selbst wenn es nur noch Onboard Grafik geben würde würde sich das nicht merklich auf die Umwelt auswirken. Der Strom wird dann halt durch was/wen anderen verbraucht das ist alles.
- Registriert
- Aug. 2004
- Beiträge
- 26.043
Bitte beim Thema bleiben ja?
Dann aber bitte endlich mit separatem Netzteil. Ist ja nicht mehr auszuhalten, was man für den PC alles anschaffen muss. Separates Grafikkartennetzteil, wenn man der Zeit 15 Jahre voraus ist gleich standardisiert und nicht proprietär und die Welt wäre in Ordnung. Meine Meinung!
Tulol
Admiral
- Registriert
- Jan. 2004
- Beiträge
- 7.507
Fred Fredburger schrieb:Theoretisch wären ja bei 3x8Pin und dem PCIe Slot 525W drinnen, ist ja schon krank![]()
mein Reiseföhn hat zwei stufen:
500W und 1000W.
@Über mir
öhm, wie wäre es mit effizienteren Technologien? Solche die mehr energie in (beansichtigte)leistung umsetzen anstatt in verlustwärme(-leistung) verbraten?
Wie schon immer denke ich mir auch jetzt: Die Zeit wirds richten.
Seit nem jahr sind 100W Glühbirnen in der EU verboten(im Handel).
Wird zeit sowas für Grafikkarten ein zu führen o_O
Zuletzt bearbeitet:
Naesh
Commodore
- Registriert
- Jan. 2011
- Beiträge
- 4.899
thommy86 schrieb:Dann warte ich lieber wenn Nvidia die GTX 680 bald vorstellt
die Betonung liegt auf "bald" xD
Naesh schrieb:Du bekommst nen i7 2600k mit ner GTX 580 doch schon garnichtmehr ausgelastet. Wofür willste da dann noch ne GTX 595 oder sowas reinhauen wo dann wieder wie CPU Limitiert bzw. man diese Leistung nirgendwo braucht.
Auch wenns ein wenig offtopic ist, aber deine Aussage ist ja wohl totaler quatsch. Mal abgesehen davon, dass es einige Bsp. gibt wie zb bf bc2 (mulitplayer) die durchaus mein system (siehe sig.) nahezu 100% auslasten, ist so eine Karte auch nicht für den mainstream gedacht sondern für benchmarks, um Rekorde zu knacken... Außerdem gibt es mittlerweile auch jenseits der Spielgraphikberechnung Anwendungen für GPUs (CUDA, ...)