News GeForce GTX 270, GTX 290 und GX2 im November?

Muscular Beaver schrieb:
Darauf bezog sich deine Aussage dass es nicht stimmt und nur ein paar Watt wären und das hast du sogar selbst gequotet. Ergo: Du! Lesen! Ugh!

jetzt hab i nomml nachgeschaut. folgendes hab i geschrieben:

"da kommtse ja wieder. seit wann spielste 3Dmark? weil sonst schenken sich die beiden in der leistungsaufnahme unter last nicht viel. was du sicherlich auch weißt,hier aber mal wieder dezent unter den tisch fallen lässt..."

stimmt. war von mir falsch formuliert. ich sprach die ganze zeit von 4870 auf GTX260 bezogen. habs aber vergessen hinzuschreiben. somit mein fehler...

Du machst deinen Computer immer komplett aus nachdem du gespielt hast?
Ich denke nur die wenigsten haben einen Rechner der nur für Gaming gedacht ist und nur dafür angemacht wird.

wenn ich nix mehr unter windows mache dann schon. ausschalten, schalter aufm verteiler drücken. meine Freundin zwingt mich dazu, denn wir zahlen unseren strom selber. oder wenn i im windows bin, runtertakten. auf 200/200 frisst eine 4870 auch weniger als eine GTX260 im idle.

Außerdem vergisst du dass das komplette System überall gemessen wird. D.h. also nicht dass wenn eine GTX260 dort mit 325W angegeben wird und ne X2 mit 470W, man sagen kann es es nicht das doppelt ist.

ich weiß. ich zog auch 180 watt ab (eine 8600 frisst 195w. also gehe ich von 170-180 watt restsystemverbrauch des Testsystems aus.)

Das System mit CPU, Festplatten, Mainboard usw verbraucht auch ne Menge. Zieh das davon ab und schon hast du fast das doppelte was ne X2 verbraucht. Logisch gehts auch gar nicht anders. Oder willst du mir erzählen dass der 2. GPU mit Luft betrieben wird?

siehe oben, hab ich gemacht. aber du musst bedenken,dass eine X2 oft fast doppelt so schnell ist wie eine GTX260. wenn sie schon bis zu 80% einer GTX280 davon rennen kann. von mutli gpu problemen abgesehen,denn die kann man mit paar tricks eingrenzen.

außerdem kann eine X2 in selbem szenario nicht das doppelte einer 4870 verbrauchen, selbst wenn die chips den selben verbrauch hätten. die kühlung wird ja nicht verdoppelt (mehr kupferblöcke fressen nicht mehr leistung) ein pcb usw. außerdem ist mittlerweile bekannt,dass der GDDR5 ram der große stormfresser ist, vor allem im Idle.

Na also sag ich doch. Also ist dein oberes Argument komplett sinnlos. Nichtmal du machst den Computer immer nach dem Spielen aus bzw. nur fürs Spielen an.



gruß

ne,aber wie gesagt weiß ich mir zu helfen,um den stromverbrauch niedriger als eine GTX260 im idle zu halten, teilweise sogar deutlich.


gruß
 
y33H@ schrieb:
@ Übersoldier75

Hä, was willst du jez auf einmal mit Stalker? :D

@ Intel@freak

Deine Taktangaben sind etwas utopisch ;)

cYa

Herr y33H@ Fleet Admiral oder wer du auch bist,

Lesen macht schlau.... soll ich es für dich wiederholen...OK! Lesen macht schlau.....

das https://www.computerbase.de/forum/threads/geforce-gx2-280-oktober.435701/ sind nicht meine Takt angaben das wurde mir so übermittelt, wenn du den Thread zum 22 mal nochmals durchliest kommst du vielleicht diesmal darauf.

achja y33H ausserdem ist der Thread fast 5Monate her, da kann sich doch noch einiges ändern seitens der Hersteller oder man hat einfach da drüben etwas übertrieben da ja zu der zeit schon Daten von ATI Flagschiff 4870X2 ins Netzt gesickert sind und dadurch schon bekannt waren
 
Zuletzt bearbeitet:
ne,aber wie gesagt weiß ich mir zu helfen,um den stromverbrauch niedriger als eine GTX260 im idle zu halten, teilweise sogar deutlich.

Erstmal meinen Respekt dass du deinen Fehler zugegeben hast. Das sieht man extrem selten! :)

Deine genannten Maßnahmen den Stromverbrauch zu senken kann man aber auch bei einer GTX260 anwenden. Man kann sogar noch einen Schritt weiter gehen und Hybrid SLI benutzen, wo meines Wissens keine ATI von der Einsparung des Verbrauchs rankommt, jedenfalls im Idle.
 
Muscular Beaver schrieb:
Deine genannten Maßnahmen den Stromverbrauch zu senken kann man aber auch bei einer GTX260 anwenden. Man kann sogar noch einen Schritt weiter gehen und Hybrid SLI benutzen, wo meines Wissens keine ATI von der Einsparung des Verbrauchs rankommt, jedenfalls im Idle.


soweit ich aber weiß,bringt es bei der GTX260 nicht so viel. vielleicht 10watt. bei der 4870 kannste aber bis zu 50watt sparen, aufgrund des sehr stromhungrigen DDR5 speichers, denn die GTX260 ja nicht hat. da bringt speicher runtersetzen relativ wenig. und chip runtersetzen bringt nicht soo viel. hybrid SLI, bzw hybrid CF gibts auch bei AMD. nur ist es da noch nicht so ausgereift. zudem ist es ja boardabhängig,bei beiden.


gruß
 
holdrio schrieb:
Oder auch einfach nur schon möglichst immer in der nativen Auflösung des Monitors spielen, 24 Zoll und auch mehr Monitore mit 1920x1200 sind zumindest als TN nichts exklusives mehr heute und für Gamer auch sehr gut geeignet.
Was ist denn ein TN? (sorry, bin neu hier :D)
Auch Konsolenumsetzungen wie z.B bald GTA4 hätte ich mit der nicht in 1920x1200 sehen wollen lieber.
Gibt's da eigentlich schon neuere Systemanforderungen? Mehr als die empfohlenen die ja sehr schwammig sind - mein neuer pC wird sich daran orientieren :D


Wie war das in der Vergangenheit, wie schnell sind neue Karten am Markt verfügbar, welche Preise haben die dann und fallen ältere Karten dann schnell im Preis?
Habe derzeit mit einer GTX260 gerechnet, aber wenn ich da noch einen hunderter sparen kann wär das natürlich nicht verkehrt :D.

Und was zum Geier ist der Unterschied zwischen den ganzen GT260er (GT260, GTX260, GTX260-216 usw. usf.) Versionen? Hat da einer mal 'ne Infoseite? Dankeschön.
 
Zuletzt bearbeitet:
TN ist das Panel im Monitor, TN = billig und schnell und für Gamer gut geeignet.
Damit sind auch 24 Zoll oder noch mehr Monitore für Gamer gut erschwinglich geworden, der Samsung 245b etwa als nur ein Beispiel.

Off. Systemanforderungen sind doch immer schwammiger Quark oder freche Lügen, und wenns sogar noch in 1920x1200 sein soll, gilt eh grundsätzlich "so schnell wie möglich" :)
Unter einer GTX260/Ati 4870 1GB würd ich in der Auflösung auf keinen Fall einsteigen.
 
Zuletzt bearbeitet:
holdrio schrieb:
TN ist das Panel im Monitor, TN = billig und schnell und für Gamer gut geeignet.
Achso, daher kannte ich das nicht, hab nen H-IPS-Panel (NEC 2690 WUXi) :D
Off. Systemanforderungen sind doch immer schwammiger Quark oder freche Lügen, und wenns sogar noch in 1920x1200 sein soll, gilt eh grundsätzlich "so schnell wie möglich" :)
Unter einer GTX260/Ati 4870 1GB würd ich in der Auflösung auf keinen Fall einsteigen.
Hmpf, mist, dann wirds doch teurer... Wie sieht das denn mit den Zeiten aus? Dauert das ewig bis da was rauskommt und die Preise fallen oder ist Ankündigung = Preisverfall bei den alten Karten?
 
Das ist für mich auch die wichtigste Frage, wann genau und ob die Karten tatsächlich im november rauskommen.

Wird warscheinlich noch keiner genau wissen. Hoffentlich gibts da bald wieder news diesbezüglich.

Gibt es noch andere Seiten die das melden und nicht vom inquirer haben.
 
Schinzie schrieb:
soweit ich aber weiß,bringt es bei der GTX260 nicht so viel. vielleicht 10watt. bei der 4870 kannste aber bis zu 50watt sparen,
Klar, dann sinkt der Idleverbrauch der 4870 mal eben von 65W auf 15W. :rolleyes:

Erst wirfst du mir vor, das ich etwas unter den Tisch fallen lasse, was ich nicht getan habe, dann machst du es selber.

Wenn du schon auf dem Spartrip bist, musst du schon alles geben:
Takt runter, Spannung runter, wenn du schon kein H-SLI willst.
Da spartst du auch mit der bösen grünen schwarzen Karte mehr als 10W.
Schinzie schrieb:
hybrid SLI, bzw hybrid CF .... boardabhängig,bei beiden.
CF oder SLI sind auch boardabhängig. Stört aber auf einmal keinen mehr.
 
Zuletzt bearbeitet:
Ob die neuen Karten vielleicht auch wieder etwas kürzer werden?

So das man sich nicht über irgend welche Umbauten der Festplatte im Midi Tower den Kopf

zerbrechen muss. Wäre schön.
 
Mich würde ja ganz was anderes interessieren:

Wie wird solch ein Wunderwerk der Technik entwickelt? Wirklich, wie stellt man sowas her, woher kommen die Ideen solche Techniker überhaupt zu erfinden. Es handelt sich immer um Transistoren, aber, wieso ist meine 8800GTX besser als meine Voodoo banshee. Wo liegt der technische Unterschied. Würde wirklich zu gerne mal eine fertigungsstrasse beobachten. Ah...hoch interessant.


gruß
Jan
 
Deine GTX ist besser, weil mehr Transistoren besser verschaltet sind - um es simpel auszudrücken.

cYa
 
Da haben wir es...simpel...ich will es aber so erklärt bekommen...detailierter aber dennoch nicht im Fachchinesisch. Es muss doch mehr sein als diese scheiss Transistoren Mensch.


Gibt ja zig technische Specifikationen bei einer Karte. Ist doch nicht alels auf so dämliche Schalter zurückzuführen.


Gruß
Jan
 
hmh....wollte mir eig im dezember ne gtx 260² oder ne gtx 280 kaufen....lohnt sich das überhaupt oder soll ich bis nächstes jahr warten bis die dx11 karten rauskommen
 
@hamma797: warten kann man immer, du musst wissen wieviel Leistung du brauchst warte doch eventuell was die GTX 270 bringt.
 
@ datvader
naja ich blaube nicht das es sich lohnt n gtx 270 anzuschaffen voralem sie sich ja so zwischen gtx 260² und 280 maximal villt 5-10% unterscheidet
da spare ich mir lieber diese par euro und nehme die gtx 260² und OCe sie
also voralem crysis far cry 2 gta4 operation flashpoint 2 etc solllte in 1680x1050 flüssig laufen sprich mindestens 30-35 fps
 
Schwer zu sagen, vor allem weiss der Teufel was die neuen Dinger kosten....wobei kurz vor Weihnachten....eher nicht wenig sag ich mal vorsichtig.
 
Zurück
Oben