News GeForce GTX 270, GTX 290 und GX2 im November?

hamma797 schrieb:
dx10 wird ja noch nicht mal 50% ausgenutzt...und jez schon dx11???

Aus Fehlern von Dx10 lernt man, und DX11 verkauft sich besser als DX10.2 oder was auch immer ...
Ich bezweifle dass Dx10 und Dx11 grosse Untschiede aufweisen.
 
@Übersoldier75 es ging auch nicht ums Vista und dessen Speicherverwaltung sondern ums DX10 ich glaube kaum das DX11 solche veränderungen mitsich bringt, da kann mann bei Windows 7 auch gut mit DX10 leben und braucht nicht jetzt schon eine DX11 Karte das habe ich damit gemeint.

( Ja ich bleibe bei meinem XP, Vista gebe ich mir ned wenn dann Windows 7 gleich)
 
Das der Preis wieder steigt liegt einzig und alleine daran, das es weniger Karten gibt, die Verfügbar sind. NV hat schlicht die Produktion der alten 65nm massiv gedrosselt bzw eingestellt und produziert nur noch 55nm Chips. So konnte durch die verknappung wenigstens der Preis auf Kosten des Umsatzes gehalten werden.
 
drago-museweni schrieb:
@Übersoldier75 es ging auch nicht ums Vista und dessen Speicherverwaltung sondern ums DX10 ich glaube kaum das DX11 solche veränderungen mitsich bringt, da kann mann bei Windows 7 auch gut mit DX10 leben und braucht nicht jetzt schon eine DX11 Karte das habe ich damit gemeint.

( Ja ich bleibe bei meinem XP, Vista gebe ich mir ned wenn dann Windows 7 gleich)

DX11 soll auch unter vista mit einer dx10 karte laufen.....
 
Ist das ganz egal was hier wem entsprechen wird, Hauptsache viel Leistung für wenig Geld, und das haben wir nur der Konkurrenz zu verdanken, da die anscheinend endlich mal wieder gute Karten bauen, gut für den Endkunden bzw. Verbraucher!

@y33H@, also im Thema Stalker kannst du mir nix erzählen, was die X-RAY-Engine angeht, ob DX8, DX9 oder DX10, das Spiel läuft auch auf DX8-Karten, also ab Geforce3 und Aufwärts! und übrigens auch auf meinem Notebook mit X3100-Chip von Intel! Da mußte früher aufstehen!;)

( Ja ich bleibe bei meinem XP, Vista gebe ich mir ned wenn dann Windows 7 gleich)

Windows 7 ist nichts anderes als ein Ableger von Vista, also genauso wie von 2000 zu XP! Ist quasi Vista 2.0! haha!

DX11 soll auch unter vista mit einer dx10 karte laufen.....

hab nie das Gegenteil behauptet!
 
Zuletzt bearbeitet:
@hamma797 Ja deswegen verstehe ich das Geflame wegen der DX11 unterstüzung einiger nicht die das haben wollen.

@Übersoldier75 Ja aber dann vielleicht das entscheidende Fizelchen besser bzw. endlich mal schneller, am besten eine Version ohne sinnlose Treiber , die keiner braucht ein schlankes BS.
Und wenn man verschiedene Elemente haben will muss mann diese hald downloaden.

Ja Vista basiert ja auch auf XP.
 
scheint ja modern zu sein irgendwas aufn markt zu schmeissen, und dann nen paar wochen/monate später nen remake bzw. ne erweiterung einfach davon zu bringen! -.-

bin gespannt auf den CB test ;)
 
@über mir, ja da magste wohl "teilweise" Recht haben, aber ob es soviel besser wird muss man abwarten, alles andere sind nur Spekulationen, vielleicht ist Vista auch nur né Beta zu Windows 7!

Ich kann nur soviel dazu sagen dass ich bisher auch nicht mehr Probleme gehabt habe als mit XP, aber das Speichermanagment spricht schon für sich, dahier auch mal der Ganze Speicher genutzt wird! Und seitdem Servus Pack1 läufts wirklich stable!

Hab mein Rechner meistens von morgens früh um 7Uhr bis spät in die Nacht laufen ohne Neustart, zocken, Musik hören, Filme gucken, Surfen! Da hatte ich bei XP öfters aml ein Neustart gebraucht!:king:
 
Muscular Beaver schrieb:
Lesen, Junge. Es wurde von der X2 gesprochen. :freak:

und ich sprach von der 4870 bezogen auf die GTX260. lesen junge^^

Muscular Beaver schrieb:
Habe erst letztens ein Messgerät dran gehabt. 15W über 8 Stunden sind also mehr als 160W über 2 bis 4? Alles klar, Junge...

nö,aber wenn du 4std spielst, dann ist der rechner wohl ca 14-20std aus. rechne das mal hoch. zudem hat die X2 ja noch deutlich mehr leistung, wobei ihr ein höherer Verbrauch einzugestehn ist. doppelt so hoch ist er bei weiten nicht, sondern nur ca 75% höher. das aber bei durchschnittlich bis zu 80% mehr leistung und dauerhaft im Schnitt 40% ist sinnig. Vor allem da die Leistung nicht proportional zum "Stromverbrauch" steigt. ist nirgends so. genau das selbe spiel beim preis. eine doppelt so schnelle karte kostet meist 4mal so viel. eine durchwegs doppelt so schnelle karte darf dann auch mal mehr als doppelt so viel verbrauchen. bei diesen regionen spiel es keine rolle mehr,wenn man die Leistung will. übers jahr hingweg sind das keine hunderte euro,sondern eurobeträge im niedriegem zweistelligem bereich. bei einem kaufpreis von 400euro kann man das übers jahr bei mehr Leistung noch verkraften. da frisst ein rechner,der 20watt im ausgeschaltetem zustand frisst und dass 7000std im jahr (ca 30euro), dazu kommt ein fernseher,der 10watt (ca 20euro) frisst, ein angeschlossener wasserkocher mit 5watt (ca 10euro), mikro usw... und lastzustände haste bei 4std "täglich" grad mal "knapp" 1500std. (ca 50euro bei 150watt)

Ich will jetzt nicht höheren stromverbrauch verharmlosen. mir wäre es auch lieber,wenn die grakas immer leistungsstärker werden, und weniger verbrauchen. jedoch geht das nicht,dass sollte irgendwo klar sein. was bei den ATI´s ganz klar zu missfallen weiß,und bei den neuen GTX Modellen von Nvidia überzeugt ist der Idle verbrauch. denn hochgerechnet ist der PC viel öfters im Windows (beim normaluser) als unter volllast. bei mir zumindest.




gruß
 
Zuletzt bearbeitet:
und was soll das uns jetzt sagen! bezogen auf was?;)
 
riDDi schrieb:
Was wolln wir wetten, dass die 270 so in etwa der 260 216 entsprechen wird?

du brauchst nicht wetten die gtx260-216 wird die GTX 270 werden und die GTX290 ist die GTX280 nur 55Nm und höhere taktraten haben.
nvidia scheint aus ihren fehlern gelernt zu haben und keine GTX280+ herausbringen die in 55nm hergestellt wird.
jetzt heißt sie halt GTX290 absolut in ordnung und jeder kann sie unterscheiden.

die einzigst neue karte wird die GX2 variante sein.darauf dürfen wir uns freuen.


ich errinere mich als ich diesen thread eröffnete hat man darüber gelacht was ich gesagt habe.

das war im juli
https://www.computerbase.de/forum/threads/geforce-gx2-280-oktober.435701/
 
Zuletzt bearbeitet:
achja?, und woher hast du diese Infos?;)
 
@ übersoldier

was sollen sie sonst als GTX290 rausbringen. einfach eine höher getaktete, geshrinkte GTX280.

gruß
 
@ Übersoldier75

Hä, was willst du jez auf einmal mit Stalker? :D

@ Intel@freak

Deine Taktangaben sind etwas utopisch ;)

cYa
 
Übersoldier75 schrieb:
und was ist mit Stalker CS, das sind wohl Hirngespinste oder was?

Oh man:freak:! Diese ach so "Exclusiv" Effekte unter DX10 sind auch mit SOC, also DX9 möglich! DX10 Effekte kann man auch unter DX9 laufen lassen, zumindest bei Stalker. Hier mal ein Beweisvideo. Es zeigt dieses dynamic wet Surface. Dieses Video wurde sogar vor CS Release gedreht.
Und du hast also Ahnung von Stalker?:rolleyes:
Microsoft hat mal wieder Geld fliesen lassen, damit GSC diese Effekte für Vista only verkauft. Echt erbermlich!

Stalker
 
hamma797 schrieb:
DX11 soll auch unter vista mit einer dx10 karte laufen.....

DAS möchte ich sehen :lol:

Ich denke mal korrekter weise sollte das heißen, dass DX10 unter Vista auch mit einer DX11 Grafikkarte laufen wird (oder meintest Du evtl. DX11 läuft unter Vista (mit Patch) mit einer DX11 GraKa?), da die neuen DX Versionen schon immer abwärts kompatibel waren, anders herum war das noch nie der Fall und wird auch nie der Fall sein (M$ möchte sich nun wirklich nicht der Lächerlichkeit preis geben)


Ob man nun DX11 braucht oder nicht, es kommt und dafür sorgt der Welt größter OS Monopolist :rolleyes:
 
Schinzie schrieb:
und ich sprach von der 4870 bezogen auf die GTX260. lesen junge^^

Eben, eine 4870 X2 zieht im 3DMark das doppelte von einer GTX 260.
Darauf bezog sich deine Aussage dass es nicht stimmt und nur ein paar Watt wären und das hast du sogar selbst gequotet. Ergo: Du! Lesen! Ugh!


nö,aber wenn du 4std spielst, dann ist der rechner wohl ca 14-20std aus. rechne das mal hoch. zudem hat die X2 ja noch deutlich mehr leistung, wobei ihr ein höherer Verbrauch einzugestehn ist. doppelt so hoch ist er bei weiten nicht, sondern nur ca 75% höher. das aber bei durchschnittlich bis zu 80% mehr leistung und dauerhaft im Schnitt 40% ist sinnig. Vor allem da die Leistung nicht proportional zum "Stromverbrauch" steigt. ist nirgends so.
Du machst deinen Computer immer komplett aus nachdem du gespielt hast?
Ich denke nur die wenigsten haben einen Rechner der nur für Gaming gedacht ist und nur dafür angemacht wird.
Außerdem vergisst du dass das komplette System überall gemessen wird. D.h. also nicht dass wenn eine GTX260 dort mit 325W angegeben wird und ne X2 mit 470W, man sagen kann es es nicht das doppelt ist. Das System mit CPU, Festplatten, Mainboard usw verbraucht auch ne Menge. Zieh das davon ab und schon hast du fast das doppelte was ne X2 verbraucht. Logisch gehts auch gar nicht anders. Oder willst du mir erzählen dass der 2. GPU mit Luft betrieben wird?

genau das selbe spiel beim preis. eine doppelt so schnelle karte kostet meist 4mal so viel.
Ja, bei Release Termin.

eine durchwegs doppelt so schnelle karte darf dann auch mal mehr als doppelt so viel verbrauchen. bei diesen regionen spiel es keine rolle mehr,wenn man die Leistung will.

Darüber wurde gar nicht diskutiert. L E S E N !
Du sagtest dass ne X2 nur ein bisschen mehr verbraucht als ne GTX260, und das ist absoluter Blödsinn. Nur darum ging es.

Ich will jetzt nicht höheren stromverbrauch verharmlosen. mir wäre es auch lieber,wenn die grakas immer leistungsstärker werden, und weniger verbrauchen. jedoch geht das nicht,dass sollte irgendwo klar sein. was bei den ATI´s ganz klar zu missfallen weiß,und bei den neuen GTX Modellen von Nvidia überzeugt ist der Idle verbrauch. denn hochgerechnet ist der PC viel öfters im Windows (beim normaluser) als unter volllast. bei mir zumindest.
Na also sag ich doch. Also ist dein oberes Argument komplett sinnlos. Nichtmal du machst den Computer immer nach dem Spielen aus bzw. nur fürs Spielen an.



gruß[/QUOTE]
 
De facto ist es so, dass die 4870x2 eigentlich für Auflösungen größer 1680x1050 gedacht ist bzw. optimal ist und zieht man hier den CB Test der x2 her so erkennt man auch, dass ein GTX 260 SLI Gespann der x2 in den unteren Auflösungsbereichen Paroli bieten kann, geht es aber über die magische 1600er Marke hinaus so sieht das SLI Gespann nur noch die Rücklichter.
Sicher, die GX2 wird in 55nm gebaut werden, es bleibt jedoch ab zu warten ob Nvidia die Werte der GX2 so weit optimieren kann, dass daraus ein klarer Vorteil für die GX2 entstehen kann. Im Moment sieht es noch eher so aus, als das dann GX2 und x2 wie die GTX260 und die 4870 beide in etwa gleich auf liegen werden und sich somit die Performancekrone teilen werden.

Dann ist alles nur noch eine Frage der Preisgestaltung und da hat ATI bis jetzt noch die besten Karten, die Produktion der 4870 Chips läuft reibungslos, es sind genügend verfügbar. Wärend bei Nvidia die Ausbeute noch immer nicht optimal ist.
Dazu kommt, dass die alten GTX260 & GTX 280 Chips wohl oder übel auf Halde liegen bleiben, sollten die GTX270, GTX290 und GX2 verfügbar sein. Sprich wenn´s Hart auf Hart kommt kann ATI Nvidia einfach über die Preisschraube Druck machen.

Evtl. erhalten wir wieder einen Paperlaunch im November und genügend Karten sind erst dann verfügbar wenn Nvidia seine Lager mit den alten 65nm GPUs geleert hat.

Dazu darf man noch bedenken, was passiert wenn ATI im November dann z.B. für Februar 2009 40nm DX11 GPUs ankündigt? Lohnt sich dann das kaufen der Nvidia 55nm Chips noch? PCGH hatte hierzu ja schon einmal eine nette Auflistung der Vorzüge und es war die Rede von bis zu vierfachen Leistungssteigerung bei den geplanten 40nm GPUs.

Alles in allem bleibt nur eines zu sagen, es bleibt weiterhin spannend :D
 
Ich schließe mich der Frage an,

Ich wollte mir eigentlich eine x2 oder gx2 (g200b) kaufen. Wollte den Preiskampf abwarten und dann das bessere Produkt kaufen.

Wenn ich jetzt aber höre das Ati eventuell im Jänner/Februar eine 40nm DirectX11 Modelle rausbringt und in den Vorabtests die Dinger wie die Hölle gehen dann würde ich schon nach warten.

Um entweder gleich eine Directx 11 Graka zu kaufen oder einfach billiger das alte Zeugs zu kaufen :)
 
Zurück
Oben