News Finale Taktraten der GeForce GTX 280/GTX 260?

Das ist aber auch nur Spekulation von dir Unyu. Ob der G92b das Wunderkind wird sei mal dahingestellt. Die Nachteile des kein 2D Modus zwecks Stromsparen und D3D 10.1 fehlen ihm dennoch.

EDIT:
zu deinem Zitat.
Das ist doch auch erstmal nur heiße Luft und Marketing. Warten wir es mal ab, nVidia hat auch nicht das Rad (bzw. die GPU ;)) neu erfunden mit dem GT200.
 
Zuletzt bearbeitet:
mat_2 schrieb:
die GTX 280 hat beinahe die doppelte Shaderleistung [...] als der G92...
Da solltest du nochmal genau nachrechnen. Das "beinahe" sind knapp 50%. Und da wohl die gleichen Shader wie beim G92 verwendet werden, ist auch sonst nicht mit zusätzlicher Leistung zu rechnen. Vielleicht hat man es hinbekommen, dass die ALU für das zweite MUL noch besser genutzt wird. Aber selbst das scheint entsprechend dem Auszug im Artikel eher nicht der Fall zu sein.
 
Zuletzt bearbeitet:
@Unyu
Bisst du dir sicher dass es eine 9800Ultra geben wird hören tut mann dazu nicht viel, ausser ein weig Seemannsgarn im Netz. Vor allem da es die 9800GTX schon mit 770mhz giebt, wennse natürlich 850Mhz haben sollte wäre das super, aber braucht dann mehr Strom.
 
Zuletzt bearbeitet:
Ich würde mal eher vermuten, dass der G92b nach und nach den G92 ablösen wird und nicht als Zusatz gedacht ist - anfänglich dann ja schon zwagsweise, langfristig aber nicht (mehr). Der g92 wird die neue Milchmelkmaschine seitens nVidia, aber nicht der Überflieger, vermute ich mal.
 
Aber Hallo ! wenn die Daten stimmen werden ,die da stehen .
dann werden ja die Karten der ober Hammer ,
von Nivida und Atis Natürlich auch ,aber das müssen sie auch.
wenn Ich mir die Screenshots von Mafia 2 anschaue,
das sieht so aus ,als würde man viel Power dafür brauchen
mit den hohen Daten angaben. kann man wohl die kommenden Games,
locker in HD mit AA und allem andern Schnikschnak drin zocken ,
Freue mich schon auf GTX 260 ,die sollte hoffentlich reichen !
MFG Stefan Torosyan
 
@55

ich war schon drauf und dran mit der GTX280 zu liebaeugeln aber jez erfahre ich das kein DX10.1 unterstuetzt wird .... mann mann mann wie in der Steinzeit .Haette mir fast son Ladenhueter geholt und koennte die bahnbrechenden Neuerungen von DX10.1 bei den Spielen ... aeh .. bei dem einen Spiel nicht geniessen .Manche Leute sagen das man schon Probleme hat DX9 von DX10 zu unterscheiden geschweige denn 10 und 10.1 . Aber hiert liest man in jedem zweiten Posting das GT200 "_-=KEIN=-_" 10.1 unterstuetzt, zu gross ist , viel Strom braucht und und und .... ich frage mich ob nvidia die komplette Fertigung nicht in den Muell schmeissen sollte bevor sie sich bis auf die Knochen blamieren damit (so wie die Konkurrenz mit Phenom/HD2900)..... so was kauf ich nicht !

LOL ... war natuerlich alles nur Bloedsinn... natuerlich kaufe ich die 280GTX in der Sekunde der Verfuegbarkeit. Sie wird gemaess Ihres Preises mit Abstand die schnellste Karte sein und jeden Cent wert sein.Das ist natuerlich nur Spekulation basiert aber auf meinen Erfahrungen der letzten 10 Jahre seit der Riva 128.
Wer glaubt das nv eine technisch unterlegene, kaum schnellere und bald doppelt so teure Karte am Markt erfolgreich plazieren kann .... der traeumt! Der Preis wurde so gewaehlt das man konkurrieren kann , ist die Karte viel teurer dann ist sie auch viel schneller bzw besser ... alles andere macht absolut keinen Sinn und wuerde vor den Baum gehen .Das alles glaubt jez wieder keiner aber genauso wird es kommen ... es kam noch nie anderst!:)
 
G92b ist für den Preiskampf gerüstet, ob AMD es auch ist mit dem großen RV770?

Siehe teurer (in der Produktion) G94 vs billiger (in der Produktion) RV670.


Aber als letzten Halt, nachdem G92b unter Last schon erheblich stromsparender wird, haben AMD Fans das nutzlose .1.
Solange Nvidia .1 nicht bietet bleibt es unnötig, AMD pusht .1 kein bisschen, sieht so aus als ob es tot in der Versenkung verschwinden würde, naja schade und egal. -> Das ist Fakt.
 
Zuletzt bearbeitet:
Bin nuegirig was sonst noch auf den Markt kommt Richtig interessant wäre eine "280 GX2" und das ganze im Quad SLI Verbund.

Und das wichtigste natürlich: Wie viel Frames haben die neuen Grakas bei Crysis (1680x1050, 16xAA, 16xAF), und noch wichtiger: wie gut lassen sie sich übertakten?

NVIDIA wirds meiner Meinung nach nicht leicht haben den Glanz der G80 Reihe zu übertrumpfen.

Lg
FSBKiller
 
Zuletzt bearbeitet:
Jeder, der auf Bildqualität aus ist, lacht über 16xAA, das ist das Mindeste. ;)

(Aber nicht stumpfsinnig MSAA)
 
@ unyu:

irgendwie wirfst du was durcheinander, schon die 4850 wird auf 9800GTX niveau liegen und die wird mit 229$ starten, was dann wohl bei geizhals bei 180-190€ liegen dürfte, mit fallender tendenz.

also ist die ati morderner (dx10.1), preiswerter und vor allem unter last und idle sehr viel stromsparender.

also was erzählst du von "nvidia ist mit dem g92b gerüstet" ???

irgendwie kommst du mir jemand vor, der nicht wahrhaben will, dass nvidias 9er reihe gegen ati nur noch altmetall ist.

und die GTX260/280?
nun ja, "dank" des riesenchip und der daraufbegründeten mangelnden taktbarkeit auch nicht das, was alle erhofft haben.
die 260 wird wohl 25% schneller als die 9800GTX und damit auf niveau der 4870. und schlappe 120$ teuerer, bei gleichzeitige älterer technik.
die 280 wird 50% schneller als die 9800GTX, kostet dann ja nur 600$ und wird gegen die kommende 4870x2 auch kein land sehen.

alles in allem sieht es blendend für ati aus und eher mittelmäßig für nvidia. wie gesagt, wird auch n grund haben, warum nvidia sagte, die zeit der riesenchips ist nun vorbei und man wird in zukunft den weg von ati gehen.

bittere pille für dich? mußte leider schlucken ;) *g*
 
Leuts Leuts Leuts, immer höre ich wie die US-Dollar in Euro umgerechnet werden.. die wenigsten berücksichtigen folgendes:

1. Sogut wie immer gelten diese Preise wenn man sie in 1000er Paketen kauft - in echt also ein bisschen teurer. Außer ihr verkauft 999 bei ebay.

2. Sind die Preisangaben ohne Mehrwertsteuer, da diese in Amerika von Staat zu Staat verschieden ist.

--> Rechnet mal die 19% dazu, noch ein bisschen weil ihr es einzeln kauft und nicht zu Tausend, und noch ein bisschen mehr da sie am Anfang bestimmt nicht gut verfügbar ist und die Händler die Preise nach Gutdünken gestalten ;)

Und jetzt sagt mir das die GTX 280 unter 500€ kostet ^^
 
@patrig204

Niemand ... bei den heutigen Aufloesungen wird es immer sinnloser AA ueberhaupt zu benutzen . Vor ein paar Jahren in z.B. 800x600 hat man sofort auf den ersten Blick gesehen ob AA aktiviert war oder nicht. Bedingt durch die relativ wenigen Bildpunkte gab es doch recht deutliche "Treppeneffekte" an schraegen Kanten.Bereits mit damals max 4xAA wurde das Problem sehr schoen behoben,gerade ATI Karten haben aus eckigen,harten und scharfen Kanten ein weíches rundes Ganzes gemacht was erheblich besser aussah als vorher . Mit steigender Aufloesung wird AA aber immer sinnloser ,in 1920x1200 sind die genannten Treppeneffekte gar nicht mehr moeglich bzw nicht mehr wahrnehmbar. Eine schraege Linie ist nach wie vor nicht wirklich schraeg , sondern eine Reihe schraeg gestaffelter gerader Bildpunkte.Aber durch die dreifache Anzahl der Pixel ist die Staffelung derart fein das sie mit dem blossen Auge bei kompetenter Programmierung nicht mehr zu sehen ist . Zur Sicherheit koennte man noch mit 2xAA das Ganze verfeinern. Alles darueber hinaus ist in dieser Aufloesung nicht sinnvoll meines Erachtens nach....
 
In der Tabelle ist ein von Inq blind übernommener Fehler und zwar bei der GTX260:
Speichermenge: 896 MB GDDR3 1.024
Speichertakt: 896 MHz

The clocks are 576MHz GPU, 999MHz memory and 896[strike]MHz[/strike] MB GDDR3 on a 448b memory interface. The power is fed by two six-pin connectors. Power consumption for this 10.5-inch board is 182W.
Der Speichertakt ist 999 MHz, die Speichermenge 896 MB (aufgrund des 448bit-SI).

12117698854f592cb84bqo6.jpg


Bis auf den kleinen Fehler ist die Tabelle besser.
 
Zuletzt bearbeitet von einem Moderator: (Link korrigiert)
Also die Karte ist noch nicht mal raus weder von Nvidia noch von Ati und ihr kloppt euch schon jetzt die Köpfe voll. Einfach abwarten und Tee trinken,mal sehen was passiert...

Was mich jetzt aber interessiert ist, wenn die Zeit der Riesenchips vorbei ist, sollte man denn schon jetzt festlegen ob das nächste Mainboard Sli/Crossfire hat? Ich wollte nämlich aufrüsten und viele sagten dass Sli/Crossfire nichts nützt und eine Schnittstelle (PCI 2.0) ausreicht für eine einzelne GRAKA ausreicht.Bin nun total verunsichert.Was meint ihr?
 
ein vorteil von nvidia war ja, dass der shadertakt getrennt vom normalen gpu takt lief und bei ati beides gekoppelt war.
aber nun läuft der bei ati ja auch entkoppelt.

extrem finde ich nun, dass nvidia nicht nur den gpu takt von 675 auf 600 gesenkt hat, sondern auch den shadertakt von 1690 auf 1300 senken mußte, wohl aufgrund der riesigen die-größe. eben strom und hitzeproblem.

ict meiner meinung nach der grund, warum die leistungssteigerung im endeffekt geringer ist, als die meisten dachten.
 
deekey777 schrieb:
In der Tabelle ist ein von Inq blind übernommener Fehler und zwar bei der GTX260:
Speichermenge: 896 MB GDDR3 1.024
Speichertakt: 896 MHz


Der Speichertakt ist 999 MHz, die Speichermenge 896 MB (aufgrund des 448bit-SI).
Macht Sinn und ich habe das daher eben korrigiert.
 
BullRun schrieb:
Mit steigender Aufloesung wird AA aber immer sinnloser ,in 1920x1200 sind die genannten Treppeneffekte gar nicht mehr moeglich bzw nicht mehr wahrnehmbar. Eine schraege Linie ist nach wie vor nicht wirklich schraeg , sondern eine Reihe schraeg gestaffelter gerader Bildpunkte.Aber durch die dreifache Anzahl der Pixel ist die Staffelung derart fein das sie mit dem blossen Auge bei kompetenter Programmierung nicht mehr zu sehen ist

Das liegt wohl im Auge des Betrachters; ich persönlich krieg regelmäßig Augenkrebs ohne AA; Crysis wird aufgrund der fehlenden Performance dafür kaum mehr gespielt.
 
Haohmaru es wird auch weiterhin single-GPU karten geben, nur das highend modell wird eine dual GPU auf beiden seiten nvidia und ati, ansonsten habe ich gehört das crossfire besser skaliert als SLI
 
SLI/CS war schon immer eine Nischenloesung die nur unter sehr speziellen Umstaenden wirkliche Vorteile , ansonsten nur viele,viele Probleme brachte.Zum Angeben und Benchmarken sicher eine feine aber teure Sache , als ernsthafter Spieler schon allein wegen der Microruckler indiskutabel. Diese sind wirklich nervtoetend und kommen leider ziemlich haeufig vor.Zudem ist die Unterstuetzung der Spiele fuer SLI/CS bestensfalls als lausig zu bezeichnen.Als Todesstoss kommen dann die doppelten Kosten bei doppeltem Verbrauch und Laerm hinzu, was aber nicht mal ansatzweise in doppelter Geschwindigkeit resultiert.In Einzelfaellen hatte ich mit SLI weniger Bilder als ohne.Performance wuerde ich sagen zwischen -2 und +50%.

Meiner Ansicht nach ist SLI/CS so gut wie tot und ein Board mit einmal PCIE 2.0 reicht in Zukunft voellig aus. Die Aussage mit den Riesenchips sollte nur bedeuten das es die letzte Single Chip Karte im High End Bereich bei nv sein wird.In Zukunft gibts eben verstaerkt sozusagen "Werks-SLI" in Form von Mehrkernkarten . Das Ganze sollte dann aber wirklich besser umgesetzt sein als die heutigen X2/GX2 Pfusch Loesungen .
 
@bullrun:
und da hast du das erste nvidiaproblem. oder meinst du, die können zwei g200 auf ein pcb zwängen? den stromverbrauch und die hitze stell ich mit nett vor *g*. ist nicht machbar.

also wieder ein kleinerer chip, das wäre der g92 und die karte gibts eben schon, die gx2.

während ati also lustig ne x2 bauen kann, wird nvidia nicht drum rumkommen einen völlig neuen chip zu konzepieren.
und dann hat ati schon den nächsten, der r800 in 40nm kommt nächstes jahr.

nvidia hat sich, durch die entscheidung nochmal son riesenchip zu bauen ein wenig ins abseits gestellt und wird in zukunft erstmal hinterherlaufen.
strategisch falsch und ich denke die manager bereuen es schon.
 
Zurück
Oben