News Finale Taktraten der GeForce GTX 280/GTX 260?

BullRun schrieb:
SLI/CS war schon immer eine Nischenloesung die nur unter sehr speziellen Umstaenden wirkliche Vorteile , ansonsten nur viele,viele Probleme brachte.Zum Angeben und Benchmarken sicher eine feine aber teure Sache , als ernsthafter Spieler schon allein wegen der Microruckler indiskutabel. Diese sind wirklich nervtoetend und kommen leider ziemlich haeufig vor.Zudem ist die Unterstuetzung der Spiele fuer SLI/CS bestensfalls als lausig zu bezeichnen.Als Todesstoss kommen dann die doppelten Kosten bei doppeltem Verbrauch und Laerm hinzu, was aber nicht mal ansatzweise in doppelter Geschwindigkeit resultiert.In Einzelfaellen hatte ich mit SLI weniger Bilder als ohne.Performance wuerde ich sagen zwischen -2 und +50%.

Meiner Ansicht nach ist SLI/CS so gut wie tot und ein Board mit einmal PCIE 2.0 reicht in Zukunft voellig aus. Die Aussage mit den Riesenchips sollte nur bedeuten das es die letzte Single Chip Karte im High End Bereich bei nv sein wird.In Zukunft gibts eben verstaerkt sozusagen "Werks-SLI" in Form von Mehrkernkarten . Das Ganze sollte dann aber wirklich besser umgesetzt sein als die heutigen X2/GX2 Pfusch Loesungen .
@BullRun
Diese Microruckler werden denke ich mal in naher Zukunft durch Treiberupdates behoben, da immer mehr MBs auf Sli oder CS setzen, geht denke ich mal die Zukunft in diese Richtung.

Zu den Mehrkernkarten habe ich aber auch schon gehört, dass diese auch diese Microruckler haben sollen,da ja auch intern eigentlich nur 2 Kerne "miteinander" wie Sli oder CS verbunden sind.
 
BullRun schrieb:
SLI/CS war schon immer eine Nischenloesung die nur unter sehr speziellen Umstaenden wirkliche Vorteile , ansonsten nur viele,viele Probleme brachte.Zum Angeben und Benchmarken sicher eine feine aber teure Sache , als ernsthafter Spieler schon allein wegen der Microruckler indiskutabel. Diese sind wirklich nervtoetend und kommen leider ziemlich haeufig vor.Zudem ist die Unterstuetzung der Spiele fuer SLI/CS bestensfalls als lausig zu bezeichnen.Als Todesstoss kommen dann die doppelten Kosten bei doppeltem Verbrauch und Laerm hinzu, was aber nicht mal ansatzweise in doppelter Geschwindigkeit resultiert.In Einzelfaellen hatte ich mit SLI weniger Bilder als ohne.Performance wuerde ich sagen zwischen -2 und +50%.

Meiner Ansicht nach ist SLI/CS so gut wie tot und ein Board mit einmal PCIE 2.0 reicht in Zukunft voellig aus. Die Aussage mit den Riesenchips sollte nur bedeuten das es die letzte Single Chip Karte im High End Bereich bei nv sein wird.In Zukunft gibts eben verstaerkt sozusagen "Werks-SLI" in Form von Mehrkernkarten . Das Ganze sollte dann aber wirklich besser umgesetzt sein als die heutigen X2/GX2 Pfusch Loesungen .

Kann ich nur zustimmen!

Aber solange die SLI/CF typischen Probleme wie schlechte Skalierung oder Microruckler vorherrschen, bleiben Single Chips die bessere Wahl.
 
cosmicparty schrieb:
@ unyu:
bissle erschockt über die doch ernüchternmden werte?
ernüchternd?
das ist das maximum was man erwarten konnte
das ding ist immer noch in 65nm gefertigt, wie groß soll das teil noch werden
ist doch schon ein riesen trümmer
selbst die gtx260 ist einer 9800gtx deutlich überlegen. die texelfüllrate ist leicht drunter aber rechenleistung und speicherbandbreite ist viel höher
der g200 ist n griff ins klo, ist nun mal so...
zu teuer, zu lahm fürs geld und zu hoher stromverbrauch... ach ja und von dx10.1 haben die auch noch nie was gehört und wird bestimmt määäächtig heiß.
sorry aber das wird die mit abstand schnellste karte
und von preis/leistung stromverbrauch etc. kann man wohl erst was sagen wenn das teil am markt ist

bei der leistung muss eben auhc ne gewisse energie her, zaubern kann nvidia nicht
eine 4870 wird auch über 150w benötigen sonst hätte sie kein 2 pcie anschlüsse

also erstmal abwarten und den stromverbrauch in relation der performance betrachten
 
ja nWarrior, dann sag das mal deinen nvidia leuten, die sehen das ja wohl für die zukunft anders.

fakt ist, die leistung einzelner chips ist bald ausgelutscht und quasi nicht mehr steigerbar. selbst das monster von nvdia enttäuscht im endeffekt mit nur 50% steigerung bei fast verdoppelter die-größe.
 
cosmicparty
Das stimmt nicht.
Mit 65nm gibt es keine weitere sinvolle Steigerung, aber mit jedem weiteren Shrink ist Platz für weitere Transistoren, wie bisher auch. Es nur so, das in letzter Zeit der Shrink dem Wachstum nicht mehr schnell genug hinterher kommt.
Multi GPU ist keine Lösung, sondern eine Notlösung.
 
zum stromverbrauch: man sollte vllt erstmal leistung pro watt vergleichen statt obere midrange mit highend ;) und dazu sollte man zumindest die leistung der karten kennen^^

@cosmicparty: woher willst du wissen dass man die leistung eines einzelnen chips nicht mehr steigern kann? das seh ich aber ganz anders... wir stecken grad ma in der ersten generation der unified-shader-architektur +1 refresh... und zumindest die r600-basierte architektur ist noch alles andere als das optimum... der g80 war für den ersten wurf schon ganz nett, aber bis zur perfektion der architektur isses sicher auch noch n langer weg.
 
Multi GPU ist keine Lösung, sondern eine Notlösung.

Sehe ich auch so. Wie weit ist es eigentlich möglich, den Fertigungsprozess zu verkleinern? 30nm? Was ist möglich? weiß da wer was?
 
Ist die Speicherbrandbeite bei der GTX 260 richtig? Bei mir kommt 111888 MB/s raus wenn ich nachrechne.
 
Der Strom hunger ist schon fast als Kriminell zu bezeichnen, man muss diese Karte natürlich nicht kaufen (was ich auch genau aus dem Grund nicht tun werde), aber mittlerweile bekommt man ja selbst Mittelklasse Karten nicht mehr unter 150 Watt.

Natürlich muss die Entwicklung weiter gehen, schließlich profitieren wir auf langer Sicht alle davon, aber man muss auch nicht mit aller Gewalt versuchen die schnellste Karte auf den Markt zu werden. Wenn die Fertigungstechnologie noch nicht so weit ist, sollte man sich erstmal darum kümmern statt immer mehr Klimakiller zu bauen.
 
Der G92b ist eine Sparversion von G92 und G94, der eine neue Mainstreamserie begründen wird. Ich würd mir nicht allzuviel mehr davon versprechen, der 65nm G92 ist eh schon sehr effizient. Wunder kann man in Sachen Stromverbrauch und vor allem beim Takt auf keinen Fall erwarten.
Der 280 dürfte in etwa auf dem Niveau des 9800GX2 liegen bei SLI-optimierten Spielen. Die Eckdaten sind ähnlich bei den Karten.
ATI macht einen weniger gigantischen Chip, dafür mehr Takt. Ich denke, dass ATIs weg schlauer war, weil der RV770 noch auf einer Dual-Karte verwurstet werden kann und der G200 nicht.
 
Zuletzt bearbeitet:
nen 2 chip rv770 wär natürlich dann die spitze
aber mit maximaltakt wird das auch knifflig 2 rv770 auf ein board zu quetschen
der hat wohl nicht umsonst 2 pcie stecker drauf, wird wohl leicht über 150w benötigen
 
ich erwarte etwa sowas:
4850 (rv770) <-> 9900gts? (g92b)
4870 (rv770) <-> gtx260 (gt200)
4870x2 (rv770) <-> gtx280 (gt200)

für die 9900gts (ich nenn sie jetzt mal einfach so) wäre ein g92b mit bis zu 800mhz auf einem 384bit si (wie bei 8800gtx/ultra) denkbar. wäre dann zwangsläufig deutlich schneller als die 8800ultra (da sie ja alle vorteile von 9800gtx und 8800ultra vereint bzw. deutlich übertrifft) und sollte somit mit der 4850 auf augenhöhe liegen.
 
Zuletzt bearbeitet:
G92b soll ja ein einfacher refresh sein also wird er wohl nen 256bit SI haben
aber vll kommt er ja mit gddr5
 
G92b ist eher ein GT(S)250 und GT(S)240 und entspräche der 8800GTS/8800GT bzw. 9600. Dieser Chips hat IMHO keinerlei Chance gehen einen RV770, da dieser mehr Shaderleistung bietet und in Sachen TMUs und mit mächtigeren ROPs auftrumpfen wird. Aber AMD wird sicher auch den RV670 weiterhin im mittleren Segment halten, da gleichen sich die Leistungsdaten wieder an. Der RV670 bleibt ein hervorragender Mainstreamchip mit seinen knapp 200mm².
 
Zuletzt bearbeitet:
@ cosmicparty:
Und du träumst echt davon, dass die GTX 280 50% schneller ist als eine 9800 GTX, dabei mehr als doppelt soviel kostet und unglaublich viel mehr Strom verbraucht?
Sorry, aber du hast echt keine Ahnung... Ich bin mir ziemlich sicher, dass sie 50% schneller als die 9800 GX2 ist (alleine wenn man nur logisch nachdenkt --> Stromverbrauch, Preis, PR: 'High End Next-Gen-blablub-Chip').
Also im ernst, an deinen Kommentaren sieht man ganz deutlich, wie du versuchst den Chip schlechtzureden.

Schönen Gruß .puscha

EDIT:
cosmicparty:
''selbst das monster von nvdia enttäuscht im endeffekt mit nur 50% steigerung bei fast verdoppelter die-größe.''
Du bist dir aber sicher. Können gerne um nen Kasten Veltins wetten :p

EDIT2:
Lübke:
''4870x2 (rv770) <-> gtx280 (gt200)''
So sehe ich das auch^^
 
Zuletzt bearbeitet: (Ergänzungen)
Unyu schrieb:
cosmicparty
Das stimmt nicht.
Mit 65nm gibt es keine weitere sinvolle Steigerung, aber mit jedem weiteren Shrink ist Platz für weitere Transistoren, wie bisher auch. Es nur so, das in letzter Zeit der Shrink dem Wachstum nicht mehr schnell genug hinterher kommt.
Multi GPU ist keine Lösung, sondern eine Notlösung.

Seh ich genauso, aber das wusstest du ja schon. :)

In vielen Köpfen wird immer noch sehr gerne eine GPU mit einer CPU verglichen. Dass die MHz Grenze bei den CPUs bereits erreicht worden ist, ist mittlerweile bekannt und darum geht man in Richtung Multicore. Doch leider ist das bei GPUs eben ganz anders. Völlig andere Funktionsweise und Architektur. Die Möglichkeiten bei einem Single Chip sind noch lange nicht erreicht.

@cosmicparty: Sei du dir mal nicht so sicher mit deinen 50%...Ich weiß, was du nicht weißt und das ist ne 3 stellige Prozentzahl. :D (aus verlässlicher Quelle und nein, es gibt keinen Link zu Mitarbeitern)
 
Na, da werden meine beiden 98GTX schneller sein als eine GTX28 :freaky:.

Na, Leute, was ist jetzt mit "doppelt so schnell" ect. :p...

Der G200 ist eben nicht ne neue Architektur, wie damals bei NV71 --> G80, sondern basiert auf dem G92, wenn auch mit unterschieden.
 
imho sind da nicht mal viele unterschiede. ich hab in ner anderen news schon ma was dazu geschrieben:
"ich hab die vermutung dass es sich beim gt200 um den g90 handelt, der ja ursprünglich mal für 11/2007 geplant war, aber gestrichen wurde. das würde erklären warum der gtx200 immernoch kein dx 10.1 beherscht, das war zu dem zeitpunkt, wo der chip entwickelt wurde einfach noch nicht stand der technik.
das gleiche gilt für die fehlende stromsparfunktion: als ati mit dieser inovation auf den markt kam, war der g90 (der angeblich etwa 1,5 bis 2 mal so schnell wie der g80 sein sollte, was auch zum gt200 passt) ja schon lange fertig.
imho will nv mit dem bereits entwickelten g90 nochmal geld verdienen. das wäre auch eine erklärung für die gerüchte, beim gt200 handele es sich um 2 g92. der g92 könnte tatsächlich ein Ableger des g90 sein, halt nur beschnitten wie ein g86 zum g80. in dem fall dürfte der gt200 eine enorme leistung bieten allerding nicht viele technische neuerungen (wie eben dx10.1 und stromsparfunktion) beinhalten.
im übrigen hab ich auch gelesen dass der nachfolger des gt200 der g100 sein soll... könnte auch ein inditz für einen umgelabelten g90 sein."

somit bin ich also der gleichen meinung wie du ;)
 
Zurück
Oben