News Finale Taktraten der GeForce GTX 280/GTX 260?

@ nWarrior:
<ironie> Hey, jetzt sind wir schon zwei, die wissen das nVidia einpacken kann :) </ironie>
Wir sollten alle mal wiede runterkommen...sind eh nur noch 3 Wochen.
So, relax :p

Gute Nacht .puscha
 
Ich sagte nie das Nvidia dumm ist nur das sie im letzten Jahr schlechter weiterentwickelt haben als AMD.

Und ich sagte ich gehe von den Werten der Folie aus falls diese Stimmen.

Und den werten zufolge hat die 280GTX eine doppelt so hohe Leistung wie die HD 3870 und die 4870 hat eine 10 % höhere Leistung als die 280GTX.

Ausserdem passen auch die Leistungsdaten eher zu dem vor etwa eineinhalb Jahren ausgeschriebenen G90 also kann man eher sagen das AMD eine Entwicklungsgeneration hinterherhinkt.

Aber hier sieht ja keiner auf FAKTEN!!!!

Sobald man sagt eine 300$ ATi grafik hat fast die Leistung Wie eine 600$ Nvidia von rechnerischer Seite her. Bekommt man Beschuldigungen man sei unkompetent oder ein Fanboy. Jedoch gehe ich eher auf die Fakten ein deshalb ist es mir auch egal welche der 2 Grafikkarten nun die bessere Leistung bringt. Ich werde so oder so nach dem entscheiden was brauche ich und welche hat in dieser Region die bessere Leistung.

Ich persönlich schätze die Leistung auch deutlich höher was auch teilweise so in der art schon auf der nvidia homepage stand. Den ich glaube das die GTX 280 eher mit der 4870 X2 aufliegen wird.
Jedoch sehe ich schwarz für nvidia wenn die Daten der Tabelle sich als wahr behaupten.

Und ich schätze AMD wird erst wieder richtig konkurenzfähig mit dem R800 und R900. Dann hoffentlich mit DX11 und OpenGL 3
 
omg nWarrior? lebste auf nem anderne planeten?

nvidia hat nicht geschlafen?

nvidia hat dx10.1 verpennt, nvidia hat stromsprtechnologien verpennt.

und nun baut nvidia nen monsterchip, weil die denken, doppelte transistoren wären doppelte leistung... NUR

aufgrund des riesenchips und der daraus resultierenden hitze und strompbroblematik, kann der g200 nur VIEL NIEDRIGER getaktet werden als der g92.

also gibst keine +100% sondern nur +50% sowas nennt man physik ;)

WARUM verabschiedet sich denn jetzt nvidia beim high end vonm der monsterchiplösung und sagt, sie wollen nun den weg wie ati gehen? denk mal n bissle nach und setz die grüne briller ab.

es gibt nur eins, wo nvidia "clever" ist.... und zwar in sachen umbenennung.... sprich ich mach aus ner 8800GT ne 9800GT und 90% des dummen uservolks fallen drauf rein und meinen, es wäre ne innovatrion mit MEHT leistung.

man man man. ich empfinde nvidia im moment nur noch als peinlich und technologiefeindlich.

der g200 ist wie son dinosaurier, zu groß, zu schwer und kann seine theoretische leistung eben nicht ausspielen. also aussterben

ati war da bei weitem cleverer.
 
Konkurenzlos wird vor allem auch der Stromverbrauch sein, wenn mann die jetzigen Generationssprünge anschaut 5900 auf 6800 auf 7800 auf 8800 dann kann mann sich ungefair ausmahlen wieviel Power die Karte haben wird, rechtviel wird die se dann auch nicht aus dem rahmen fallen das würde mich schon wundern auch wenn die 8800 schon wieder uralt ist gemessen an ihrem Dasein.
 
j-d-s schrieb:
Na, da werden meine beiden 98GTX schneller sein als eine GTX28 :freaky:.

Na, Leute, was ist jetzt mit "doppelt so schnell" ect. :p...

Der G200 ist eben nicht ne neue Architektur, wie damals bei NV71 --> G80, sondern basiert auf dem G92, wenn auch mit unterschieden.

aivazi schrieb:
die hd 4870 von ati scheint schneller zu sein als die gtx 260 da würde es sich nicht lohnen die nvidia karte zu kaufen

machiavelli1986 schrieb:
Es wird ja überall gesagt die 50% Mehrleistung der GTX 280 seien gegenüber der 9800 gtx. Da wird nichts von gx2 gesagt. Wenn somit die 4870 25% unter der GTX280 liegt, dann wird die 4870x2 mit Sicherheit alles in den Schatten stellen. und die GTX 280 wird niemals als Dual GPU auf eine Platine kommen, wurde auch schon überall bestätigt. Geht garnicht mit dieser kranken G200 Architektur. Würde ja das Board schmelzen.

Ich denke die Daten sehen jetzt nicht wirklich spektakulär aus, aber wenn man bestimmte Einzelheiten kennt, wird erst richtig klar welches Potential diese Karte hat.

649 9800 GTX GFlops sind nicht mit 933 GT200 GFlops vergleichbar...

Wenn ich jetzt sage eine 9800 GX2 wird zum Frühstück verputzt, ich sag nur Schlachtfest :king:...

Es fliegen genug Indizien im Netz rum, man muss sie nur sehen bzw. verstehen.

cosmicparty schrieb:
der g200 ist wie son dinosaurier, zu groß, zu schwer und kann seine theoretische leistung eben nicht ausspielen. also aussterben

ati war da bei weitem cleverer.

GT200 theoretische Leistung :evillol:
 
Zuletzt bearbeitet:
@ bansi: also ich find die 933 GFlops der GTX280 net beindruckent, wenn ne 4870 schon 1007 GFlops hat....

wieviel wird denn dann die preislich eher vergleichbare 4870x2 haben? ;)
 
Zuletzt bearbeitet:
machiavelli1986 schrieb:
@bansi

Das doppelte als nä 4870 natürlich, da zwei RV770 Chips = R700XT

https://www.computerbase.de/2008-02/details-zur-radeon-hd-4000-serie-von-amd/

cosmicparty schrieb:
@ bansi: also ich find die 933 GFlops der GTX280 net beindruckent, wenn ne 4870 schon 1007 GFlops hat....

wieviel wird denn dann die preislich eher vergleichbare 4870x2 haben? ;)



Genau das meinte ich, die 933 GFlops sehen nicht wirklich nach viel aus, aber warts einfach ab. Ich sagte schon, die GFlops sind nicht mehr mit G80 bzw G92 Karten vergleichbar. G80/G92 bringt die theoretische Leistung besser auf die Straße als RV670. Beim GT200 soll es nochmals eine ordentliche Steigerung geben.

Das der GT200 eine X2 schlägt will ich auch erstmal sehen! Aber die X2 soll ja sowiso erst später kommen. Was man aber nie vergessen darf: eine X2 bzw GX2 ist niemals so gut wie eine Singlechip Karte, wenn SLI bzw CF noch genau so funktioniert wie jetzt!
 
Zuletzt bearbeitet:
cosmicparty schrieb:
nvidia hat nicht geschlafen?
Meinst du man hat alle Entwicklerteams nach dem R600 Launch entlassen?

cosmicparty schrieb:
der g200 ist wie son dinosaurier, zu groß, zu schwer und kann seine theoretische leistung eben nicht ausspielen
Kannst du diesen Unsinn begründen?

cosmicparty schrieb:
es gibt nur eins, wo nvidia "clever" ist.... und zwar in sachen umbenennung
Hat AMD genauso gemacht und ist hier nicht das Thema.

cosmicparty schrieb:
nvidia hat dx10.1 verpennt
Sinnlosen Features muss man nicht nachweinen. Aber hey nach über 1/2 jahr D3D10.1 gibts schon einen Titel.
 
@ bans3i:

in der theorie mußte der g200 doppelt so schnell sein, wie ein g92.

nur aufgrund der monsterchipgröße kann er nicht mehr so hoch getaktet werden, der shadertakt sank zB von 1690 auf 1300, drum wird der g200 nur 50% schneller als ne 9800GTX.

ganz toll, 600$ 50% schneller und immer noch kein dx10.1

da ist doch ne 4870 für 329$ die auch 25% schneller als ne 9800GTX ist, aber auch dx10.1 kann und stromspartechniken beherrscht richtig angenehm.

nvidia steht im moment ziemlich dumm da, dass selbst schon ne 8800GT in ne 9800GT umbenannt werden muß, erwähne ich dabei noch net mal ;)

und die 4870x2 wird eh alles wegfegen und nvidia wird lange net drauf antworten können.... wie auch?
zwei g200 gehen eben net auf ein pcb, das ding würd ja verglühen *g*
 
DX10.1 ist nicht sinnlos wie Assassins Creed mehr als eindrucksvoll beweist :rolleyes:

cYa
 
omg unyu: wenn selbst nvidia sagt, die zeit der monsterchips im high end bereich ist vorbei, dann kann man doch davon ausgehen, dass diese art austirbt, oder?

dx10.1 ist net sinnlos, sondern der neue MS standard, den nvidia aufgrund von unfähigkeit versucht zu unterdrücken.... siehe ac. besseres bild und bessere leistung.

leg mal deine grüne brille ab und sei mal fair und sehe, dass ati im moment den besseren weg geht.

die 280er ist eh nur was für 2% extremfreaks, aber die 4er reihe von ati wird einschlagen wie ne bombe.

moderner, günstiger, stromsparender.

ach ja... und die 2% extremfreaks werden mit erscheinen der 4870x2 ihre gtx280 auch verkaufen... weil sie immer das schnellste haben wollen ;)

PS:den anderen threat haste übersehen? in bezug auf g92 probleme und verluste? was du abgestritten hast? *g*
http://www.pcgameshardware.de/aid,6...e_8800GT_80_Millionen_GPUs_31_Millionen_IGPs/

man sollte schon wissen, worüber man redet ;)
 
Zuletzt bearbeitet:
@ UNYU
Ja warum sollten Spielehersteller auch DX10.1 implementieren wenn sie großteils von NVidia gesponsert werden macht doch keinen sinn

Aber DX10.1 macht so oder so keine sinn mehr da gerüchten zufolge Anfang nächsten Jahres DX 11 fertiggestellt sein soll.

Ein G80/G92 bring die theoretische Leistung nicht besser rüber als ein RV670 er hat einfach dementsprechend mehr.

G80 576GFlops
G92 643GFlops

RV670 496GFlops

Wäre auch ne möglichkeit warum im ca 25% -30% an Leistung abgehen
 
Das ist echt nur noch zum Kopfschütteln. Hier versuchen einige aus Gerüchten vermeintliche FAKTEN zu machen und vergessen dabei schon den Unterschied zwischen Fakten und Gerüchten.

Laut der Folie soll die GTX 280 3x und nicht 2x so schnell sein wie eine HD3870.

Und nur weil der GT200 kein DX10.1 haben wird, heißt das automatisch, Nvidia hat geschlafen? :lol: Ist euch vielleicht mal in den Sinn gekommen, wieviel DX10.1 letzlich bringt? Und noch eine Sache. Wenn sich MS an ihr eigenes Versprechen nicht hält, wo DX10 eine Zeit lang Standart sein sollte, warum sollte NV immer wieder neue Standarts unterstützen, anstatt die Vorhanden ersteinmal gescheit ausreifen zu lassen?

Viel mehr hat ATI hier geschlafen. Anstatt unnütze Funktionen wie DX10.1 zu integrieren, hätten sie die vorhanden Ressourcen lieber in die Entwicklung eines leistungsstärkeren Chips investieren sollen.

Wir können allerdings auch wetten eingehen. Wie wärs? Ne Kiste Bier um die Frage, wer hier mehr Performance bietet. Nein wartet, nur eine Kiste? So sicher wie jetzt war ich mir nie, drum lasst uns um einen LKW voller Bierkisten wetten.

Wenn ihr die Wette eingehen wollt, dann bereite ich schonmal alles für die grüne Party vor, okay?
 
Zuletzt bearbeitet:
binear_freak schrieb:
Ja warum sollten Spielehersteller auch DX10.1 implementieren wenn sie großteils von NVidia gesponsert werden macht doch keinen sinn
Warum sponsort AMD niemanden?
Sind denen ihre Kunden egal? Oder ist AMD kein Wirtschaftsunternehmen?

Unterm Strich habe ich heute nichts vom .1

Wenn du schon Daten vergleichst, dann mehr als nur die GFlops.
 
nvidia hat dx10.1 verpennt,

Eine Erweiterung einer API die bis heute, nach weit über einem Jahr bestenfalls halbärschig unterstützt wird und zudem noch exclusiv für ein Betriebssystem existiert, das bis heute vom größten Teil der Gamer als unbrauchbar abgestempelt wird.
Irgendwie sehe ich da keine Dramatik hinter. :D
Ich hab mir für Crysis kein Vista geholt und werd mir für AC keine ATi holen. ;)

nvidia hat stromsprtechnologien verpennt.

Die meiner Mobile 8800 funktionieren prächtig, dafür das man nix davon im Desktobereich einsetzt gehört nV aber enteiert, das ist richtig.

und nun baut nvidia nen monsterchip, weil die denken, doppelte transistoren wären doppelte leistung... NUR

Denken sie das?
Den Beleg dafür hätte ich gerne mal. :D
Wer doppelte Transistoren mit doppelter Leistung gleichsetzt gehört in erschossen, aber mit Sicherheit nicht in die Entwicklungsabteilung eines global players, egal ob AMD, nV oder Intel.
Und das denkt dort auch unter Garantie niemand. ;)

aufgrund des riesenchips und der daraus resultierenden hitze und strompbroblematik, kann der g200 nur VIEL NIEDRIGER getaktet werden als der g92.

Milchmädchenrechnung.
Im Vergleich zum NV40 ist der G80 auch ein etliche male komplexerer "Monsterchip" mit enormer Hitze und Stromproblematik, trotzdem ist er deutlich höher getaktet als es ein NV40 jemals war.

also gibst keine +100% sondern nur +50% sowas nennt man physik

Vielleicht solltest du mal die Effizienz und Arbeitsweisen der einzelnen Einheiten in Betracht ziehen.
128 ATi Shader sind ungleich 128 nV Shader und wie das mit dem Takt aussieht sollten wir spätestens seit Netburst alle wissen. ;)

WARUM verabschiedet sich denn jetzt nvidia beim high end vonm der monsterchiplösung und sagt, sie wollen nun den weg wie ati gehen?

Weil so ein Riesenteil wirtschaftlich scheiße ist. ;)

es gibt nur eins, wo nvidia "clever" ist.... und zwar in sachen umbenennung.... sprich ich mach aus ner 8800GT ne 9800GT und 90% des dummen uservolks fallen drauf rein und meinen, es wäre ne innovatrion mit MEHT leistung.

Tja, im Land der Blinden ist der einäugige König, schonmal das nV Logo angesehen?
Die Medallie hat immer zwei Seiten, die die verarschen und die, die sich verarschen lassen.

der g200 ist wie son dinosaurier, zu groß, zu schwer und kann seine theoretische leistung eben nicht ausspielen.

Hab noch keine G200 in Aktion gesehen um sowas hieb und stichfest behaupten zu können, du übrigens auch nicht. ;)


Hört man jede Generation aufs neue von beiden Lagern, abgesehen davon dass das im Endeffekt scheiße für alle wäre wird das auch in diesem Jahr unter Garantie nicht passieren. :rolleyes:
 
@cosmicparty

also langsam wirds krass mit dir .... haarstraeubend was hier fuer Behauptungen aufgestellt werden .

Der einzige Grund fuer die Grosse des GT200 ist die Anzahl der Transistoren , der wurde nicht absichtlich so gross gemacht .Da die Strukturen feiner geworden sind und die Leistungsaufnahme gleich geblieben ist kann der Chip unmoeglich heisser werden als der Vorgaenger. Die Hitzeerzeuger sind noch auf groesserer Flaeche verteilt und garantieren damit eine niedrigere Hitzeerzeugung.DAS nennt man Physik ..!:) BTW:problematik schreibt man vorn mit "P" und das nennt man Grammatik.

nvidia scheint nichts richtig gemacht zu haben und ist trotzdem mega erfolgreich. ATI ist angeblich soviel cleverer, launcht aber seit 2 Jahren nur noch Murks.Haut alles nicht so richtig hin oder.... ? Ich kann deinen Aerger gut verstehen ,wenn man direkt nacheinander soviele Enttaeuschungen mit AMD/ATI miterleben musste, faellt es immer schwerer seine Position gegen die offentsichtliche Wahrheit zu halten . Die Strategie die Fans lange im Voraus mit voellig unrealistischen Leistungsangaben bei der Stange zuhalten und dann so ein Murks abzuliefern wie den Phenom und die HD2900 finde ich sehr unfair. Kaum als Murks entlarvt geistern schon die naechsten Codenamen durch die Foren. Erst das sagenumwobene B3 Stepping das alles aendern sollte,aber rein gar nichts geaendert hat und bei den GPU`s die HD4xxx Reihe die laut den vermutlichen Specs. einen besseren Facelift darstellt und auch keine Chance hat. Fuer den wahrscheinlichen Fall das beide Produkte floppen wurden schon Einzelheiten ueber die kommenden Geheimwaffen unters Volk gebracht. Shanghai (V3) und R800 (V4) sollens jetzt richten und die Fans bei der Stange halten, frei nach dem Motto "Die Hoffnung stirbt zuletzt ..." Diese Strategie ist die wirkliche Peinlichkeit , sehr viele Leute muessen sehr hart und lange fuer die neue Hardware arbeiten und wollen dann nicht so enttaeuscht werden . Verglichen mit den offentsichtlich gefaelschten SpecInt Benches zum Phenom Launch sind doch die neuen Namen fuer nicht ganz so neue Karten eine Kleinigkeit ....:)
 
Zuletzt bearbeitet:
Wie sollte das funktionieren AMD/ATI muss erst mal wieder schauen das sie auf die beine kommen dan geht vielleicht wieder was mit sponsern. Wäre geil da AMD/ATI eigentlich viel geilere LOGOS hat.


ich wollte nur mal darauf eingehen da Bansi geschrieben hat das der G80/G92 die theoretische leistung besser auf die straße bringt. was jedoch nicht der fall der G80 vielleicht ein bisschen wegen der höheren speicherbandbreite und dem größeren Speicher der G92 hat aber in etwa die gleiche Leistungsausbeute wie der RV670

Und man muss erst mal sehen was die beiden Chips so bringen beim R600 sagte auch jeder nach datenblättern der putz den G80 mit seinen 512 Bit und restlichen schnick schnack und was war er konnte nicht mal ner GTS parolie bieten. Wer sagt das es NVidia mit dem GT200 nicht genauso geht
 
Die Taktraten sind ja nicht so der hammer... Ich warte lieber auf den Refresh mit GDDR5-VRAM, dürfte dann eh wie immer noch mehr Leistung zum kleineren Preis bieten. ;)
 
Ich denke,das die meisten käufer wenn sie denn erschienen sind nach dem preis entscheiden.
Es werden viele in kauf nehmen,das eine ati (vielleicht) ein paar % langsamer ist,dafür ca.100€ weniger kostet.

Das wäre mein kaufkriterium.

Natürlich erst die tests abwarten.
 
Zurück
Oben