hat nVidia nicht total versagt ?

Desoxyribo

Lieutenant
Registriert
Jan. 2008
Beiträge
972
[Diskussion] hat nVidia nicht total versagt ?

hi,
ihr habt ja sicher alle den artikel von Volker über die finalen taktraten der neuen GeForce serie gelesen.eigentlich lässt nVidia ja nen Gozilla raus mit der akrte, die technischen specs sind ja auf den ersten blick vielversprechend. aber wenn man nach und nach weiterdenkt dann kriegt man (ich) das gefühl, das nVidia irgendwie total versagt hat. im moment skalieren ja laut den gerüchten (!) die GT260 und die HD4870 auf gleicher höhe, die GT280 liegt ca. 25% darüber, die HD4850 liegt ca. 25% über der 9800GTX. nun meine "argumente" wieso nVidia eigentlich nen schuss ins ofenrohr getätigt hat: (ich habe meine argumente weitgehend auf den GT280 beschränkt)

1. der enorme chip: ihr habt sicher alle die bilder im artikel gesehen. im vergleich zu den ATI's ist das ja ein mammut, der Fat Bastard unter den GPU's ! die enorme grösse sorgt natürlich für recht hohe produktionskosten, wodurch der preis steigt. die GT280 ist ja anscheinend 25% schneller als die HD4870, was ja eigentlich sehr wenig ist. aber trotzdem wird nVidia für einige wochen die performancekrone haben, bis ATI die X2version der HD4870 rausgibt. die wird dann wiederum ca. 25% schneller sein als die GT280. viele denken jetzt natürlich dass nVidia halt nen GT280 GX2 oder so rausbringt, aber das geht ja garnicht ! die GT280 verbrät ja schon 236w unter last, wie soll man da zwei GPUs auf ein/zwei PCB's bringen und diese dann ohne wakü kühlen ?. das wären ja fast 500w allein für die graka, das ist ja fast soviel wie mein ganzes system verbraucht. ganz zu schweigen vom lüfter der dieses monstrum besänftigen soll. entweder muss das eine 3-slot lösung werden oder man hat son lautes raumschiff im gehäuse.

2. der enorme preis: die GT280 soll ja um die 600$ kosten, das wird so um die 500€ sein in den ersten wochen. für nur 329$ bekommt man dann ne 4870 welche nur 25% weniger performance hat, viel weniger strom verbrät (so um die 150w) und deswegen wird der lüfter hoffentlich auch leiser sein,

3. die taktraten: irgendwie hat nVidia die taktraten total kastriert bei der 200er reihe, sowohl den kern- und speichertakt als auch den shadertakt. viele werden jetzt sagen, das liegt daran, dass sie die architektur weitgehend optimiert haben, mehr transistoren usw. dies kann ja zum teil stimmen, aber ich glaube das liegt am stromverbrauch ! die saugt ja ca 500Mhz Chiptakt (habe die genauen taktraten nicht im kopf) schon 236w ! wie soll die denn noch übertaktet werden ohne dass der kühler zu einem staubsauger wird ? ich denke mal wenn man übertakten möchte braucht man nen ordentlichen voltmod, und ich denke mal dass der verbrauch bis auf 300w steigen könnte. konkret gesagt glaube ich das nVidia gezwungen war die taktraten so runterzudrehen weil sonst jeder ein eigenes kraftwerk braucht um dieses monster zu füttern. das würde auch die aussage nVidias erklären dass dies der letzte riesenchip wird und dass man künftig den weg ATI's gehen wird (kleinere fertigung, aktuell: 65nm, ATI: 55nm)

4. die Speicherbandbreite: wieso ein 512bit SI einbauen wenn sich GDDR5 anscheinend gut durchschlägt ? jetzt kommt mir bitte nicht mit hohen kosten, denn wieso schaffts ATI eine Karte mit gleichgrossem GDDR5 speicher zu verkaufen für ca. 270$ weniger ? da nVidia die taktraten so runterdrehen musste (meines erachtens wegen dem enormen stromverbrauch), macht das riesige SI auch wieder weniger sinn, weil es nicht ausgenützt wird. Guckt euch mal die HD2900er reihe an, was das für ein flop war mit den 512bit SI. ATI's lösung kommt mir wesentlich besser vor, denn die speicherbandbreite wird trotz 256bit SI deutlich erhöht, weil sie den GDDR5 speicher mit 1.9Ghz DDR (3,8GHZ) takten können.

das einzig wirklich positive das ich bis jetzt an der neuen GeForce reihe schätzen kann ist die PhysX unterstützung mithilfe von nVidias neuer CUDA technologie. ATI hat anscheinend auch irgendwas zur Physikbeschleunigung eingebaut, aber ich habe keine gerningste ahnung was das sein sollte, bitte klärt mich auf wenn ihr mehr wisst.

so das war mal mein senf, jetzt lasst mal eure comments hören. ich möchte aber vorweg sagen das ich definitiv kein ATI-fanboy bin(@Unyu:D;)), wie einige andere nVidia-fanboys wahrscheinlich behaupten werden. ich habe versucht das ganze so neutral wie möglich, aber trotzdem wahrheitsgemäss zu gestalten.

@Mods: ich weiss die allgemeine diskussion ist in Volkers fred, ich wollte einfach mal eine spezifische diskussion erstellen über diese themen, also bitte nicht schliessen;)

Greetz
 
Zuletzt bearbeitet:
Cuda ist aber nicht nur für Physik zu gebrauchen ;-) und genau das macht die Karten interessant.
 
Und trotzdem denke ich dass die GTX280 wieder die performance Krone holen wird.. AMD hat da in lezter zeit ja nix geschaft.. Ich vertraeu daher auf nVidia.. Die werden nicht geschlafen haben und die GTX kann man ja sicher wieder stark übertakten.. ;)
 
Du sagst es selbst.

Gerüchte.

Also Tests abwarten und Bier tinken.
Tee mit Schuss meinetwegen auch :)
 
Naja ich würde sagen das wird sich alles zeigen wenn die Karte raus ist.
Kann ja auch sein dass die zur Überraschung aller wirklich derbe reinhut:p
Aber mal ehrlich, erst die Tests von Nvidia und ATI Karten werden da Licht ins Dunkel bringen;)


mfg
 
Naya ich denke das die Karten nen höheren Takt haben werden als laut den Gerüchten, zudem vermute ich das Nvidia vermutlich(oder besser: hoffentlich) die Effiziens der Einheiten verbessert hat
 
die taktrate sagt nicht immer was über die lesitung einer graka aus , es kahm schon öfter vor das karten die nicht so hoch getacktet waren wie vieleicht die konkurenz diese immernoch schlagen konnte , das zusammenspiel der ganzen komponenten auf einer graka bringen die leistung

ich denke mal ddr3 ist immernoch ausreichend , lieber einen großen ram mit passender speicherbandbreite so das große texturen schnell transportiert werden können , bei ati find ich das als flaschenhals hochgetackteter speicher wo sich dann die texturen staun

(mal mein gedankenspiel dazu kann auch sein das ich da falsch lieg)
 
Wenn die 4870 25% über der 9800GTX ist, dann ist die GTX 260 nicht gleichauf!
Doppelte 9800GTX Leistung für die GtX280 ist immer noch realistisch.

1. Warum 2 Chips wenns einer packt?
Keine Ahnung warum alle so geil auf SLI und CF auf einer Karte sind, ist doch krank diese Entwicklung. (nicht mit CPUs vergleichbar!)

2. High-End, schon mal gehört?
Wem das zu teuer is, kauft RV770 oder G92b oder etwas noch kleineres.

3. Der Chiptakt geht nicht so hoch, wegen den vielen Einheiten bei dieser Fertigung, hoher Takt is eh nur bedingt sinnvoll
RAM ja ist halt GDDR3, die vollen 1200Mhz wird man nicht auskosten, macht man selten das der RAM am Limit läuft.
GDDR5 kommt ja dank SI nicht in Frage
Mehr Bandbreite braucht GT200 doch nicht

4. Bisher (seit G8x) waren die ROPs ans SI gekoppelt. Wurde wohl nichts großartig geändert und schwups hat man bei mehr ROPs ein größeres SI.

Gut ich habe neutral (wie immer) geantwortet. ;)

Fritzler schrieb:
was du noch vergessen hast:
die nvdia karten haben keine stromsparmechanismen
Ja und die AMD keine anständige Texturfilterung.
Darf ich erinnern wer das bessere Performance/Watt Verhältnis hat? 3870 vs 9600GT, die 9600GT gewinnt.
 
Zuletzt bearbeitet:
Centurio81 schrieb:
Und trotzdem denke ich dass die GTX280 wieder die performance Krone holen wird.. AMD hat da in lezter zeit ja nix geschaft.. Ich vertraeu daher auf nVidia.. Die werden nicht geschlafen haben und die GTX kann man ja sicher wieder stark übertakten.. ;)

irgendwie hab ich das gefühl das du den thread nich wirklich gelesen hast...
 
Doch.
Tatsache ist doch dass wir gar nix wissen.
Im Grunde ist das hier alles Spekulation.
Meiner Meinung nach wird die GTX 280 deutlich schneller sein.
Und ne X2 Lösung von Seiten AMDs akzeptier ich nicht.
Hier muss man Einzelchip gegen Einzelchip vergleichen. Und da denke ich wird der GTX zeigen was geht..
 
Also ich würde auch mal sagen: Abwarten!
Ich denke aber das NVidia die Preise mal nen bisschen senken könnte von den neuen Karten
 
Irgendwie hast du Recht. nVidia war mit der 8800-Serie (G80) lange Zeit total überlegen, in dieser Zeit hätten sie wirklich etwas besseres entwickeln können.

236 Watt sind übrigens mehr, als mein ganzer PC momentan unter Volllast braucht...
 
Preise senken, klingt gut... und bleibt leider ein Traum...
Die High-End Karten waren schon immer so teuer und das bleibt wohl auch so!

Die ATI-Karten dürften auch jetzt wieder in Sachen "maximaler Performance" den kürzeren ziehen... Dafür werden diese sicherlich in Sachen Verbrauch und alternativer Kühlung NVidia schlagen und im unteren High-End Bereich (HD4870) bzw im "Mid-End"-Bereich (HD4850) gegen die dortigen Nvidia Karten antreten und diesen die Hölle heiß machen ;)

Ich denke, dass die ATI-Karten, ähnlich wie nun auch schon die HD3850/HD3870 zumindest eine paar Wochen, unangefochten die Preis-Leistungs-Krone tragen werden!
 
Zu punkt drei
Es begab sich zu vergangenen Zeiten, das ein kleiner Prozessorhersteller den großen Goliath mit deutlich niedrigeren Taktraten in die Schranken verwiesen hat. Der Goliath hat daraufhin mit echten Mhz geworben und Davids "falsche" Mhz madig gemacht. Wird es mit der 200er und der 48** genauso sein ? Bevor nicht unabhängige seiten wie Computerbase und Technic3D die karten anhand eigener Tests verglichen haben ist jegliches spekulieren sinnlos
 
JP-M schrieb:
Cuda ist aber nicht nur für Physik zu gebrauchen ;-) und genau das macht die Karten interessant.

Cuda wird aber bei den GeForce karten hauptsächlich für die Physikbeschleunigung sorgen, weil sonst kann kein kein programm etwas damit anfangen (bis jetzt, weil CUDA relativ neu ist). ausserdem hat ATI etwas ähnliches, ich weiss nur nicht mehr was weil ich seit ewigkeiten nichts mehr davon gehört habe.

scryed schrieb:
(mal mein gedankenspiel dazu kann auch sein das ich da falsch lieg)

du liegst aber falsch, auf jedenfall zum teil. das gleicht sich ja gegenseitig aus, mehr speichertakt und breites SI. stell dir 2 stadttore vor: eines ist breit, aber die menschen laufen nur mit 5km/h durch. das andere ist halb so gross, aber die menschen laufen mit doppelter geschwindigkeit durch (10km/h), also kommen insgesamt gleichviel leute durch:D

Unyu schrieb:
Wenn die 4870 25% über der 9800GTX ist, dann ist die GTX 260 nicht gleichauf!
Doppelte 9800GTX Leistung für die GtX280 ist immer noch realistisch.

erstmal: juhu Unyu ist wieder da:D BTT: doppelte 9800GTX leistung ist nicht möglich, rein von den specs her nicht. ich würde mich auch hüten das teil mit ner 9800GTX zu vergleichen, nimm lieber die Ultra als verlgeichsmodell. ich spekuliere mal dass die GTX280 ca. 150% der leistung einer Ultra hat, aber niemals 200% (schreib mir in paar wochen ne pm wenn du doch recht hast;))

Unyu schrieb:
1. Warum 2 Chips wenns einer packt?
Keine Ahnung warum alle so geil auf SLI und CF auf einer Karte sind, ist doch krank diese Entwicklung. (nicht mit CPUs vergleichbar!)

weil nVidia & ATI im moment nen dual-gpu tik haben ganz einfach:D und ich weiss das man das nicht mit CPU's vergleichen darf, das ist ne völlig andere liga.

Unyu schrieb:
2. High-End, schon mal gehört?
Wem das zu teuer is, kauft RV770 oder G92b oder etwas noch kleineres.

bitte pflanz den G92b traum woanders, das wurde schon soooooo oft diskutiert. Und wer weiss, wenn nVidia jetzt nen totalen flop aussetzt dann wird vielleicht der RV770 highend;)

Greetz

€dit: @Efferman: jo aber es ist interessant und eine feine beschäftigung
 
Zuletzt bearbeitet:
Ob nvidia "versagt" hat, wird sich erst zeigen, wenn ofizielle Tests erschienen sind. Die 8800GTX wurde vor dem release auch von vielen Quellen schlecht geredet, wobei nvidia mit ihrer "wir nutzen noch keine unified-shader-Täuschung" natürlich viel dazu beigetragen hat. Was man nvidia natürlich ankreiden kann ist die Tatsache, dass die GPU wirklich ein absoluter Energiefresser wird, was aber der werten high-end-Gemeinde vollkommen egal sein dürfte. Das DX10.1 noch nicht unterstützt wird ist in meinen Augen nicht wirklich schlimm, wenn man mal die bisher doch sehr überschaubare Zahl an DX10-games betrachtet, die DX10 auch wirklich überzeugend nutzt.

Wie gesagt, wenn die Karten von ATI und nvidia ersten seriösen Tests unterzogen werden, wird zu erkennen sein, ob eine GTX280 ihren zugegeben hohen Preis auch wirklich wert ist.
 
Ja und die AMD keine anständige Texturfilterung.
Darf ich erinnern wer das bessere Performance/Watt Verhältnis hat? 3870 vs 9600GT, die 9600GT gewinnt.

ja toll, ich zock ja auch 24/7 auf meinem PC

zudem vergleichst du hier high end vs midrange, klar dass die ati da abspackt, weil die eben nur auf leistung getrimmt ist

zur erinnerung: meine X1900XT frisst idle 25W und last 150W
die nvidias ziehen idle sicherlich mehr als das doppelte
 

Ähnliche Themen

Zurück
Oben