Desoxyribo
Lieutenant
- Registriert
- Jan. 2008
- Beiträge
- 972
[Diskussion] hat nVidia nicht total versagt ?
hi,
ihr habt ja sicher alle den artikel von Volker über die finalen taktraten der neuen GeForce serie gelesen.eigentlich lässt nVidia ja nen Gozilla raus mit der akrte, die technischen specs sind ja auf den ersten blick vielversprechend. aber wenn man nach und nach weiterdenkt dann kriegt man (ich) das gefühl, das nVidia irgendwie total versagt hat. im moment skalieren ja laut den gerüchten (!) die GT260 und die HD4870 auf gleicher höhe, die GT280 liegt ca. 25% darüber, die HD4850 liegt ca. 25% über der 9800GTX. nun meine "argumente" wieso nVidia eigentlich nen schuss ins ofenrohr getätigt hat: (ich habe meine argumente weitgehend auf den GT280 beschränkt)
1. der enorme chip: ihr habt sicher alle die bilder im artikel gesehen. im vergleich zu den ATI's ist das ja ein mammut, der Fat Bastard unter den GPU's ! die enorme grösse sorgt natürlich für recht hohe produktionskosten, wodurch der preis steigt. die GT280 ist ja anscheinend 25% schneller als die HD4870, was ja eigentlich sehr wenig ist. aber trotzdem wird nVidia für einige wochen die performancekrone haben, bis ATI die X2version der HD4870 rausgibt. die wird dann wiederum ca. 25% schneller sein als die GT280. viele denken jetzt natürlich dass nVidia halt nen GT280 GX2 oder so rausbringt, aber das geht ja garnicht ! die GT280 verbrät ja schon 236w unter last, wie soll man da zwei GPUs auf ein/zwei PCB's bringen und diese dann ohne wakü kühlen ?. das wären ja fast 500w allein für die graka, das ist ja fast soviel wie mein ganzes system verbraucht. ganz zu schweigen vom lüfter der dieses monstrum besänftigen soll. entweder muss das eine 3-slot lösung werden oder man hat son lautes raumschiff im gehäuse.
2. der enorme preis: die GT280 soll ja um die 600$ kosten, das wird so um die 500€ sein in den ersten wochen. für nur 329$ bekommt man dann ne 4870 welche nur 25% weniger performance hat, viel weniger strom verbrät (so um die 150w) und deswegen wird der lüfter hoffentlich auch leiser sein,
3. die taktraten: irgendwie hat nVidia die taktraten total kastriert bei der 200er reihe, sowohl den kern- und speichertakt als auch den shadertakt. viele werden jetzt sagen, das liegt daran, dass sie die architektur weitgehend optimiert haben, mehr transistoren usw. dies kann ja zum teil stimmen, aber ich glaube das liegt am stromverbrauch ! die saugt ja ca 500Mhz Chiptakt (habe die genauen taktraten nicht im kopf) schon 236w ! wie soll die denn noch übertaktet werden ohne dass der kühler zu einem staubsauger wird ? ich denke mal wenn man übertakten möchte braucht man nen ordentlichen voltmod, und ich denke mal dass der verbrauch bis auf 300w steigen könnte. konkret gesagt glaube ich das nVidia gezwungen war die taktraten so runterzudrehen weil sonst jeder ein eigenes kraftwerk braucht um dieses monster zu füttern. das würde auch die aussage nVidias erklären dass dies der letzte riesenchip wird und dass man künftig den weg ATI's gehen wird (kleinere fertigung, aktuell: 65nm, ATI: 55nm)
4. die Speicherbandbreite: wieso ein 512bit SI einbauen wenn sich GDDR5 anscheinend gut durchschlägt ? jetzt kommt mir bitte nicht mit hohen kosten, denn wieso schaffts ATI eine Karte mit gleichgrossem GDDR5 speicher zu verkaufen für ca. 270$ weniger ? da nVidia die taktraten so runterdrehen musste (meines erachtens wegen dem enormen stromverbrauch), macht das riesige SI auch wieder weniger sinn, weil es nicht ausgenützt wird. Guckt euch mal die HD2900er reihe an, was das für ein flop war mit den 512bit SI. ATI's lösung kommt mir wesentlich besser vor, denn die speicherbandbreite wird trotz 256bit SI deutlich erhöht, weil sie den GDDR5 speicher mit 1.9Ghz DDR (3,8GHZ) takten können.
das einzig wirklich positive das ich bis jetzt an der neuen GeForce reihe schätzen kann ist die PhysX unterstützung mithilfe von nVidias neuer CUDA technologie. ATI hat anscheinend auch irgendwas zur Physikbeschleunigung eingebaut, aber ich habe keine gerningste ahnung was das sein sollte, bitte klärt mich auf wenn ihr mehr wisst.
so das war mal mein senf, jetzt lasst mal eure comments hören. ich möchte aber vorweg sagen das ich definitiv kein ATI-fanboy bin(@Unyu
), wie einige andere nVidia-fanboys wahrscheinlich behaupten werden. ich habe versucht das ganze so neutral wie möglich, aber trotzdem wahrheitsgemäss zu gestalten.
@Mods: ich weiss die allgemeine diskussion ist in Volkers fred, ich wollte einfach mal eine spezifische diskussion erstellen über diese themen, also bitte nicht schliessen
Greetz
hi,
ihr habt ja sicher alle den artikel von Volker über die finalen taktraten der neuen GeForce serie gelesen.eigentlich lässt nVidia ja nen Gozilla raus mit der akrte, die technischen specs sind ja auf den ersten blick vielversprechend. aber wenn man nach und nach weiterdenkt dann kriegt man (ich) das gefühl, das nVidia irgendwie total versagt hat. im moment skalieren ja laut den gerüchten (!) die GT260 und die HD4870 auf gleicher höhe, die GT280 liegt ca. 25% darüber, die HD4850 liegt ca. 25% über der 9800GTX. nun meine "argumente" wieso nVidia eigentlich nen schuss ins ofenrohr getätigt hat: (ich habe meine argumente weitgehend auf den GT280 beschränkt)
1. der enorme chip: ihr habt sicher alle die bilder im artikel gesehen. im vergleich zu den ATI's ist das ja ein mammut, der Fat Bastard unter den GPU's ! die enorme grösse sorgt natürlich für recht hohe produktionskosten, wodurch der preis steigt. die GT280 ist ja anscheinend 25% schneller als die HD4870, was ja eigentlich sehr wenig ist. aber trotzdem wird nVidia für einige wochen die performancekrone haben, bis ATI die X2version der HD4870 rausgibt. die wird dann wiederum ca. 25% schneller sein als die GT280. viele denken jetzt natürlich dass nVidia halt nen GT280 GX2 oder so rausbringt, aber das geht ja garnicht ! die GT280 verbrät ja schon 236w unter last, wie soll man da zwei GPUs auf ein/zwei PCB's bringen und diese dann ohne wakü kühlen ?. das wären ja fast 500w allein für die graka, das ist ja fast soviel wie mein ganzes system verbraucht. ganz zu schweigen vom lüfter der dieses monstrum besänftigen soll. entweder muss das eine 3-slot lösung werden oder man hat son lautes raumschiff im gehäuse.
2. der enorme preis: die GT280 soll ja um die 600$ kosten, das wird so um die 500€ sein in den ersten wochen. für nur 329$ bekommt man dann ne 4870 welche nur 25% weniger performance hat, viel weniger strom verbrät (so um die 150w) und deswegen wird der lüfter hoffentlich auch leiser sein,
3. die taktraten: irgendwie hat nVidia die taktraten total kastriert bei der 200er reihe, sowohl den kern- und speichertakt als auch den shadertakt. viele werden jetzt sagen, das liegt daran, dass sie die architektur weitgehend optimiert haben, mehr transistoren usw. dies kann ja zum teil stimmen, aber ich glaube das liegt am stromverbrauch ! die saugt ja ca 500Mhz Chiptakt (habe die genauen taktraten nicht im kopf) schon 236w ! wie soll die denn noch übertaktet werden ohne dass der kühler zu einem staubsauger wird ? ich denke mal wenn man übertakten möchte braucht man nen ordentlichen voltmod, und ich denke mal dass der verbrauch bis auf 300w steigen könnte. konkret gesagt glaube ich das nVidia gezwungen war die taktraten so runterzudrehen weil sonst jeder ein eigenes kraftwerk braucht um dieses monster zu füttern. das würde auch die aussage nVidias erklären dass dies der letzte riesenchip wird und dass man künftig den weg ATI's gehen wird (kleinere fertigung, aktuell: 65nm, ATI: 55nm)
4. die Speicherbandbreite: wieso ein 512bit SI einbauen wenn sich GDDR5 anscheinend gut durchschlägt ? jetzt kommt mir bitte nicht mit hohen kosten, denn wieso schaffts ATI eine Karte mit gleichgrossem GDDR5 speicher zu verkaufen für ca. 270$ weniger ? da nVidia die taktraten so runterdrehen musste (meines erachtens wegen dem enormen stromverbrauch), macht das riesige SI auch wieder weniger sinn, weil es nicht ausgenützt wird. Guckt euch mal die HD2900er reihe an, was das für ein flop war mit den 512bit SI. ATI's lösung kommt mir wesentlich besser vor, denn die speicherbandbreite wird trotz 256bit SI deutlich erhöht, weil sie den GDDR5 speicher mit 1.9Ghz DDR (3,8GHZ) takten können.
das einzig wirklich positive das ich bis jetzt an der neuen GeForce reihe schätzen kann ist die PhysX unterstützung mithilfe von nVidias neuer CUDA technologie. ATI hat anscheinend auch irgendwas zur Physikbeschleunigung eingebaut, aber ich habe keine gerningste ahnung was das sein sollte, bitte klärt mich auf wenn ihr mehr wisst.
so das war mal mein senf, jetzt lasst mal eure comments hören. ich möchte aber vorweg sagen das ich definitiv kein ATI-fanboy bin(@Unyu
@Mods: ich weiss die allgemeine diskussion ist in Volkers fred, ich wollte einfach mal eine spezifische diskussion erstellen über diese themen, also bitte nicht schliessen
Greetz
Zuletzt bearbeitet: