News nV40 mit spekulierten 210 Millionen Transistoren?

Dann kommt noch das sie sagen der nV40 verbaucht 2 watt und er hat dabei 800mhz chiptakt und 900 Mhz speichertakt.

Blue
 
Hi
also ich vertraue " The Inquirer" eigendlich immer weil ich glaub es giebt keine seite die so früh über viele details bericht und zu 90% sind die auch richtig und und zu 99%zumindest teilweise richtig
aber wenn das wirklich so kommt wäre es zumindest technisch ein extremwerk
aber wie die leistung nachher ist
warten wirs ab
greetz
Mista
der der seit 8500 nur noch ATI karten gekauft hat und jetzt auch im laptop nen ati chip hat
 
@ Timmy das die Graka shader 3.0 net flüssig hinkriegen ist zu erwarten aber aufjeden fall werden irgendwann spiele diesen und höhere unterstüzen das wird nie aufhören selbst wenn ein shader 10 rauskommt wirds net die grenze sein

Die Spiele entwickler wollwen einfach ein immer realistischeres disign haben
 
lol es ist doch einfach nicht zu glauben :)

Kaum kommt ne Meldung, das nVidia, ATI oder sonstwer irgendwas neues, schnelleres rausbringt und schon schrein (fast) alle rum 'Ahh scheisse scheisse die kostet doch bestimmt 1000€ !!' 'ahh die is bestimmt voll scheisse und so heiß wie nen Atomkraftwerk ohne Kühlung.. !!'Ahh nVidia is eh scheisse und macht alles falsch' !!


Wann hört das endlich auf ? :>

Freut euch doch einfach das sich die Technik weiterentwickelt !
Nur so wirds vielleicht irgendwann (fast) fotorealistische Grafik geben..

Ihr Flamer :)
 
hmmm, wenn die eine passive oder richtig leise rausbringen steig ich dann ende sommer um, bin mit ati nicht glücklich, die sollten mal ihre linux-programmierer bissl in den Arsch treten, grotten schlechte (naja fast *G*) treiber ham die da, da muss ich nvidia loben! 16pipes find ich aber auch bissl übertrieben, aber wir kennen ja alle den Inquirer :D
 
Ich glaube nicht dass Spieleentwickler jemals auf Schader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Schader 2.0 natürlich
 
freeeezy schrieb:
Freut euch doch einfach das sich die Technik weiterentwickelt !
Nur so wirds vielleicht irgendwann (fast) fotorealistische Grafik geben..

Wer bitte will denn Photorealismus?
Ich habe in meinem Leben bestimmt schon 50 Handgranaten geworfen und sogar einmal das große Glück scharf Panzerfaust zu schießen, desweiteren habe ich von den 8 Jahren Bw 2 Jahre bei der Artillerie verbracht und konnte sehen was 150mm und 203mm Haubitzen sowie 110mm Raketenwerfer anrichten.

Was ich jedoch nie gesehen habe, waren die grandiosen Feuerbälle wie man sie in PC-Spielen und amerikanischen Schinkenfilme zu sehen bekommt.
Genau das aber wollen die Jungs doch sehen! Die wollen keinen Photorealismus, sondern grandiose Feuerbälle etc. :p ;)
 
GRAKA0815 schrieb:
Wer bitte will denn Photorealismus?
Ich habe in meinem Leben bestimmt schon 50 Handgranaten geworfen und sogar einmal das große Glück scharf Panzerfaust zu schießen, desweiteren habe ich von den 8 Jahren Bw 2 Jahre bei der Artillerie verbracht und konnte sehen was 150mm und 203mm Haubitzen sowie 110mm Raketenwerfer anrichten.

Was ich jedoch nie gesehen habe, waren die grandiosen Feuerbälle wie man sie in PC-Spielen und amerikanischen Schinkenfilme zu sehen bekommt.
Genau das aber wollen die Jungs doch sehen! Die wollen keinen Photorealismus, sondern grandiose Feuerbälle etc. :p ;)


Und einige Granaten scheinen in der deiner Hand losgegangen zu sein :volllol: :heuldoch: :heilig:
 
@Graka
Ich weis, ich hab den MLRS bedient lol

Eigentlich geht der Trend zum totalen Fotorealismus! Und davon sind wir noch Jahre entfernt.
Alle reden von "Wann hört das denn mal auf...." Wieso? Erstens ist es ein Gerücht....Zweitens macht NVidia nicht noch mal so einen Fehler wie mit der 5800 Ultra. Und wer sich mit dem nv30 Chipdesign und Microsofts DX9 auseinander gesetzt hat weis, wieso dieser zT langsam ist, aber wenn richtig programmiert auch höllisch schnell sein kann.
Ich bin von nvidia überzeugt, das sie das hinbekommen. Als ich mir (nach Amiga+PermediaII) eine Riva TNT zulegte lachten mich viele aus, und zeigten auf ihre ach so tollen Vodoo2 Karten. Wie es jetzt aussieht weis jeder. Auch wenn vieles am Marketing lag. Die Gf2 - GF4 waren wirklich absolute Top Grafikkarten. Ich bin gespannt was nun kommt;-)
 
Naja ihr wisst schon was ich meine =p

Ich fänds trotzdem einfach geil zB son Spiel wie World of warcraft so zu zocken, das das dann wie nen Herr der Ringe Film aussieht :)

Das ganze dann am besten auchnoch auf nem riesigen Bildschirm, dies dann ja sicherlich auch geben wird *g*
 
freeeezy schrieb:
Naja ihr wisst schon was ich meine =p

Ich fänds trotzdem einfach geil zB son Spiel wie World of warcraft so zu zocken, das das dann wie nen Herr der Ringe Film aussieht :)

Das ganze dann am besten auchnoch auf nem riesigen Bildschirm, dies dann ja sicherlich auch geben wird *g*

Natürlich möchte das jeder,nur manche meckern halt über alles.
 
GRAKA0815 schrieb:
Wer bitte will denn Photorealismus?
Ich habe in meinem Leben bestimmt schon 50 Handgranaten geworfen und sogar einmal das große Glück scharf Panzerfaust zu schießen, desweiteren habe ich von den 8 Jahren Bw 2 Jahre bei der Artillerie verbracht und konnte sehen was 150mm und 203mm Haubitzen sowie 110mm Raketenwerfer anrichten.

Was ich jedoch nie gesehen habe, waren die grandiosen Feuerbälle wie man sie in PC-Spielen und amerikanischen Schinkenfilme zu sehen bekommt.
Genau das aber wollen die Jungs doch sehen! Die wollen keinen Photorealismus, sondern grandiose Feuerbälle etc. :p ;)

203mm haubitze? müsste ja ein riesiges system sein, wieso hab ich bloss meine zweifel das die bw solch eins besitzt (oder besessen hat)?
 
Ich bin recht zuversichtlich, dass nVidia mit ATi gleichzieht. Noch einen Patzer können die sich nicht erlauben...
 
Wir werden alles genau wissen, wenn die ersten Karten hier bei ComputerBase getestet werden... ;)
 
(c) schrieb:
203mm haubitze? müsste ja ein riesiges system sein, wieso hab ich bloss meine zweifel das die bw solch eins besitzt (oder besessen hat)?
203 mm = 20,3 cm ... was ist daran so unglaubwürdig !? ;)
 
Loopo schrieb:
203 mm = 20,3 cm ... was ist daran so unglaubwürdig !? ;)

zu groß für ein konventionelles, landgestütztes geschütz; genauso wie ein chip mit 210 mio transis in 130nm grösse - zwar nicht undenkbar, aber auf jeden fall nicht billig!
 
nVidia wird sich mit dem NV40 die Krone wieder zurückholen, und das ist auch wichtig denn schließlich muss das technologische Gleichgewicht wiederhergestellt werden.Ich habe zwar zur Zeit eine FX5900 Ultra (sogar Übertaktet GPU : 510 Mhz und Speicher 950 Mhz)aber ich werde mir Trotzdem die neue Karte mit dem schnellsten NV40 Chip kaufen, fast egal was diese kosten wird. Bin halt einer von diesen Technikfreaks und brauche sie auch geschäftlich. Ich fing damals mit nVidia an und vertraue auch heute noch drauf, haben mich noch nie wirklich entäuscht.
 
(c) schrieb:
zu groß für ein konventionelles, landgestütztes geschütz; genauso wie ein chip mit 210 mio transis in 130nm grösse - zwar nicht undenkbar, aber auf jeden fall nicht billig!

OT:
Nein, ein Artilleriebattaillon der Divison hat 5 Kompanien
1. Kompanie Stab & Versorgung
2-3. Kompanie 155mm auf M109
4-5. Kompanie 203mm auf M110
siehe auch: http://home.t-online.de/home/a.m.ackens/m110.htm
203mm ist aber auch das größte das die Bw hat. ;)

Topic:
Aber heute in 3 Wochen wird man auf der CeBit sehen ob die Angaben stimmen oder nicht. Vorallem wird man sehen können was sie leistet!

Zum Thema billig.
Eine GPU ist nahezu genauso komplex wie eine CPU, evtl. sogar komplexer.
Trotzdem kostet eine GPU den Verbraucher weniger!
 
Zuletzt bearbeitet:
Zurück
Oben