Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News nV40 mit spekulierten 210 Millionen Transistoren?
- Ersteller Carsten
- Erstellt am
- Zur News: nV40 mit spekulierten 210 Millionen Transistoren?
Hi
also ich vertraue " The Inquirer" eigendlich immer weil ich glaub es giebt keine seite die so früh über viele details bericht und zu 90% sind die auch richtig und und zu 99%zumindest teilweise richtig
aber wenn das wirklich so kommt wäre es zumindest technisch ein extremwerk
aber wie die leistung nachher ist
warten wirs ab
greetz
Mista
der der seit 8500 nur noch ATI karten gekauft hat und jetzt auch im laptop nen ati chip hat
also ich vertraue " The Inquirer" eigendlich immer weil ich glaub es giebt keine seite die so früh über viele details bericht und zu 90% sind die auch richtig und und zu 99%zumindest teilweise richtig
aber wenn das wirklich so kommt wäre es zumindest technisch ein extremwerk
aber wie die leistung nachher ist
warten wirs ab
greetz
Mista
der der seit 8500 nur noch ATI karten gekauft hat und jetzt auch im laptop nen ati chip hat
bistromann
Cadet 1st Year
- Registriert
- Feb. 2004
- Beiträge
- 12
@ Timmy das die Graka shader 3.0 net flüssig hinkriegen ist zu erwarten aber aufjeden fall werden irgendwann spiele diesen und höhere unterstüzen das wird nie aufhören selbst wenn ein shader 10 rauskommt wirds net die grenze sein
Die Spiele entwickler wollwen einfach ein immer realistischeres disign haben
Die Spiele entwickler wollwen einfach ein immer realistischeres disign haben
lol es ist doch einfach nicht zu glauben
Kaum kommt ne Meldung, das nVidia, ATI oder sonstwer irgendwas neues, schnelleres rausbringt und schon schrein (fast) alle rum 'Ahh scheisse scheisse die kostet doch bestimmt 1000€ !!' 'ahh die is bestimmt voll scheisse und so heiß wie nen Atomkraftwerk ohne Kühlung.. !!'Ahh nVidia is eh scheisse und macht alles falsch' !!
Wann hört das endlich auf ? :>
Freut euch doch einfach das sich die Technik weiterentwickelt !
Nur so wirds vielleicht irgendwann (fast) fotorealistische Grafik geben..
Ihr Flamer
Kaum kommt ne Meldung, das nVidia, ATI oder sonstwer irgendwas neues, schnelleres rausbringt und schon schrein (fast) alle rum 'Ahh scheisse scheisse die kostet doch bestimmt 1000€ !!' 'ahh die is bestimmt voll scheisse und so heiß wie nen Atomkraftwerk ohne Kühlung.. !!'Ahh nVidia is eh scheisse und macht alles falsch' !!
Wann hört das endlich auf ? :>
Freut euch doch einfach das sich die Technik weiterentwickelt !
Nur so wirds vielleicht irgendwann (fast) fotorealistische Grafik geben..
Ihr Flamer
Throx
Lt. Commander
- Registriert
- Juni 2003
- Beiträge
- 1.483
hmmm, wenn die eine passive oder richtig leise rausbringen steig ich dann ende sommer um, bin mit ati nicht glücklich, die sollten mal ihre linux-programmierer bissl in den Arsch treten, grotten schlechte (naja fast *G*) treiber ham die da, da muss ich nvidia loben! 16pipes find ich aber auch bissl übertrieben, aber wir kennen ja alle den Inquirer
Ich glaube nicht dass Spieleentwickler jemals auf Schader 3.0 umsteigen werden da sie angeblich nur Nachteile mit sich bringen.
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Schader 2.0 natürlich
Die Bildqualität soll kaum besser sein während die Performance in den Keller sinkt. Und die Programmierung ist wesentlich umständlicher und teurer. Gegenüber Schader 2.0 natürlich
Tiu
Rear Admiral
- Registriert
- Sep. 2001
- Beiträge
- 5.560
freeeezy schrieb:Freut euch doch einfach das sich die Technik weiterentwickelt !
Nur so wirds vielleicht irgendwann (fast) fotorealistische Grafik geben..
Wer bitte will denn Photorealismus?
Ich habe in meinem Leben bestimmt schon 50 Handgranaten geworfen und sogar einmal das große Glück scharf Panzerfaust zu schießen, desweiteren habe ich von den 8 Jahren Bw 2 Jahre bei der Artillerie verbracht und konnte sehen was 150mm und 203mm Haubitzen sowie 110mm Raketenwerfer anrichten.
Was ich jedoch nie gesehen habe, waren die grandiosen Feuerbälle wie man sie in PC-Spielen und amerikanischen Schinkenfilme zu sehen bekommt.
Genau das aber wollen die Jungs doch sehen! Die wollen keinen Photorealismus, sondern grandiose Feuerbälle etc.
cenmocay
Banned
- Registriert
- Dez. 2003
- Beiträge
- 737
GRAKA0815 schrieb:Wer bitte will denn Photorealismus?
Ich habe in meinem Leben bestimmt schon 50 Handgranaten geworfen und sogar einmal das große Glück scharf Panzerfaust zu schießen, desweiteren habe ich von den 8 Jahren Bw 2 Jahre bei der Artillerie verbracht und konnte sehen was 150mm und 203mm Haubitzen sowie 110mm Raketenwerfer anrichten.
Was ich jedoch nie gesehen habe, waren die grandiosen Feuerbälle wie man sie in PC-Spielen und amerikanischen Schinkenfilme zu sehen bekommt.
Genau das aber wollen die Jungs doch sehen! Die wollen keinen Photorealismus, sondern grandiose Feuerbälle etc.
Und einige Granaten scheinen in der deiner Hand losgegangen zu sein
M
MR2
Gast
@Graka
Ich weis, ich hab den MLRS bedient lol
Eigentlich geht der Trend zum totalen Fotorealismus! Und davon sind wir noch Jahre entfernt.
Alle reden von "Wann hört das denn mal auf...." Wieso? Erstens ist es ein Gerücht....Zweitens macht NVidia nicht noch mal so einen Fehler wie mit der 5800 Ultra. Und wer sich mit dem nv30 Chipdesign und Microsofts DX9 auseinander gesetzt hat weis, wieso dieser zT langsam ist, aber wenn richtig programmiert auch höllisch schnell sein kann.
Ich bin von nvidia überzeugt, das sie das hinbekommen. Als ich mir (nach Amiga+PermediaII) eine Riva TNT zulegte lachten mich viele aus, und zeigten auf ihre ach so tollen Vodoo2 Karten. Wie es jetzt aussieht weis jeder. Auch wenn vieles am Marketing lag. Die Gf2 - GF4 waren wirklich absolute Top Grafikkarten. Ich bin gespannt was nun kommt;-)
Ich weis, ich hab den MLRS bedient lol
Eigentlich geht der Trend zum totalen Fotorealismus! Und davon sind wir noch Jahre entfernt.
Alle reden von "Wann hört das denn mal auf...." Wieso? Erstens ist es ein Gerücht....Zweitens macht NVidia nicht noch mal so einen Fehler wie mit der 5800 Ultra. Und wer sich mit dem nv30 Chipdesign und Microsofts DX9 auseinander gesetzt hat weis, wieso dieser zT langsam ist, aber wenn richtig programmiert auch höllisch schnell sein kann.
Ich bin von nvidia überzeugt, das sie das hinbekommen. Als ich mir (nach Amiga+PermediaII) eine Riva TNT zulegte lachten mich viele aus, und zeigten auf ihre ach so tollen Vodoo2 Karten. Wie es jetzt aussieht weis jeder. Auch wenn vieles am Marketing lag. Die Gf2 - GF4 waren wirklich absolute Top Grafikkarten. Ich bin gespannt was nun kommt;-)
Naja ihr wisst schon was ich meine =p
Ich fänds trotzdem einfach geil zB son Spiel wie World of warcraft so zu zocken, das das dann wie nen Herr der Ringe Film aussieht
Das ganze dann am besten auchnoch auf nem riesigen Bildschirm, dies dann ja sicherlich auch geben wird *g*
Ich fänds trotzdem einfach geil zB son Spiel wie World of warcraft so zu zocken, das das dann wie nen Herr der Ringe Film aussieht
Das ganze dann am besten auchnoch auf nem riesigen Bildschirm, dies dann ja sicherlich auch geben wird *g*
cenmocay
Banned
- Registriert
- Dez. 2003
- Beiträge
- 737
freeeezy schrieb:Naja ihr wisst schon was ich meine =p
Ich fänds trotzdem einfach geil zB son Spiel wie World of warcraft so zu zocken, das das dann wie nen Herr der Ringe Film aussieht
Das ganze dann am besten auchnoch auf nem riesigen Bildschirm, dies dann ja sicherlich auch geben wird *g*
Natürlich möchte das jeder,nur manche meckern halt über alles.
GRAKA0815 schrieb:Wer bitte will denn Photorealismus?
Ich habe in meinem Leben bestimmt schon 50 Handgranaten geworfen und sogar einmal das große Glück scharf Panzerfaust zu schießen, desweiteren habe ich von den 8 Jahren Bw 2 Jahre bei der Artillerie verbracht und konnte sehen was 150mm und 203mm Haubitzen sowie 110mm Raketenwerfer anrichten.
Was ich jedoch nie gesehen habe, waren die grandiosen Feuerbälle wie man sie in PC-Spielen und amerikanischen Schinkenfilme zu sehen bekommt.
Genau das aber wollen die Jungs doch sehen! Die wollen keinen Photorealismus, sondern grandiose Feuerbälle etc.
203mm haubitze? müsste ja ein riesiges system sein, wieso hab ich bloss meine zweifel das die bw solch eins besitzt (oder besessen hat)?
Loopo
Admiral
- Registriert
- Juli 2002
- Beiträge
- 7.617
203 mm = 20,3 cm ... was ist daran so unglaubwürdig !?(c) schrieb:203mm haubitze? müsste ja ein riesiges system sein, wieso hab ich bloss meine zweifel das die bw solch eins besitzt (oder besessen hat)?
Loopo schrieb:203 mm = 20,3 cm ... was ist daran so unglaubwürdig !?
zu groß für ein konventionelles, landgestütztes geschütz; genauso wie ein chip mit 210 mio transis in 130nm grösse - zwar nicht undenkbar, aber auf jeden fall nicht billig!
John Williams
Cadet 3rd Year
- Registriert
- Feb. 2004
- Beiträge
- 39
nVidia wird sich mit dem NV40 die Krone wieder zurückholen, und das ist auch wichtig denn schließlich muss das technologische Gleichgewicht wiederhergestellt werden.Ich habe zwar zur Zeit eine FX5900 Ultra (sogar Übertaktet GPU : 510 Mhz und Speicher 950 Mhz)aber ich werde mir Trotzdem die neue Karte mit dem schnellsten NV40 Chip kaufen, fast egal was diese kosten wird. Bin halt einer von diesen Technikfreaks und brauche sie auch geschäftlich. Ich fing damals mit nVidia an und vertraue auch heute noch drauf, haben mich noch nie wirklich entäuscht.
Tiu
Rear Admiral
- Registriert
- Sep. 2001
- Beiträge
- 5.560
(c) schrieb:zu groß für ein konventionelles, landgestütztes geschütz; genauso wie ein chip mit 210 mio transis in 130nm grösse - zwar nicht undenkbar, aber auf jeden fall nicht billig!
OT:
Nein, ein Artilleriebattaillon der Divison hat 5 Kompanien
1. Kompanie Stab & Versorgung
2-3. Kompanie 155mm auf M109
4-5. Kompanie 203mm auf M110
siehe auch: http://home.t-online.de/home/a.m.ackens/m110.htm
203mm ist aber auch das größte das die Bw hat.
Topic:
Aber heute in 3 Wochen wird man auf der CeBit sehen ob die Angaben stimmen oder nicht. Vorallem wird man sehen können was sie leistet!
Zum Thema billig.
Eine GPU ist nahezu genauso komplex wie eine CPU, evtl. sogar komplexer.
Trotzdem kostet eine GPU den Verbraucher weniger!
Zuletzt bearbeitet: