News Neues zum NV40 von nVidia

16 Vertex-Shader an programmierbarer Geometrieleistung und 16 MB eDRAM als eine Art Cache im Chip mit satten 44,8 GB/s Bandbreite kombiniert, das ist ja irre, wenn das stimmt wird das in jedem Fall einen Kanone mit deutlicherem Abstand zur Vorgängerversion...wenn es denn stimmt. Aber Embed- DRAM im Chip wird sicher teuer sollen so viele SRAM-Cache-Zellen in den Chip rein, macht ja auch die CPUs so teuer je mehr Cache. Also das mit dem EDRAM bezweifle ich etwas das das so stimmt, zumindest 16MB erscheinen mir hier deshalb übertrieben, alles andere klingt aber ganz nett !
 
@17

Warten wir mal ab, auf die ersten Spiele Benchmarks :-)

@19

Die Spiele sind dann nicht nur auf nVidia Karten Spielbar, außer sie werden in Cg Programmiert, das glaub ich (bin mir nicht sicher, möge mich einer korrigieren wenns nicht stimmt) läuft nur auf nVidia Karten.

Momentan halten viele Gamedeveloper an der "The way it's ment to be played"-Kampagne fest:

SOE: Everquest
Monolith: Tron 2.0
Akella: Pirates of the Caribbean
EA: Battlefield 1942
Core Design: Tomb Raider The Angel of Darkness
Microsoft GS: RalliSport Challenge
Ensemble Studios: Age of Mythology
Novalogic: Black Hawk Down
Turbine: Asherons Call 2
EA Games: C&C Generals
Massive Development: Aquanox 2
EA Sport: Madden 2003
Konami: Silent Hill 2
Ubi Soft: Splinter Cell
Legend: Unreal 2
Vector: Gunmetal (Mit Cg Programmiert)
Brat: Breed
GSC Gameworld: S.T.A.L.K.E.R
uvm.

Also insgesammt:
59 Spiele
29 Hersteller

Und ATI fängt ja jetzt auch damit an, Will Rock und HL2.
Das ist reines Marketing, natürlich wer es besser wenn beide Firmen Standarts einzuführen, aber da jeder Grafikkchip auch verschiedene Sachen kann, wollen sich die Firmen natürlich genau das zur nutze machen und ziehen GD auf ihre Seite.
 
Hi

@blober ich geb dir recht.

nochwas, ich finde es ist mal wieder zeit für was neues, nicht einfach einen alten abglatch des alten design, ATI und Nvidia haben doch "fast" nichts geändert. immer mehr transistoren immer mehr takt. beides erhöht den stromverbrauch, das einzige was da entgegenwirkt ist die struckturbreite. Ich möchte nicht in meinen rechner eine Graka drinnenhaben die 160W verbraucht :( laut intel ist es 2005 oder 2006 soweit. solch ein scheiß.
 
@22

*zustimmzZ*

Wirklich Zeit für was neues, auf beiden Seiten (Damit mein ich net NV36 und R360).

Normalerweise müsste ja der Verbrauch auch weiter runtergehen wenn die Karten kleiner gefertig werden, IBM beherrscht hat 0,09micron perfekt :-)
 
DAS stimmt aber wirklich dass IBM neben INTEL
den 0,09 micron prozess!!!!

Und dass mit den ca 44GB/S das gilt nur für den 256/512MB
grossen RAM!!!
DER E-RAM ist mit chiptakt getaktet
vergleichbar zu den chaches bei CPU´s!!!
Also rechnungsmässig würde der E-RAM
ca 300-400GB/S leisten!

Stand mal irgendwo!
 
aber die nv40 ist doch was ganz neues oder irre ich mich da. Es wurde doch gesagt, dass sie eine neue überarbeitete Architektur besitzen soll.
 
Alles nur bla bla bla, leistungssteigerung zum vorgänger um das doppelte, das hab ich schon so oft gehört, wurde noch nicht einmal im ansatz erreicht.
 
Более 20 лет Баргельд помогал Кейву реализовывать его идеи, будучи не только гитаристом, но и замечательным бэк-вокалистом. Кроме того фактурный Бликса дивно смотрелся в видеоклипах и на концертах. "Это было очень трудное решение для меня, - сказал Баргельд, - И я очень много времени провел в размышлениях по этому поводу. Но моя жизнь не ограничивается только этой группой, и я думаю, пришло время сосредоточиться на других аспектах деятельности." Бликса будет уделять больше времени
 
Spiel mal SWG mit höchsten Einstellungen AAx+AFx und mit einer 9800Pro und sag bitte nochmal, das was du eben sagtest! Danke
 
@27) Yuri

??? *staun*

@TheCounter

Ich glaube, das sollte eine Erläuterung auf Deine cg-Programmier-Frage sein !! ;)
 
hmmm, 27 konnte ich nicht lesen =D
was Cg angeht, find ich bissl doof, was nvidia da vorhatte, aber die opengl'er habens ja abgelehnt! Wenn was an den Specs vom NV40 dran ist, dann wird der sicherlich besser, aber zu welchem preis? ich finds ehrlich gesagt krank, was ati und nvidia da machen, freaks werden sich zwar solche karten holen, aber ich kauf mir doch keine grafikkarte die soviel watt braucht, wie mein kühlschrank, wenn er offen ist =D sorry jungs, die sollten über ihre konzepte nachdenken! ich wäre ausserdem schon längst von nvidia weg, weil mir diese Cheaterei bei Benchmarks derbst gegen strich geht, ati soll endlich sich mal an linux ranmachen, man man man
 
oh gott, The Counter
du bist echt ein blödes Kind. es geht nicht darum, wer mit den Bestechungen der Spielehersteller anfängt, um Spiele exklusiv auf einer Karte oder halt auf der Konkurrenz mit Einschränkungen laufen zu lassen. Es geht darum, dass es schlecht für JEDEN Spieler ist. Und dann erklär mir mal warum du die Kampagne gut findest...
 
@32

Wieso ist das schelcht für jeden Spieler? Du kannst das Spiel trozdem auf Karten der Konkurenz spielen, weis garnicht was du hast.

Programmier lieber selber mal ein Game, dann weisst du wie schwer es ist für 2 Grafikchips gleichzeitig zu programmieren, kann sein das du ne Passage hast die mit dem einen Chip super läuft, mit dem anderen sau schlecht.

Cg sollte standart werden und auf ATI genauso laufen wie auf nVidia Karten, Cg erleichtet die Programmierung von Effekten um einiges.
 
Ja hört sich gut an (ausstattung der karte), aber wann kann ein normal sterblicher (wich ich :D) diese karte gegen seine ti 4200 4x/64 mb für 200 - 250 € austauschen
in 2 Jahren ? :(
 
wenn die grafikkarten die geschwindigkeit des proz und die ram größe des boards übersteigen werden wohl grafikkarten als hauptplatiene und die mainboards als aufsatz zu bekommen sein.....
 
@TheCounter
"Programmier lieber selber mal ein Game, dann weisst du wie schwer es ist für 2 Grafikchips gleichzeitig zu programmieren..."

Darum gibt es HLSL standards DIrectX9 und OpenGL2.0
Cg ist KEIN standard, sondern der versuch einer firma in monopolstellung den status-quo zu konsolidieren. dies kommt nicht dem spieler zugute, sondern nur nvidia.

"Cg sollte [...] auf ATI genauso laufen wie auf nVidia Karten.."
Wirklich???? Warum braucht es hersteller-spezifische backends dann?
"Cg erleichtet die Programmierung von Effekten um einiges."
sprichst du aus eigener erfahrung? denke nicht.
 
@35

Du meinst damit die 0.09 Micron oder? Also mal sehen, ich denke eher auch nicht das der NV40 schon in 0.09 kommt, aber da IBM diese Technologie beherrscht, wieso dann eigentlich nicht?

@37

Also dem Spieler kommt es schon zu gute, er genießt dann eben die guten Spiele mit vielen Effekten, mit Cg dauert es nicht all zu lange gute Effekte zu erstellen.

Wenn CG Standart werden würde, dann könnten wirklich alle Developer drauf setzten, da würde der Spieler noch mehr davon Profitieren, überleg mal...

Ne, aber da ich mit einem Programmierer aus Russland zusammenarbeite, der übrigens bei Galaktika arbeitet, weis ich das eben.
 
@38
Wenn Nvidia selbst gesagt hat, man möchte die 200 Millionen Transistor-Mauer durchbrechen, warum sind es plötzlich schwupps 150 Millionen mehr? Die Steigerung wären als vom geplanten wären mehr als die NV35 an Tranistoren hat, finde unglaubwürdig.
Für 0.09µ ist es noch viel zu früh, wäre ebenso ein zu weiter Sprung.
Auch wenn das technisch möglich schon wäre, momentan und auch in 6 Monaten wären diese Technologien unbezahlbar.
 
Zurück
Oben