GeForce4 Go - Wie schnell ???

Das ist ein Verhältnis!

Man bekommt zwar Leistung zu geringen Preisen, muss man da jedoch auf heglichen komfort verzichten! Oder man bekommt komfort, jedoch magelt es dann ganz und gar an Leistung. Und die Produkte die beides Enthalten, sind richtig teuer!

Siehe Dell Laptops!

ICh selber habe einen Dell Inspiron 8000!
P3 1Ghz, 256MB-Ram, GF2 Go, und 30GB HDD!

Und das Ding ist Leise... okay, manchmal wenns einfach zu warm ist, (raum etc.) fängt er doch an zu pusten aber sonst hört man ihn nicht.

Wie gesagt... Konfort / Leistung
 
Original erstellt von HighVoltage
@ Nr.1 Ich kenne die genauen "NVXX" bezeichnungen nicht, jedoch liegt das daran, dass die GF4 Go und MX technisch dem GF2 Ti Prozessor nicht weit überlegen sind, da sie wie du sagst keine VOLLE DX8 Funktionalität haben. Sachen wie Vertex Shading (ich meine AUch DX8 Feature) werden ferner unterstützt.

@ Nr. 2 Sagte ich doch! Das "Pixel-Shading" (nicht p-pix.-Shading)
wird nicht unterstützt. Und somit wird auch das Environmental
Bump Mapping nicht unterstützt.

@ Nr. 3 Okay, wusste ich so nicht! Mein Fehler!

@ Nr. 4 Wo liegt da bei mir der Fehler?



Is ja genau so wie mit der GF4 MX420 -> 64-Bit Speicherinterface und 64MB SD-RAM!

PS: ich habe in einem Satz das "nicht" vergessen, dass dürfte etwas Konfusion stiften!

Ich hätte vielleicht noch dazu schreiben sollen, dass Ich die TI Karten meinte. Und nicht die MX Karten! Denn die haben laut diesem Link keine FX2 Engine!


MfG HiVo

Deswegen fragte ich, ob das alles nicht ein wenig unklar formuliert ist. Wie soll jemand, der deinen Post liest, wissen, was du meinst, wenn du das nicht schreibst?`

1) Vertex Shader sind offiziell nicht Bestandteil der GF4MX/go, obwohl inoffiziell einige Befehle unterstützt und genutzt werden. Der Rest wird, wie bei allen anderen Karten, die keinen HW-Vertex-Shader haben, von der CPU emuliert.

2) EMBM könnten auch anders als über die Pixelshader realisiert werden, siehe G400 und Kyro.

4) Kein Fehler, nur eine Klarstellung, daß Füllrate alleine nicht glücklich macht. Effektiv genutzt Füllrate dagegen schon. Daß der GF4MX/go 420 nur eine 64Bit breite Anbindung hat, stimmt teilweise. Entweder sind 64Bit DDR möglich (wegen der geringeren Versorgunsspannung von 2,5v eher die Option für Notebooks) oder eben 128Bit SDR, was die Mehrzahl der GF4MX420 verwenden dürfte.
 
Das mit dem EMBM wusste ich nicht!
Nur wie machen die das dann auf der Kyro sowie der G400?
Denn als Beispiel, die GF2 GTS konnte das auch noch nicht, und sie war den anderen beiden technisch gesehen eigentlich überlegen?!?!

Und gerade weil sie von der CPU teils emuliert werden, ist die Performanceeinbuße sehr groß! Sprich, den Leistungsverlust kann man schon fast gar nicht mehr tolerieren.

Mhhhh ja, es war unklar formuliert! ;-)


mfG HiVo
 
Der Kyro macht "es" afaik einfach durch seine reichlichen Loopback-Möglichkeiten, da er für die Bump-Map keine zusätzliche TMU braucht, sondern nur einen weiteren Durchlauf durch die Pipeline, und der vorher berechnete Farbwert noch komplett im Tile-Buffer (oder wie das Ding heisst) vorliegt, kann er völlig unabhängig die weiteren Texturstufen anwenden. Das ist imho die beste Eigenschaft des Kyro, noch vor HSR :)

Wie die G400 "es" macht, weiß ich auch nicht, aber ich vermute, daß sie einen Teil einer dritten TMU hat, die ausschließlich auf die Funktionen für EMBM spezialisiert ist. (Indiz dafür sind, daß 3DMark und div. Techdemos von PowerVR bei der G400 3 TMUs anzeigen, obwohl sie definitiv nur zwei vollwertige TMUs hat).

Technologisch war die GF2 nicht notwendigerweise überlegen, einfach nur anders ausgerichtet. Aber irgendwie fehlte den (verhältnismäßig komplexen) TMUs eben diese Fähigkeit, diesen dritten Texturwert (Bump-Map) ohne Framebuffer-Einsatz noch aufzutragen.

Die alte Radeon hatte 3 TMUs und somit stellte EMBM für sie ebenfalls kein Problem dar.


(FYI, emulierte Vertex-Shader auf High-End CPUs (P4 2,5GHz+) sind mittlerweile schneller, als HW-VS in der GF3 ti200 und haben zusätzlich den positiven Nebeneffekt, daß mehr von den Caches und interner Bandbreite für Pixelbearbeitung auf der Graka übrigbleibt....)
 
Original erstellt von raiden
@ palooza
----------------------------
Es soll Leute geben die mit einen PC/Notebook was anderes machen wollen/koennen ausser spielen.
Und das muessen keine langen Geschaeftsreisen sein.

------------------------------
für was braucht man denn noch ne lange betteriedauer?

-----------------------------------
Und fuer das Geld was man fuer so ein so Desktopersatz Notebook ausgeben muss bekommt man ja so ein einfaches Notebook + nen PC der Leistungsmaessig dieses Desktopersatz Notebook absolut in den Schatten stellt.
------------------------------------

es geht nicht um den preis. manche geben für komfort halt gern was aus, nicht nur für pure leistung. abgesehen von dem dauernden huddel mit der datensynchronisation... :rolleyes:
ps, hast du dir schon mal überlegt, daß es leute gibt, die mit ihrem nb nicht nur spielen, aber dennoch leistung satt brauchen?

---------------------------------------
Und der Held auf ner LAN bist dann wirklich nur solange die nicht sehen wie schnell die neueren Spiele laufen.
----------------------------------------

ich hab bis jetzt kein spiel gehabt, daß auf meinem nb nicht in 1024 bei allen details flüssig lief. weder gta3, noch max payne, noch aquanox, noch mohaa, noch jedi outcast, noch...
und flüssig bedeutet ohne frameeinbrüche.

-------------------------------
Und waerend du dann ein komplett neues Notebook kaufen darfst reicht bei deren PC dann einfach das aufruesten einer Teilkomponente wie z.b der Graka.
Fuer diese gigantische Preisersparnis kann man es sich schonmal leisten sowas unglaublich aufwendiges wie den Transport eines PCs auf sich zu nehmen.
-------------------------------

wie gesagt, es geht nicht allen nutzern um den preis. zudem bin ich viel unterwegs. da jedesmal den rechener mit zu nehmen wäre ziemlich aufwändig. zumal im zug.

-------------------------------
Des weiteren geht ja ein Grossteil der verbrauchten Energie in Waerme ueber ... 20-30W Graka (wenn se denn ne GF4 Ti einbauen) ... 60+ Watt CPU, dann noch Northbridge,Graka und Systemram.
Man die Kuehlung die so ein Notebook dann braucht ... Ich moechte mich nicht auf ne LAN oder bei Freunden sitzen mit nem Notebook was selbst den Geraeuchpegel von deren PCs in den Schatten stellt.
----------------------------------

du scheinst ja richtig viel erfahrung zu haben. zum einen, wenn bei meinem nb der lüfter beim spielen etwa alle 20 min. mal für ne minute angeht, hör ich ihn eh nicht, weil er soo leise ist und ich spiele auch gern mit sound, jaja.
zweitens, bei allen anderen anwenungen geht er nicht an.

---------------------------------
Aber palooza will net Desktop Ersatz mit Desktop Leistung wo es egal ist wie kurzweilig die Dauer mit Batterieeinsatz ist.
---------------------------------

hab ich das gesagt? ich hab nur darauf hingewiesen, daß es für nb-käufer noch andere gründe geben kann, auf nb zu setzen, als damit unterwegs zu arbeiten... und deshalb die energie-diskussion auch höchstens zweitrangig ist. sie wird nur gern von leuten wie dir dazu benützt, alle anderen entwicklungen, die vom dogma des herkömmlichen "mobile-computing" abweichen erstmal scheisse zu finden.
bevor mißverständnisse auftreten: ich rede natürlich nicht von desktop-komponenten, wenn ich von einem desktop-ersatz spreche.

-----------------------------------
In diesem Sinne "blabla, lörk, lall, sabbel" mal schoen weiter.
-----------------------------------

hmh. aber ich hab halt eins, das meinen ansprüchen gerecht wird und mach so meine erfahrungen mit den sachen über die ich rede. :D

aber bevor das hier entgleist, will ich mal einlenken. du hast ja mit deinen argumenten ja AUCH recht. :) ich bin mir bewußt, daß es menschen gibt, die nur ein notebook für exel oder outlook wollen, oder um mal unterwegs eine dvd zu gucken. und für die gibbet ja auch genug. jetzt gibts noch was anderes, was ist daran denn so scheisse? und wenn ich irgendwelche 3d-sachen nem kunden vorführen will, macht sich das ding echt gut. und da kann ich nicht immer filme rendern, geschweige denn meinen desktop hinschleifen und aufbauen ;)

es gibt halt andere leute, die andere dinge wollen. und dann son lapidarer einwurf, der davon zeugt, daß der verfasser die dinge nur aus einem winkel betrachtet, macht mich ein bisschen narret, weil ich ihn schon zu oft gehört hab. weil die leute nicht daran denken, es könnte ja noch wat anderes geben, als das was sie wollen. und ganz ehrlich: ich hab die 2:45h akkulaufzeit, die mein nb bietet noch nicht ausgereizt.;)

so, friede jetzt?

in diesem sinne
palo
 
Zuletzt bearbeitet:
@ palooza

Gut wenn ich an Notebooks denke dann eigentlich auch mit Zwangsweise an mobile computing.
Und das is mir halt z.b nen Graphikchipsatz mit der Leistung von GF4TI n bisle fremd ... also ich hab damit nicht auf die GF4Go abgezielt.
Ich hab jetzt mit meinem Notebook vor dann mal in den Vorlesungen ... mitzuschreiben (hab so ne schauklaue das es mal einen Versich wert ist) ... und ob man da immer ne Steckdose bekommt ist so ne Sache.
Und hab mich mit dieser Meinung nicht so falsch gefuehlt da es ja schliesslich auch kein Notebook mit solchen power Komponenten gibt.

Und wie ich schon gesagt habe ... die Sache mit der Kuehlung beziehe ich darauf wenn die halt wirklich damit anfangen aktuelle Hochleistungskomponenten zu verbauen (mit welchen ich was die Kuehlung betrifft halt weniger gute Erfahrungen gemacht habe) und weniger auf die "normalen" Komponenten die zum Einsatz kommen.

Naja wenigstens hab ich jetzt auch einen andern Standpunkt kennengelernt :)
 
@ Carsten

Aber wenn das in der CPU gerechnet wird, dann ist zwar die Grafikkarte entlastet, aber ist dafür nicht eigentlich der AGP von der bandbreite etwas zu lansgam / uneffektiv. Denn wenn man sich das Spiecherinterface der Karten ansieht und dort die zahlen betrachtet (8,4GB @ GF4 Ti4400). Da kommt der AGP Bus doch niemals ran, oder irre ich da?

Zudem, die GeForce 2 von "Hercules" oder "Guillimont" konnte das EMBM doch auch schon. Da hatte ich mich auch gewundert, da nVidia doch eigentlich die GPU's einer Serie einheitlich halten wollte. Oder werden diese "TMU's" extern verbaut?

Okay, dann soviel dazu!

MfG HighVoltage
 
Original erstellt von raiden

Und das is mir halt z.b nen Graphikchipsatz mit der Leistung von GF4TI n bisle fremd ... also ich hab damit nicht auf die GF4Go abgezielt.
-------------------

axo. aber ich hoffe doch inständig, daß sowohl die chip, als auch die akkuenwicklung weitergeht, sodaß man auch tragbar (wenn schon nich mobil :D ) in den genuß höchster leistung von morgen kommt. aber zugegeben, ein 4ti-chip wär heute noch nicht besonders realistisch, außer man will sich damit noch n ei braten, da hast du recht.
--------------------

Ich hab jetzt mit meinem Notebook vor dann mal in den Vorlesungen ... mitzuschreiben (hab so ne schauklaue das es mal einen Versich wert ist) ... und ob man da immer ne Steckdose bekommt ist so ne Sache.
Und hab mich mit dieser Meinung nicht so falsch gefuehlt da es ja schliesslich auch kein Notebook mit solchen power Komponenten gibt.
---------------------

klar. und man soll ja auch in der vorlesung nich daddeln :D
----------------------

Und wie ich schon gesagt habe ... die Sache mit der Kuehlung beziehe ich darauf wenn die halt wirklich damit anfangen aktuelle Hochleistungskomponenten zu verbauen (mit welchen ich was die Kuehlung betrifft halt weniger gute Erfahrungen gemacht habe) und weniger auf die "normalen" Komponenten die zum Einsatz kommen.
---------------------

auch klar. ich mein, nen p4 2,0 GHz da rein zu bauen wie das manche machen, ohne powermanagment iss ja auch n bisschen dämlich. da gehts dann wirklich um sinn und unsinn, wenns die mehrleistung nur noch aufm papier gibt, aber nicht in der anwendung.
----------------------

Naja wenigstens hab ich jetzt auch einen andern Standpunkt kennengelernt :)
:D

wollt ja auch nich so hoch gehen.......:)

schönen gruß
palo
 
Original erstellt von HighVoltage
@ Carsten

Aber wenn das in der CPU gerechnet wird, dann ist zwar die Grafikkarte entlastet, aber ist dafür nicht eigentlich der AGP von der bandbreite etwas zu lansgam / uneffektiv. Denn wenn man sich das Spiecherinterface der Karten ansieht und dort die zahlen betrachtet (8,4GB @ GF4 Ti4400). Da kommt der AGP Bus doch niemals ran, oder irre ich da?

Nein, tust du nicht, es kommt ganz auf die Situation an. Wenn z.B. die Pixeloperationen (Texturen laden, Pixel damit bekleben, Zwischenwerte speichern, evtl. neu einlesen, das Ganze wieder von vorn) die Grafikkarte schon auslasten, dann werden trotz der deutlich höheren lokalen Bandbreite lokal ausgeführte Vertexoperationen nicht schneller sein, da sie sich ja die Bandbreite und evtl. (da bin ich nicht so sicher) auch Teile der Caches mit den Pixelops teilen muss. Und da kann auch mal deutlich weniger "Rest" bleiben, als wenn die CPU das macht, je nachdem ;)

Zudem, die GeForce 2 von "Hercules" oder "Guillimont" konnte das EMBM doch auch schon. Da hatte ich mich auch gewundert, da nVidia doch eigentlich die GPU's einer Serie einheitlich halten wollte. Oder werden diese "TMU's" extern verbaut?

Okay, dann soviel dazu!

MfG HighVoltage

Nein, beides trifft nicht zu. Auch die GF2 von Guillemot/Hercules konnte und kann definitiv kein EMBM, nur embossed (fake) Bump Mapping und DOT3. Externe TMUs gab es afaik zuletzt bei den Voodoo2 Karten (1 Pixel-Chip, 2 TMUs. Das Pixelding wurde etwas heisser, die TMU blieben unter 60° ;)).
 
Joh! Habe mich in Begriff vergreiffen!

Environmental und Embossed

Okay, dann hätten wirs!

Dann sage ich mal danke für die Belehrung! ;-)

(Das ist jetzt keine ironie) ;-)

MfG HiVo
 
Zurück
Oben