Was wird uns die GeForce4 bringen ...

Gut, spalten wir Haare.... :)

Erstens, du hast Recht mit dem GeGolf4.

Zweitens, ich habe auch Recht mit dem GeGolf4. :D

Problematisch ist bei dem Beispiel, das es bei Auto und Graka auf völlig unterschiedliche Dinge ankommt. Wenn wir mal ein paar Analogae ziehen, würde ich den Motor mit dem Chip vergleichen wollen, Fahrwerk/Getriebe mit Speicherbandbreite und Karosserie mit dem Kartenlayout.... :lol:

Dann hast du mit einer GF4MX zwar einen Golf4 mit veränderter Karosserie (Golf3), einem Fahrwerk des Golf4 (gleiche Speicheranbindung, bis auf MX420) und einem kleineren Motor.

Was hast du jetzt für ein Auto gekauft? Definierst du es ausschließlich nach dem Motor? Ist die Karosserie entscheidend (für Frauen sicherlich ;) ) ? Oder kommt es bei der Definiton eines neuen Modells ausschließlich auf den Motor an?

Ich finde es auch nicht unproblematisch, die neue MX als GeForce4 zu vermarkten.
Jedoch hast du bereits selber gesagt, daß die Leistungsangaben und Features zumindest auf der Packungsrückseite ersichtlich sind. Insofern denke ich, und nehme im Sinne des Bundesverwaltungsgerichts den mündigen, informierten Verbraucher an (ihr wisst schon, die Geschichte mit ReWe und den glücklichen Hühnern auf der Legebatterieneierverpackung...), daß ein potentieller Käufer durchaus in der Lage ist, sich vor dem Kauf zumindest etwas zu informieren, z.B. hier in unserem wundervollen Forum :)

Andererseits kann ich es nVidia auch nicht verdenken, wenn sie versuchen, soviele Chips bzw. Karten wie möglich zu verkaufen und damit ihr primäres Ziel als Unternehmen zu erreichen, nämlich Geld zu verdienen.
Wenn ich mich Recht erinnere, ohne jetzt jedoch den schwarzen Peter (ich hoffe, ihr fasst das nicht rassistischh auf!) weitergeben zu wollen, hatte die RadeonVE auch kein Hardware TnL....ebenso lautet meine Vermutung bezgl. des KyroIIu, was jedoch die Zukunft zeigen wird.

Lord Kwuteg:
Danke! Ein "sehr überzeugend" von Dir heisst wohl mehr als ein "supi" von vielen anderen ;)

Juristisch wird das schon so ok sein, das denke ich auch. Nur Betrug ist eben so eine Sache....Nur weil zwei Produkte ähnliche bzw. fast identische Namen haben, auf gleichen Funktionsumfang zu schließen, ist heutzutage schon fast ein wenig Naiv.

Seltsamerweise hat sich damals ja auch kaum einer betrogen gefühlt, als er eine GeForce2 kaufte und kein TwinView bekam. Genausogut könnte man auch sagen, die GF4Ti-Käufer werden betrogen und das ist meiner Ansicht nach viel eher der Fall, weil sie von einem teureren Produkt auch alle Features des preiswerteren erwarten, aber nicht bekommen (iDCT, adaptives De-Interlacing und zwei LVDS-Transmitter). IMHO ist es eher legitim, ein billigeres Produkt als eine Untermenge eines teureren zu begreifen.
 
"Untermenge des Teureren"... ja, das ist zitierfähig.
Wir stoßen hier aber auf ein viel tiefer liegendes Problem. Die ständigen Revisionen und neuen Nummern verbergen, daß die GeFrosch-Reihe seit dem GF256 eigentlich nur durch Hinzufügen einiger Features und Anhebung des Takts verbessert wurde - mehr nicht. Die Leistung mag linear ansteigen, aber so groß sind die Sprünge in Speed und Qualität eigentlich gar nicht - jedenfalls nicht so groß, wie man uns erzählen möchte. (Happy Greetings to madonion.com)
Ich spiele gerade jetzt RtCW mit einer TNT2, die nach der Logik des Marketing eigentlich eher in ein Museum gehört als in einen PC.
O.k., es läuft nur auf 800x600x16, aber es läuft und ich bin noch nicht verreckt. :)
Keine Sorge, dem Kyro2 ist nichts passiert, der hängt nur in einem anderen Rechner zum Testen. Und da läuft RtCW auf 1280x1024x32 brutal-mode. :evillol:

Was habt ihr eigentlich immer mit euren blöden Autos? :p
 
...Hinzufügen einiger Features und Anhebung des Takts...

So etwas änhliches habe ich im 3D-Center Forum auch mal zu hören gekriegt.

Was ist denn [setze einen beliebigen Grafikchip ein] anderes, als ein [setze wahlweise jeden älteren verwandten Grafikchip ein] mit einigen neuen Features und höherem Takt?

Wenn du so willst, lassen sich alle 3D-Chips auf den ersten seiner Art (nein, nicht der Voodoo Graphics) und alle 2D-Chips (gibt's kaum noch) auf den Urmeter der Grafikausgabe zurückführen.

Im Endeffekt bestehen alle nur aus simplen Transistoren, die entweder den Zustand 0 oder 1 annehmen können.

Insofern finde ich es etwas verfehlt, der GeForce-Serie Innovationslosigkeit als Alleinstellungsmerkmal vorzuhalten.

Und sogar für die in der Praxis kaum nachvollziehbaren Leistungssprünge, die Marketingmeister nVidia seiner jeweils neuesten Generation zutraut, läßt sich meistens der eine oder andere Beleg finden. Den sollte es auch besser geben, ansonsten würde man sich ja juristische angreifbar machen. Das in Spielen, also realen Anwendungen das nicht immer zu 100% durchschlägt, liegt imho auf der Hand, da die Spieleleistung auch noch von ein paar anderen Faktoren abhängt, die die ältere Generation kaum beeinflussen, die neuere jedoch sichtlich ausbremsen...

Was deine TNT2 angeht: Ich war schon erschrocken, was mit dir auf einmal los ist :)
Spielbar sollte RTCW schon damit sein, nur eben nicht in voller Grafikpracht, selbst wenn du auf die niedrigst verfügbare Auflösung schaltest.
Spielbar ist eben nicht immer ausreichend, so wie ausreichend nicht immer gut ist.
Sicher, ich kann auch Quake3 noch mit einer Voodoo Graphics spielen, jedoch geht mir da viel Freude an Grafik und unverruckeltem Gameplay flöten.

BTW, ich wage zu bezweifeln, daß RTCW mit wirklich allen Details sooo flüssgi läuft, wie du behauptest. Was ist denn "brutal-mode" für dich?

Für mich sähe der in etwa so aus: alle In-Game Optionen aktiviert, 4fachen Anisotropen Filter und 2xFSAA auf 10x7x32.
Mit einer GF4Ti wäre das denke ich auch noch in 16x12x32 drin. Und bei diesem Spiel würde das eine MX460 sicher auch noch bewältigen. Betrug oder nicht?.....
 
Ich denke aber, dass sich Autos erst einmal (ausser der Marke), durch das Modell definieren (Golf4) und Grafikkarten durch die Features (GF4). Egal welche Ausstattung und Leistung ein Golf4 hat, er bleibt ein Golf4. Anders aber bei der GF4. Selbst wenn man MX davor setzt, ist es keine GF4, sondern eine GF2. Die GF2MX Modelle waren auch nur abgespeckte Modelle der GF2 GTS,Pro,Ultra,TI, jedoch hatten sie die Features der Großen was bei einer GF4 MX jedoch nicht der Fall ist. Auch wenn sie einige Verbeserungen gegenüber der GF2 hat und sogar einiges an mehr gegenüber der GF4 TI so ist und wird sie niemals zu einer GF4. Hier hätte man zumindest die DX8 Fähigkeit implementieren müssen. Ich denke das dann auch niemand etwas hätte sagen können.
Problematisch bei den Verpackungen ist nuneinmal auch, dass man immer drauf schreibt was die Karte kann, niemals aber was sie nicht kann.
 
Genau, aber...

@Carsten
Wohl wahr, diese Features sind nicht zu unterschätzen, ebenso macht die kontinuierliche Anhebung des Takts bei der BruteForce-Methode schon einiges aus, das will doch niemand bestreiten.
Ich bestehe aber auch darauf, das zwischen GF256 und GF4 der größte und wichtigste Sprung die Taktsteigerung ist. Außerdem die Weiterentwicklung von T&L zu den programmierbaren Shadern. Ja, in Ordnung, und weiter?
In Sachen FSAA war der 3dfx-Ansatz (T-Buffer) der bislang schlaueste, nVidia kontert seit ehedem mit mehr und mehr BruteForce, um selbst mit FSAA prunken zu können. HSR versuchen sie schon seit langem effektiv umzusetzen, aber irgendwie stimmt mich diese "LMA"-Sache nur nachdenklich. Es klingt für mich nach Flickschusterei, was die da machen.
Du weißt, worauf ich hinaus will: Die echten Innovationen kommen nicht von nVidia, aber irgendwie versucht nVidia sie immer mehr oder weniger gut in die nächste GeFrosch-Generation reinzufrickeln.
- "Lightspeed Memory Architecture" als Argument gegen Kachelrendern (nach dem Motto: so geht's HSR ja auch - irgendwie).
- FSAA durch Multisampling, weil das Supersampling einfach zuviel Leistung frißt (VSA100 läßt schön grüßen).
- Bessere Video-Eigenschaften, die Ati schon lange anbietet.
Und dann noch zusätzliche Renderpipelines, um die Frontalleistung weiter zu erhöhen - wofür eigentlich, wenn LMA2 alles so effektiv macht?
Und unterm Strich gibt's wieder zweitausend 3DMarks mehr gegenüber dem bisherigen Spitzenmodell, das auch überteuert war. Und 500-600€ kostet der Spaß den Endkunden, um *aktuell zu bleiben*.
Nee, da mach ich nicht mit. :mad:
 
Sehr wahr, sehr wahr....
Es ist wirklich nur eine einfache Erneuerung des altbewährten...
Ich frage mich, wann nVidia die Rechenmethode einer KyroII Karte einbaut... Vielleicht in der GeForce5? Aber dann gibts auch wieder neue AtiKarten, eine KyroIII und nV muss wieder erneuern (abgucken...) Das ist ein Teufelskreis...
 
"Einbauen" geht nicht

Also ich möchte mich zu dem Kyro-gegen-alle-Krieg nicht mehr argumentativ äußern, das habe ich in einem anderen Thread schon gesagt. Ich habe einfach keine Lust mehr auf 3DMark-Vergleiche, Mainstream-Einwände und dergleichen mehr.
Deine Frage kann ich aber trotzdem beantworten, Silver. :)
Das möchte ich als absolut nüchterne, unvoreingenommene Analyse verstanden wissen - alles klar, Carsten? :lol:

Die Kyro-Technik "einbauen" kann und wird nVidia (oder Ati) mit Sicherheit niemals. Sie haben einfach einen anderen Ansatz, der manchmal (auch von mir) BruteForce genannt wird. Dieser Ansatz zeichnet sich vor allem dadurch aus, daß man versucht, durch möglichst hohe Frontalleistung (mehr Takt in Mhz) das gerenderte Ergebnis zu verbessern (=mehr Frames).
Üblich ist es hier, einen Teil der so gewonnenen Leistung in Effekte zu investieren, die die Bildqualität steigern (FSAA, Filtering, Shader, etc.). Je höher man den Takt einer BruteForce-Karte schraubt, desto brutaler (besser) der Effekt.
Klar, daß eine GF4 schon durch ihren Takt eine sehr brauchbare GraKa ist. :)

Die Technik des Kachelrenderns ist BruteForce völlig entgegengesetzt. Durch den "Kacheltrick" spart man sich viel unnötige Rechenarbeit, was die effektive Leistung unter guten Bedingungen drastisch erhöht - was allerdings auch mit einer Reihe von Zugeständnissen einhergeht. Die ideale GraKa wäre nach diesen Erkenntnissen ja eigentlich eine hoch getaktete Karte mit Kachelrendering. Aber wenn das so einfach ginge, gäbe es schon sehr lange einen "Kyro 2 Ultra" und die Entwicklung des Kyro 3 hätte auch nicht so lange gedauert. Hier wird klar, daß nVidia und Ati mit ihrer konventionelleren Technik einfach weiter fortgeschritten sind als Imagination Technologies. Im konventionellen BruteForce steckt schlicht mehr Entwicklungszeit und -reife als in der Kacheltechnik, daher auch der mittlerweile recht deutliche Vorsprung der aktuellen GF- und Radeon-Karten.

Weitere Vorzüge des Kachelns sind die verhältnismäßig geringe Leistungsaufnahme und die günstige Herstellung. Ein Kyro(2) kommt mit einem bescheidenen Lüfter aus, bei guter Konstruktion (großer Kühlkörper) sogar ohne. Außerdem braucht er nur SDR-Speicher, wo andere teureren DDR benötigen, um voll aufzudrehen. Dadurch war es möglich, mit der alternativen Technik wenigstens einen Achtungserfolg im Low-Cost-Sektor zun erzielen.

Das Prinzip, Bandbreite und Rechenleistung intelligent einzusparen, ist aber nicht nur PowerVR und Imagination bekannt. Erste zaghafte Versuche dazu gab es sogar noch bei 3dfx; Ati und nVidia arbeiten ebenfalls seit längerem intensiv an Optionen, die ihre Chips *intelligenter* machen sollen. nVidias "LMA" ist so ein Projekt. An die Effizienz des TBR ist noch niemand herangekommen, aber diesen Ansätzen gehört auf jeden Fall die Zukunft.
Ich will damit nicht behaupten, daß der Kyro einen Trend gesetzt hätte (:lol:), aber er ist immer noch ungeschlagener Weltmeister in Takteffizienz (Leistung pro Mhz) bei den GraKas. Das ist zwar realistisch gesehen nur die symbolische *goldene Ananas*, aber vergessen sollte man es auch nicht.

Lassen wir uns überraschen, was die Zukunft bringt. Und da freue ich mich auf die Fortschritte aller Hersteller.

Howgh! ;o)
 
Auch auf die Gefahr hin, wieder ein alter Miesmacher zu werden, möchte ich doch noch ein paar Ergänzungen vorbringen, wenn eure feiste Lordschaft dies gestatten:

Folgendes ist im Gegensatz zu Lord Kwuteg's Anspruch natürlich wirklich neutral und 100%ig unbeeinflußt.

1.) TBR, Kachelrechnung oder wie auch immer man es nun nennen will, ist im Prinzip keine Revolution, sondern nur ein anderer Ansatz, denn schon im zweiten (bzw. dritten Aufguß, wenn man die Neon250 dazurechnet) Anlauf bedient sich der KyroII der Mittel der Konkurrenz: Brute Force. Architekturelle Änderungen im Design sucht man noch vergebenser (wie ist der korrekte Komparativ von "vergebens"???), als zwischen GF1 und GF2. TBR stellt zwar eine effiziente und durchaus kopierenswerte Eigenschaft dar, nur wenn dieser Schritt einmal vollzogen ist, muß es mit Brute Force weitergehen, da man elimierten Overdraw nicht nochmals eliminieren kann.

2.) Die Hersteller versuchen nicht, auf Teufel komm raus ihre Grafikkarten mit möglichst hohen Taktraten auf den Markt zu bringen, sondern takten sie einfach so hoch, daß sie möglichst wenig Potential verschenken, anderenfalls würden sie nur den Verschnitt bei den Chips steigern und sich so höhere Produktionskosten aufhalsen. Die meisten Firmen sind so intelligent zu versuchen, den Kosten/Nutzen-Aufwand möglichst gering zu halten.

In diesem Sinne, freuen wir uns auf DirectX-9 und eine Menge neuer Effekte, die lange Zeit kein Mensch brauchen wird :lol:
 
DEUTSCHSTUNDE

Original erstellt von Carsten
...vergebenser (wie ist der korrekte Komparativ von "vergebens"???)

Es gibt keinen.
Wie zum Henker soll man "vergebens" steigern :confused_alt:
Das Wort selbst ist schon Komperativ, wenn nicht sogar Imerativ
genauso wie man "einzig" nicht zu "einzigst" steigern kann
 
GF4 für die Zukunft

Also ich finde es total überflüssig eine GF4 jetzt scho zu kaufen!

Ich meine, es gibt erst wenig spiele die überhaupt eine GF2 ausreizen! Die ersten spiele die wirklich Power brauchen sind Aquanox,Unreal2, Doom3 sonst gibt wirklich kein Spiel das Vertex Shader und Pixel Shader unterstützt oder?

Dafür braucht es wirklich noch keine GF4!!
voralem zu diesem Preis

Momentan würde ich den leutz eine Radeon 8500 empfehlen, sie ist günstig unterstützt alle gänigen befehle (DX8) und ist nicht von Nvidia;)
 
nvidia

Preis Leistungsmässig kommt man nicht an der Radeon 8500 vorbei.
Wer was anderes sagt hat keine Ahnung oder einen Goldesel zuhause!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
 
Preis-/Leistung ist bei DX7-Karten (Radeon7500/GF2TI/GF4MX, mit Abstrichen auch Kyro-175) am besten,
wer das nicht erkennt,
hat simples Rechnen verpennt.
 
Wollte man in einem Diagramm Preis-/Leistung bildlich darstellen, würde man auf der x-Achse wohl die Leistung und auf der y-Achse den Preis eintragen (nur positive Koordinaten jetzt ;)).
Die meisten Graphikkarten liegen in diesem Diagramm auf einer Kurve, die ziemlich weit links unten beginnt und sich nach rechts immer weiter nach oben flüchtet. Irgendwann sind wir an einem Punkt, an dem ein paar Prozent mehr Leistung den doppelten Preis bedeuten. Am linken Ende der Kurve hingegen (Budget) kann man unter Umständen für nur ein paar €umel mehr die doppelte Leistung bekommen - man muß nur wissen, wonach man sucht.
So sieht das aus, ganz sachlich gesehen. Carsten hat insofern recht, daß rein rechnerisch hier die billigen DX7-Karten das beste Verhältnis bieten.
Wir wollen aber nicht rechnen, sondern zocken - und da wird schnell klar, daß man andere Faktoren mit einberechnen muß. Die DirectX8-Hürde vor allem. Wer die Features in Hardware unterstützt, hat einen schwer zu beziffernden Vorteil. Da kann es sein, daß eine relativ günstige DX8-Karte dann doch sämtliche DX7-Restposten aus der Konkurrenz kegelt. Je nachdem, worauf man Wert legt.
Ich persönlich halte an meinem Kyro2 fest, weil mir DX8 nicht viel sagt - noch nicht. Irgendwann wird das auch kommen, wenn alle Spiele ausgiebigen Gebrauch von Shadern & Co. machen oder schlicht eine größere Frontalleistung brauchen als mein System sie bieten kann. Wahrscheinlich ist dann aber schon die nächste GraKa-Generation aktuell und ich überspringe somit die aktuellen DX8-Bretter völlig. Das könnte nun allerdings ein später Sieg für die DX7-Budget-Lösungen sein, sofern man es noch eine Weile mit ihnen aushält. Das gilt aber nur für Leute, die sowas schon haben, nicht für Neukäufer. Denen lege selbst ich ans Herz, eine jetzt verfügbare DX8-Karte zu kaufen.
Das sollte jetzt zwar nicht so ausführlich werden, aber das wollte ich zu dem Streit einfach mal loswerden. :)

P.S.: Wer mit der goldenen Kreditkarte einkaufen geht oder sonstwie kein Budget-Limit hat, ist ausdrücklich nicht zur Antwort aufgefordert. Wir haben schon genug Proll-Sprüche gehört, finde ich.
 
Mal eine ganz bescheidene Frage :)

Vorerst weg, will ich mal sagen das ich mich was GrKa´s betrifft nicht so auskenne.

So jetzt zu meiner Frage: Ich habe mir vor einer woche eine GeForce 4 MX 440 bei Arlt gekauft, für 179,90 €umel (Geld hat leider nicht für mehr gereicht). Das sind die Daten:

Asus V8170 GeForce 4 MX 440 mit TV-Out

Chipsatz nVidia GeForce4 MX

RAM DAC (MHz) 350

Auflösungen
640x480 16 Mio 240 Hz, 800x600 16 Mio 240 Hz, 1024x768 16 Mio 240 Hz, 1152x864 16 Mio 200 Hz,

Speicher
64 MB DDRAM 5 Nanosekunden

MPEG2
Wird unterstützt

Ausgänge
VGA, TV-out

Weitere Infos
270 MHz Chip-, 400 MHz Speicher-Takt; OpenGL 1.3, DirectX 7

Sonstiges
Optimiert für DirectX 8.x und OpenGl 1.3, passiv Kühlung

Lieferumfang
Treiber CD; Handbuch, TV-Out Kabel, ASUS DVD 2000


Ist das jetzt gut oder nicht? Für mich Persönlich ist das so wie wenn mann von einem Golf 3 GTI auf einen Porsche Carera umsteigen tut, da ich zuvor eine Matrox Millenium G450 hatte (habe).

Was ich damit meine ist:
Vom Preis/Leistungs Verhältniss ist meine MX 440 aller erste Sahne, wenn ich bedenke was meine G450 gekostet und geleistet hat.

Aber wenn ich euch so höre dann habe ich das Gefühl, das ich mir nur Sch...... gekauft habe? Oder?:(
 
Nö, das geht schon in Ordnung, limifresh. Du hast jetzt eine der erwähnten DX7-Karten, aber eine der schnellsten aus dieser Klasse. Gut, daß du keine MX420 genommen hast, darüber stand ja schon was Deutliches in den News (L-Karte).
Du wirst jetzt eine ganze Weile genug Frames haben, schicke DX8-Effekte kannst du aber nicht genießen (Laß mal 3DMark2001SE durchlaufen, dann weißt du, was fehlt). Hättest du mich um Rat gefragt, hätte ich dir eher eine GF3Ti200 oder Radeon8500LE empfohlen - ich weiß aber nicht genau, ob dein Budget dafür gereicht hätte.
Den Kauf wirst du so schnell nicht bereuen, denke ich. Es sei denn, du stehst unheimlich auf Pixelshader... :p
 
Naja, noch über 3 Stunden liegen vor dem Ende der Auktion....ich tippe mal auf 'nen Endpreis von 220-250 €uropadollar. Wir werden sehen. Für den doppelten Preis bringt sie sicher nicht die doppelte Leistung eine noch gar nicht so veralteten DX7-Karte (wenn nV doch nur das Loop-Back integriert hätte...).
 
Hallo Lord Kwuteg,

eigentlich bin ich ja ganz zufrieden mit meiner Neuen GraKa. Ein Kollege von mir hat die GeForce 3 ti 200, wir haben mal ein Realtimedemo mit Quake 3 gemacht. Das demo war die selbe Datei. Die GraKa einstellungen und Detos (der ganz neue) waren die selben.

Meine GeForce 4 MX 440 hatte bei der besagten Demo 143 fps und seine (nur) 134 fps. :D :D :D


Und bei 3DMark2001SE hatte er die Nase um 488 Punkte vorne da meine diese Pixel Shader nicht kann, was auch immer das sein soll.
Was da bei dem Bench noch ganz witzig ist, Ihr kennt ja die stelle wo das komische Karusell mit diesen komischen Viehchern kommt, im ersten Durchlauf lief seine noch flüssig, und im zweiten durchlauf wo ja nochmals intensiver getestet wird fing seine an Braekdance zu machen und meine lief da immer noch flüssig :D :D :D

Kann es sein das das vieleicht an unserem System liegt, das meine GraKa schneller ist als seine? Mal ganz abgesehen von den Pixel Shader, da meine dies nicht kann?

Er hatt ein Intel System mit nem P4 1500 MHz 256 ´MB RAMBUS und irged so ein Asus Bord mit Intel Chipsatz, seine Platte ist 60 GB gross und macht nur 5400 RPM mit ATA 100.

Und mein System, mit dem wir verglichen haben ist das erste von unten.

Gruss limifresh :)
 
Zuletzt bearbeitet:
Also der Punktwert im 3DMark2001 wird nur aus den Game-Demos errechnet, das sind die ersten drei oder so. Die Tech-Demos, die danach kommen (auch das Karussel ;)) fließen nicht in die Punktzahl mit ein. Bei mir läuft das Karussel übrigens niemals flüssig, egal was ich mache (1fps = Kyro-Power :D).
Daß dein Brett flotter ist, liegt wohl teilweise am höheren Takt, teilweise auch daran, daß die Ti200 nur die "kleine" Version der GF3 ist. Und daß deine CPU kräftiger ist, dürfte auch was ausmachen. ;)
Drehgeschwindigkeit der Festplatte ist eigentlich Nebensache, da stört eher ein hoher Fragmentierungsgrad. Zu guter letzt laß dir nur gesagt sein, daß man ein System niemals nach 3DMarks bewerten sollte, das kann unter Umständen ziemlich weit an der Realität vorbeigehen. Ich habe dir das bloß empfohlen, damit du mal siehst, wo die 3DMark Tests überspringt (not supported). Das sind die Sachen, die dein Freund mit der GF3 kann, du aber nicht.
Viel Spaß noch mit der neuen GraKa. :)
 
Ja das stimmt schon,
mit "not Supportet" da gab es schon ein paar schen. Liegt das an den Pixelshader, wenn ja was machen die genau? Oder brauch ich diese sachen und gibt es überhaupt Spiele die das brauchen?

Ich möchte nur gerne was klarstellen: Ich bin nicht so auf dem Tripp das ich die schnellste GraKa von allen brauche um damit anzugeben zu können. Und ich zitiere hier noch eine Aussage, die einer auf CB gemacht hat:

"Übrigens sind ja wohl alle G4MX Looserkarten,
Selig die Beklopften, denn sie brauchen keinen Hammer mehr. "

Das ist eine der dofsten aussagen die überhaupt gehört habe, da könnte man sich glatt beleidigt und angesprochen fühlen. Ist halt eben so, dass die einen Goldeier schei...n können, und die anderen halt eben nicht. Wenn man bedenkt das man über das Doppelte zahlen muss, das man ein paar Funktionen und ein paar % mehr oder 3DMarks an Leistung haben tut!!? Das sehe ich nicht ein, kann ja schliesslich keine Goldeier Schei...n...

Oder lieg ich da falsch? Korigiert mich bitte wenn ich unrecht habe.

Gruss limifresh
 
Zuletzt bearbeitet:
Zurück
Oben