Hardware T&L, Sinn und Unsinn

G

GRAKA0815

Gast
Hardware T&l

Unter folgender URL http://www.3dcenter.de/artikel/t_und_l/ findet Ihr einen 7 Seiten langen Beitrag über den Sinn bzw. Unsinn von Hardware T&L. Ich denke das dieser Bericht eine Diskussion über nVidia und den Sinn von T&L wert ist. Lest es einfach einmal und sagt mir was Ihr darüber denkt. Informativ ist dieser Bericht allemal, auch wenn er in einigen Punkten nicht stimmt.

Gruß
 
Tja was soll ich dazu sagen, das ist das was ich schon immer behaupte! Wer braucht den ganzen schnick schnak! Programieren sollen sich nicht auf der Hardware ausruhen, sondern sie ausnutzen und die Hardware Hersteller sollen nicht alle Woche einen neuen Chip rausbringen! Das kann der Programierer nicht schaffen wieder in seine Engine zu packen!

UNd die sache mit den Dreiecken pro sec! Ist doch wie zb bei Boxen! vorallem die endkunden "billig" boxen preisen sich mit 300-600 Watt ! und viele glauben dann , ihre box leistet 300 Watt! Also wenn meine Anlage/boxen 300 Watt Sinnus schaffen würden, dann würden meine Ohren fetzen! Ich habe meine 2x90Watt sinus noch nie erreicht!

Najaj zurück zu nvidia.... ich denke für langsame rechner ist T&L schon ne Alternative... für die neuen ist es unwichtig und anscheinend nicht Flexibel genug (siehe Aquanox) Aber ich denke man sollte sich jetzt auch nicht so kritisch an die ganze sachen werfen und Nvidia als Schmutz beschimpfen denn Ihr habt ja die Freie wahl was ihr kaufen könnt.... und wer sich von Werbesprüchen und Nvidia eigenen Benchmarks stützt der ist selbst drann schuld... Immer gut infomieren und sich klar machen was ich brauche.... Wer brauch im moment ne Geforce3??? Im prinzip niemand das sie noch nicht genutzt werden kann wegen mangelnden Spielen! Und 3DMark abreitet mit nvidia zusammen... also kein wunder das diese Karten so gut abgehen in den Tests! also immer eine Eigene Meinung bilden!
 
Ich sehe das ganze nicht so Kritisch. Warum eine CPU Sachen berechnen lassen wofür sie nicht Konzipiert wurde. Natürlich ist bei einigen Spielen der Sinn und Zweck von T&L eher fraglich, aber dennoch sehe ich sinn darin.

1. Man kann die dadurch nicht genutzte CPU Leistung für andere Dinge gebrauchen oder die freie Leistung gut mit der Grafikkarte Kombinieren. Das heißt dadurch entweder schönere Grafik oder Bessere Gegner.

2. Dadurch kann auch die Spiele Physik viel besser werden, da CPU Leistung Frei ist um Objekte Realistischer z.b. fallen zu lassen usw. Spiele werden dadurch Realistischer.

Aber was mir z.b. an Nvidia nicht gefällt ist derer Brute Force Methode, alles Berechnen was anfällt. Anstatt wie 3DFX (was leider nicht mehr weiterentwickelt wird oder nicht mehr großartig) oder ST mit seinem Kyro, welcher mit weniger Chiptakt und Speichertakt sogar an eine GeForce 2 herankommt oder sogar schlägt.

Was bringt es zig tausende Polygone zu berechnen wenn davon dann nur 50% zu sehen sind. Darüber sollten sich viele Spiele Entwickler mal Gedanken machen, denn warum soll die Grafikkarte erst entscheiden wenn es eigentlich das Game an sich schon könnte. Aber für Brachiale wie John Carmack, der meiner Meinung seit Quake 3 ein Spinner geworden ist, der nur Polygone Polygone schreien kann ist eine GeForce 10 genau das Richtige. Denn die Q3 Engine ist meiner meinung nach der letzte scheiss, toll sieht ja alles Super aus, aber was bringst wenn es keiner Spielen kann (auf jeden fall als es herausgekommen ist). Und selbst heute auf nem 1.4 GHz CPU´chen und GeForce 2 Ultra kommt das Spiel an bestimmten stellen etwas zum stocken. Da habe ich schon Physikalisch aufwendigere Games gesehen und die Liefen 10 mal besser. Aber jemand der 64 Bit Farbtiefe haben will, wenn gerade mal erst vor Kurzer Zeit 32 Bit Spielbar wurde kann nicht mehr alle Tassen im Schrank haben.
 
Also ich persönlich bin schon der Meinung, warum sollte man fps gegen Grafikqualität eintauschen sollte? Es gibt sehr viele Spiele die auf einer Kyro2 weit aus besser aussehen als auf einer Geforce. Doch nun zum Marketing! Es stimmt schon, dass selbst erfahrene Hardwaretester wie C´t nicht mehr wirklich testen und die Berichte von nvidia einfach abschreiben. Toll T&L muss man einfach haben! Muss man? Erinnert Ihr euch noch daran als die SDRAMS raus kammen? PC66. SDRAMS gehört die Zukunft. Alles sprang auf SDRAMS und kaum hatte man welche gab es die Spezifikation PC100. Soviel zur Zukunft eines Produktes. Sicher! Alles gehört der Zukunft, aber keiner weiss in welcher Spezifikation. Wenn ich heute auch in diesem Forum lese das man einem User die GF2 oder GF3 als Zukunftssicher empfiehlt wird mir ganz heiss. Auch die total unrealistischen Benchmarks a la 3DMark! Was besagt der den? Wie schnell meine Graka ist? NEIN! Genau das besagt er nicht. Er besagt lediglich wie schnell mein SYSTEM DIESEN Benchmark absolviert. Aber nicht wie gut meine Grafikkarte in diesem oder jenem Spiel ist. Eine KYRO2 hat einen scheiss Bench bei 3DMARK2001, vorallem bei Max Payne. In der Realität kann ich aber mit einer KYRO2 sehr gut Max Payne spielen. Und schön aussehen tut es auch. Der Verfasser dieses Berichtes hat u.a. auch in seiner Meinung recht warum die Benchmarks meist auf der Quake Engine getestet werden und nicht auf der UT obwohl es mehr 3D Spiele auf UT Basis gibt.
Ich finde diesen Bericht sehr sehr informativ, auch wenn er nicht überall 100% stimmt.
 
also erstens finde ich, dass dieser beitrag von einem verblendetem 3dfx-jünger geschrieben wurde und

zweitens: von wegen, dass T&L nichts bringt, das hardware T&L meiner GeForce schlägt das software T&L meines Celerons, den ich mal für ne weile auf nem GIG hatte, um mehr als 50%, sowohl in 3dmark2001 als auch bei CS.
 
Ich gebe Dir recht Mogadischu, es hat stellen weisse wirklich den Anschein als wolle er 3dfx wieder zum Leben erwecken. Er hätte eher bezug auf die Kyro2 oder ATI nehmen sollen. Ich denke auch das der Vergleich mit 3dfx nicht mehr zeitgemäß ist. Aber deine anderen einwände kann ich nicht nachvollziehen. 1.) Ist wie schon erwähnt der 3Dmark mist um über die Leistungsfähigkeit einer Karte eine Aussage zu treffen. 2.) Ist Hardware T&L nicht gleich Software T&L! 3.) Geht es maßgeblich um die Qualität in der Grafik und Geschwindigkeit. Also fps anstatt Qualität.
 
Gut, daß du nach unserer Meinung gefragt hast....

Ich finde den Artikel nicht sehr informativ sondern er klingt eher nach jemandem, der, wie auch schon mehrfach anklang, es einfach nicht verknusen konnte, daß TnL ein heute nicht mehr wegzudenkender Standard geworden ist und daß gewisse Firmen diesen Sprung einfach nicht mitmachen konnten/wollten/ oder sich einfach nur verschätzt haben.

Natürlich hat er in einigen Punkten recht, z.B. daß TnL nicht so effektiv ist und eingesetzt wird, wie die Marketing-Abteilung von nVidia behauptet. Aber genau dort liegt der Knackpunkt: Marketing-Abteilungen sind für solche Dinge da, und auch die von STB und Videologic schreiben in ihren Statements und Veröffentlichungen Dinge, die man nicht unbedingt für bare Münze nehmen sollte.

Naja, der Rest folgt später...ich bin müde
Quasar
 
Ich weiss nicht Quasar ob Du den Artikel komplett gelesen hast. War den der Sprung auf Hardware T&L seit 3Dnow nötig? Ich glaube 3Dnow gab es vor nvidias "revolutionärem" T&L! Ein Spiel das in Software T&L die 3Dnow / sse / sse2 Befehlssätze nutzt ist doch zig mal schneller als jeder nvidia Chip einschl. der GF3. Und nebenbei sieht es auch noch besser aus!
 
oh ja. den artikel hab ich komplett gelesen, aber ich nehme nicht alles, was irgendjemand im netz schreibt als die einzig gültige Wahrheit hin (es sei denn es kommt von nVidia oder John Carmack ;) )

Du hast natürlich recht, daß es 3dnow! schon früher gab. ob der sprung von HW TnL nötig war? ich weiß es nicht. aber offensichtlich haben sich die cpu-spezifischen befehlssätze in der Spieleindustrie nicht so recht durchsetzen können. Mir fällt auf anhieb jedenfalls kein Spiel ein, was durch SIMD schneller läuft, geschweige denn, besser aussieht.

Das paradebeispiel hierfür war ja früher mal Q2 in Verbindung mit ner Voodoo2 (SLI), nur leider sah es nicht besser aus und schneller ist es heute auch nicht mehr, da die 3Dnow! optimierung so stark auf den K6 mit seiner kurzen Pipeline zugeschnitten war, dasß der Athlon mit seiner 3fachen FPU-Einheit genausoschnell geworden ist, als wenn er den 3Dnow!-patch nutzte.

Ich hätte gerne ein paar Beispiele für deine Behauptungen. Das ist im übrigen auch der Grund, warum ich dem Artikel auf 3dcenter.de nicht so recht traue...


Quasar

P.S.: Damit ich nicht ins gleiche schema verfalle, hier ein kleiner "Beweis":
Q2-crusher in 1024, 16bit, mit sound: 171,3fps
das gleiche mit 3Dnow!: 171,6fps
 
Zuletzt bearbeitet:
Q3A benutzt meines wissens nach die sse-befehle des PIII.

wenn ich mit meinens dl's fertig bin, werd ich mal benchen, einmal mit und einmal ohne.
 
Das stimmt, ID-Software hat bei Quake3 nur die Unterstützung von SSE-Befehlsätzen intregiert und zur Verwunderung vieler nicht 3D-Now! auch noch dazu. In keinem der zahlreich erschienenen Patches wurde dies nachträglich intregiert, heutzutage ist es meiner Meinung nach auch egal geworden.
Vorbildlich war da ja schon die UT-Engine gewesen (obwohl ich das Spiel nicht favorisiere), es unterstützt SSE und 3D-Now! und diese lassen sich sogar per Parameter auch abschalten. Eigentlich könnte man so den Unterschied benchen welchen Leistungsunterschied es gäbe mit oder ohne erweiterte Befehlsatzunterstützung, da ja UT sowieso viel mehr CPU-lastiger ist als Q3.
Vielleicht ein Vorschlag an ComputerBase als Review um die "Wahrheit" von SSE und 3D-Now heraus zufinden? :D
 
Also ich will mich jetzt hier nicht mit älteren Spiele Titeln herumschlagen. Nehmen wir bsp. Aquanox! z.Z. ist dieses Spiel auf einer GeForce3 mit T&L unschlagbar. Aber nach berichten des Aquanox Herstellers wird es ein eigenes KYRO2 Patch geben das bei einem Proz. ab 1 Ghz unter einer Kyro2 ohne HW T&L schneller und schöner laufen wird als eine GeForce3. Nein ich habe mich nicht verschrieben. SCHNELLER ALS EINE GEFORCE3.

Für Systeme unterhalb 1 Ghz lohnt sich auf alle fälle eine Karte mit HW T&L. Denn nur so kann man wenigsten Halbwegs neuere Spiele vernünftig Spielen. Doch letztlich ist es billiger von einem sagen wir 600 Duron auf ein 1 GhZ Athlon umzusteigen und sich eine Kyro2 hineinzusetzten als sich eine GF3 zu kaufen oder? Selbst mit Intel CPU´s geht die Rechnung noch auf! Warum also dann nicht gleich eine neue CPU von der mein gesamtes System profitiert als nur eine neue Graka?!?!
 
Woher hast du das denn?
schneller *könnte* ich mir ja eventuell noch vorstellen, so in 640x480, 16bit und alle details auf min....

Ich glaube, du hast zuviel theregister gelesen, oder ?

Wie ist es denn zum Beispiel mit einem aktuellen Spiel, *das auch wirklich erhältlich ist*?

Was aquanox kann oder nicht kann, welche patches veröffentlicht werden oder nur großmäulig versprochen (von den entwicklern..) steht für mich irgendwie auf der gleichen Schiene, wie das von dem Artikelschreiber "nicht eingelöste Versprechen von TnL"
....

Lasst den großen Worten Benchmarks folgen!

Quasar
 
Original erstellt von GRAKA0815
..Aber nach berichten des Aquanox Herstellers wird es ein eigenes KYRO2 Patch geben das bei einem Proz. ab 1 Ghz unter einer Kyro2 ohne HW T&L schneller und schöner laufen wird als eine GeForce3...
Ok, schneller laufen wäre möglich, aber schöner? Das bezweifel ich sehr, schliesslich kann die Kyro2 kein Pixel-Shader, das in Aquanox (im Benchmark und sicherlich auch im Spiel) massiv eingesetzt wird, vorraussgetzt die Grafikkarte hat´ne Vertex-Unit wie bei der GF3 und Radeon2.
 
Also es ist wohl aus unzähligen Benchmarks herauszulesen, dass eine Kyro2 in 32Bit selbst einer GF2 Ultra den Rang ablaufen kann! Nicht überall aber dennoch. Schau Dir mal in Benchs den Leistungseinbruch einer GF2 in 32 Bit an, da wird einem ja schlecht. In 32Bit ist eine nvidia ja wohl der letzte Müll.

Für eine Kyro2 64MB Tv-out von Inno3D bezahle ich DM 233,- und habe u.a. noch eine bessere Signal- und Bildqualität als auf einer GF3 für DM 900,- oder mehr. Auch dies ist eindeutig bewiesen, das die nvidia chips eine schlechtere Bildqualität liefern.

Aber das mit den Spielen werde ich noch nachliefern!
 
Dein Standpunkt stimmt auch wieder nicht, die Signalqualität der GeForce3-Karten wurde gegenüber der ältere Geforce-Reihe deutlich verbessert und lässt sich nichts zum mangeln übrig.
Da nun mal die GeForce3 Nvidia´s aktuellester Grafikchip ist, warum beziehst du dann beim 32Bit-Vergleich auf die ältere GeForce2Ultra? Gab es doch nicht bei der Kyro1 auch nicht Umlötaktionen für einen bessere Signalqualität?
 
Ob es bei der Kyro1 umlötaktionen gab weiss ich ehrlich nicht. Kann sein. Sicherlich ist die Signalqualität bei der GF3 gestiegen, aber der Einbruch unter 32bit ist nachwievor da! Oder? Hier hebt die Kyro2 aber erst ab. Und das ist der Knackpunkt. Also warum eine GF3 für 900 Märker wenn eine CPU Aufrüstung mit einer Kyro2 immer noch billiger ist und es dem GESAMT SYSTEM besser tut als nur ne Graka?
 
Einbrüche bei 32Bit gibt es bei der Kyro2 auch, mal viel und mal wenig. Aber je nach Spiel sind diese nicht messbar oder manchmal übersteigt der Wert bei 32Bit der dem von 16Bit. Dieses Phänomen gibt es auch bei der GeForce3, die 32Bit-Leistung hat sich gegenüber der GeForce2 gebessert. Solange das Spiel an der Füllrate der Grafikkarte kratzt läuft diese bei 32Bit ebenso gut. Das ist der Vorteil der Kyro-Karten, extrem durch TBR breitbandsparend und somit so gut wie eine füllratenstarke Grafikkarte.
 
Ich denke wir verlassen ein wenig das eigentliche Thema. Es geht nämlich nicht um Kyro und nvidia Grakas, sondern um HW T&L oder nicht! Warum also für HW T&L bezahlen, wenn es doch "eigentlich" schon durch meine CPU bezahlt ist. Fakt ist doch, das bsp. bei einer MX400 auf einem 600er P3 HW T&L schneller ist, als der SSE Befehlssatz. Jedoch sieht es ab 1 Ghz wieder ganz anders aus. Hier wird meine 3D Leistung durch den HW T&L begrenzt, da hier SSE / 3Dnow schneller wäre. Also faktisch die CPU der limitierende Faktor ist. So könnte man HW T&L bei einer Graka vergessen und wieder auf die wesentliche Qualität einer Grafikkarte schauen. Nämlich der Bildqualität.
 
Zurück
Oben