News Hat nVidia Probleme mit dem Pixelshader?

@THECOUNTER

"möchte nur nachfragen: dir ist mittlerweile schon klar, dass die ati-chimp demo genauso in echtzeit gerendert wird wie die dawn-demo, oder?"

......

"42) TheCounter schrieb am 22.07.2003 um 22:04 Uhr:

@41

LoL klar, hab auch nie das Gegenteil behauptet. Sonst wär es ja ein Video, was es nicht ist (Wie gesagt hab sie schon selber gesehen, bei nem Kumpel). "


Ich hatte ja echt nicht vor mich zu äussern, aber dabei kommt mir die Galle hoch... mit welcher Selbstverständlichkeit du auf einmal sagst, dass da immer klar war dass da Echtzeit gerendert wird und du das ja bei nem Kumpel gesehen hast.
Hab mir die Mühe gemacht mal den passenden Beitrag von dir im Forum rauszusuchen:
Öhm die eine dumme Demo da von ATI, die läuft doch selbstständig.. hab die mal bei nem Kumpel gesehen, mit der Natur da *g*

Find ich auch Schmarn, man müsste sich schon selber bewegen können, ansonsten kann es ja sein das die Radeon Karten net alles rendern
https://www.computerbase.de/forum/threads/nvidia-5900-techdemos.40271/

Also von wegen und nie was vom Gegenteil behauptet, und das war dir immer klar...
 
@Supiman
gibt nur diesen einen beitrag, aus welchem man nicht genau herauslesen kann, was ich meinte
@TheCounter
jetzt werd ich mal dein gedächtnis auffrischen:

Artikel: "Update: GeForce FX von Inno3D"

quote:


26) TheCounter schrieb am 04.04.2003 um 16:59 Uhr:
zu 20)

Naja, da gibts nen kleinen unterschied und zwar haben die das net geschrieben sondern auf der Cebit gezeigt!

Die Demo von Dawn, der Fee wurde nochmals überarbeitet und mit dem neuen Chip vorgeführt, dieser schafft es in Echtzeit 4 solcher Feen gleichzeitig darzustellen und da hat nVidia vollen Respekt verdient.

Wenigstens produziert nVidia Demos mit einer Grafik die es auch ziemlich bald in Spielen geben wird, ATI macht ehr das gegenteil, z. B. diese Jungel Teil, das schafft keine Grafikkarte der Welt in Echtzeit zu berechnen, die Demo ist vorprogrammiert, deswegen läuft es auch.

30) Crazy_Bon schrieb am 04.04.2003 um 22:22 Uhr:
@26
Die Chimp-Demo läuft in Echtzeit auf R3x0-Chips, da ist nix vorprogrammiert und läuft nur als Filmchen ab oder was auch immer du gemeinst hast.

32) TheCounter schrieb am 05.04.2003 um 01:04 Uhr:
@30

Ja eben, als Film, es ist vorprogrammiert, läuft in Echtzeit ab aber is vorprogrammiert, die demo is immer die selbe, deshalb ist die grafik auch so realitätsfern in bezug auf games...

33) Crazy_Bon schrieb am 05.04.2003 um 02:01 Uhr:
@32
Das haben Grafik-Demostrationen an sich, was daran soll es schon so toll sein selbst die Kamera rumzuschwenken oder die/eine Lichtquelle?

34) DaChef schrieb am 05.04.2003 um 09:54 Uhr:
Hää ? Naja dass der Kamera Pfad vorgegeben ist,
macht so eine Szene ja nicht unbedingt leichter zu
berechnen und damit realitätsfern.

Was der Unterschied ist, liegt wohl daran dass man gezielt
Texturen und Mash Data weglassen kann, weil man weiß dass die Kamera da nicht hinschauen wird, aber ob's das
rausreißt ?

36) Stan schrieb am 05.04.2003 um 11:32 Uhr:
Ich glaub dass das gar nicht echt 4 Feen sind..es wird eine berechnet und dann einfach 3 mal dupliziert..

37) Deckard schrieb am 05.04.2003 um 13:20 Uhr:
Wer Geforce kauft ist ein Kriegstreiber!

Nvidia baut nämlich auch Kampfjet-Cockpit-Instrumente!

38) TheCounter schrieb am 05.04.2003 um 13:40 Uhr:
@37

LOL, ich finds geil das die sowas bauen, ATI würd das garnet packen :)

Ich kauf IMMER nVidia:

1. Service ist unschlagbar
2. Leistung vom feinsten
3. Effekte die sonst keiner bietet
4. Sehr leichte Programmierbarkeit
5. Meistens sehr günstig

39) TheCounter schrieb am 05.04.2003 um 13:41 Uhr:
@36

Ähm, die kann man alle unabhängig voneinander bewegen, ranzoomen, gesichtszüge verändert etc. das sind keine duplikationen...

@34

Doch, das macht es viel leichter weil man weis was gezeigt wird und was net, in einem Spiel muss ALLES berechnet werden, und so ne Grafik in nem Spiel packt keine Grafikkarte...


unquote

das erklär mir bitte.

cu
 
@Supiman
gibt NICHT nur diesen einen beitrag, aus welchem man nicht genau herauslesen kann, was ich meinte


so sollte es heißen *verzweifelteditbuttensuch :(*

sry
 
@Viper87

ja, die Kommentare hatte ich damals auch mitgelesen.... *sicherinner* *lautseufz*

ich glaube auf golem.de hatte sich TheCounter auch drüber ausgelassen, dass die Grafik zu realistisch sei und sowas doch nie in nem Spiel so aussehen würde...
 
oh man, da postet man was und schon muss man wieder antworten :(((

@supi
die härte, wie ich finde, ist ja, dass er oben geschrieben hat, dass es ja kein video ist; genau das gegenteil hat er ja im quote bei nr.32) geschrieben.
nur so zur info: hab am desktop ein .txt-file mit >90kb liegen, nur mit comments von unserem freund da oben :D. das geht aber erst bis anfang mai, d.h. mind. noch 3x soviel gibt es zu protokollieren. hab mir überlegt, dass ich im forum einen thread aufmach, wo ich die ärgsten sachen (unverändert natülich) reinkopiere. was meinst du: graka, feedback oder OT?

cu
 
@66
*lol*

weiss nicht, ob sich der Aufwand lohnt und ob das nicht zuviel Ehre für ihn wäre *fg*
passt aber dann am ehesten in OT *g*
hmmmm.... ein Fanclub wär geil... *s*

Naja, ich küre ihn jetzt mal kurzerhand zu nVidia's Informationsminister... *rotfl*
 
@ THE COUNTER


HAST DU NUN JETZT ERREICHST WAS DU WOLLTEST???

ansonsten gute arbeite jungs
*lol*
 
*STAUN*.....
Welch ein Beliebtheitsgrad ;))))
Wenn´s nicht so witzig wäre, würde ich TC jetzt verteidigen!
Mal sehen, wie er´s auffasst (so viel LOB und EHRE!)?!?
 
34) TheCounter schrieb am 19.05.2003 um 18:01 Uhr:

@LoM

Klar is die Grafik von HL jetzt scheisse, aber damals war sie gut, das Game is immerhin 1998 rausgekommen, also was will man mehr!

Jedenfalls ist es von HL1 zu HL2 nen rießen Sprung in Sachen Grafik, die Gesichter in HL2 sind schon fast fotorealistisch.

Nur zur Info, HL2 kann man auf nem 700 MHz CPU und ner TNT2 zoggn. Für Maximale Details und hohe Auflösung reicht ein 2,0 GHz CPU und eine TI4600 völlig aus.
 
wenn wir grad so schön unter uns sind, ne kleine auslese *g*:

"ATI liefert Radeon 9800 Pro aus"
26) TheCounter schrieb am 05.04.2003 um 13:46 Uhr:
ATI is viel mehr scheisse...

1. Viel zu schlechte Treiber
2. Viel zu hohe inkompatiblität

"Spezifikationen des nV35?"
33) TheCounter schrieb am 22.04.2003 um 02:39 Uhr:
Du wirst es selber sehen... nVidia hat ihn schon auf der Cebit gezeigt und vorgeführt, auf der E3 wird dies offiziell getan...

Du wirst auch sehen das der NV35 jeder ATI Karte weghaut und das auch mit AA und AF...

Wer ATI kauft is selber schuld.. schrott bleibt schrott..

"Treiberbug bringt GeForce FX ins schwitzen (Update)"
72) TheCounter schrieb am 23.04.2003 um 17:19 Uhr:
Ich jendenfalls bin überzeugt davon das der NV35 alle anderen Karten schlagen wird, ihr könnt sagen was ihr wollt.

ATI zittert schon!

"Kommt der NV35 schon im Mai?"
19) TheCounter schrieb am 26.04.2003 um 01:38 Uhr:
Hab ichs nicht schon vor 2 Monaten gesagt das nVidia den Chip auf der E³ vorstellen wird. *g*

@10

Nach den ersten Benchmarks zu folge schlägt der NV35 eine ATI Radeon 9800Pro fast schon mit halber Taktrate, von Gamestar bestätigt, soviel dazu!

@18
Das AA ist im FX sowie im NV35 enthalten, die 3dfx Mitarbeiter werkeln die ganze Zeit daran, wie man aus vielen Berichten hört.

@17
Bis jetzt war fast alles von nVidia gut, denn kein anderer Hersteller hatte solch eine Leistung bei so einem Preis. Ausnahme ist der NV30-34.

"nVidia Detonator FX stellt sich vor"
8) TheCounter schrieb am 28.04.2003 um 18:50 Uhr:
@4

Das würd ich nicht so laut sagen, der NV35 schlägt JEDE Ati Karte, wirklich JEDE, im Qualitätsmodus sowie im Rohleistungsmodus.

Und da kommen solche Treiber nur recht, da wird die Karte nur noch schneller, sicher ist es möglich mehr aus einer FX rauszuholen, weil die Treiber eben speziell auf FX gerichtet sind.
45) TheCounter schrieb am 29.04.2003 um 07:28 Uhr:
Ne, ich hab keine lust mehr, mich mit euch abzugeben, sind sowieso nur ATI Fanboys hier.

Hier verkraften die meisten echt net das nVidia wieder vorne sein wird nur weil se sich ne buggy ATI Graka geholt haben, da sag ich nur selber Schuld, ATI war schrott und ist heute noch schrott, zum glück gibts nicht mehr Fanboys wie euch die alles was ATI sagt glaubt.

"GeForce FX 5900 Ultra (NV35) am 14. Mai (Update)"#
18) TheCounter schrieb am 02.05.2003 um 20:55 Uhr:
Wenn du besser Informiert wärst würdest du wissen das beim NV35 erstmals die 3dfx Mirarbeiter voll mitwirken, so wird sich nun zeigen wer das bessere AA hat...
70) TheCounter schrieb am 04.05.2003 um 12:54 Uhr:
@69

Ja, außerdem haben hier erstmals die 3dfx Mitarbeiter ihre volle unterstützung geleistet, was wirklich für ein gutes AA&AF spricht, aber mal abwarten und auf die ersten Bilder warten :)

"Erste Bilder und Benchmarks vom GeForce FX 5900 Ultra"
36) TheCounter schrieb am 09.05.2003 um 13:19 Uhr:
Tja, ich hatte die ganze Zeit recht und mir hatte niemand gelaubt, das haben jetzt alle davon ;-)

Die Karte wird auch bald in meinem Rechner leise ihr geschäft verrichten, das mit dem 2 Slot ist nicht so schlimm da man den sowieso immer freihalten sollte wegen der Graka kühlung, aber ich hab ja WaKü ^^

Hmpf, ich habs gewusst das einige ATI'ler verdammt sauer werden das nVidia jetzt wieder die Nase vorn hat, aber war abzusehen, die versuchen jetzt mit allen Mitteln nVidia schlecht zu machen.. jaja das kenn ich ;-)

Übrigens, ATI braucht ihre Treiber ja nicht Optimieren da der 3DMark03 sowieso auf ATI Grakas optimiert ist, von daher...

Der Deto 50.XX kommt übrigens Zeitgleich bzw. bisschen vor dem Release der 5900 raus, da der Treiber ja für die Karte zugeschnitten ist, sie unterstützt ja neuere Features etc. (Was aber normal ist)

Also lets fetz... freu mich schon auf die Karte...

See ya und frieden hier ;-)
53) TheCounter schrieb am 09.05.2003 um 14:22 Uhr:
@49

Spiele sind nVidia sehr wichtig, sonst hätten sie kaum die EXZELLENTE CineFX Engine und Cg Entwickelt.

UltraShadow rulez auch, das wird John Carmack höchstwarscheinlich auch für sein Doom3 benuzten *freu*

Mir kanns nur recht sein, 1. werden alle Karten billiger und 2. will ich auch endlich mal die schnellse Desktop Graka der Welt haben...
60) TheCounter schrieb am 09.05.2003 um 15:39 Uhr:
@57

Hmm, also der größte teil des Lüfters ist Passiv, nur der kleine Aktiv Kühler ist an, also wird die Karte sicher nicht lauter sein als ne Radeon9700Pro...
80) TheCounter schrieb am 09.05.2003 um 19:32 Uhr:
Jaja, ich lass mir eure ATI Fanboy Meinungen ja schon reindrücken.. is ok...
99) TheCounter schrieb am 10.05.2003 um 13:58 Uhr:
Das schließ ich darauf zurück weil ich schonmal ne ATI hatte und ich nur Grafikprobleme hatte, war zwar noch ne rage aber torzdem. Als ich dann meine GF2Pro bekommen hab (für 800 DM) war ich mehr als zu frieden, kein einziges Problem mehr etc.

Klar sind beide gut, aber ich finde nVidia persönlich besser :-)
113) TheCounter schrieb am 10.05.2003 um 18:03 Uhr:
Ich unterstell das nicht jedem, nur wenn du dich gleich Angesprochen fühlst bist du wohl ATI Fanboy ? ;-)


und ein ganz toller:

108) TheCounter schrieb am 10.05.2003 um 16:13 Uhr:
Ich will eben auch mal ne High-End Grafikkarte haben, deswegen hol ich mir im September eben die 5900Ultra.

Auf Lautstärke muss ich nicht achten, denn ich hab WaKü.


ich sag euch, das is ganz schön viel arbeit!


cu
 
was mich "wundert" ist ja, dass ich noch gar keine antwort von ihm bekommen hab :D
aber wenn's sein muss, renn ich ihm in jede nv-, doom3-, hl2- oder was weiß ich-news nach; irgentwann muss er antworten :D

cu
 
@Viper87
*lol*
ja wenn's unangenehm wird, geht man dementsprechend halt einfach nicht drauf ein... *gg*

ich hab hier noch Schmankerl von golem.de:

"Autor: TheCounter
Datum: 21.07.03 20:28
Standart wird ja auch mit "t" geschrieben, so haben wir es damals in der Schule gelernt."
..... (wird eines besseren belehrt) .....
"Autor: TheCounter
Datum: 21.07.03 20:46

Von mir aus kann sich jeder seine Rechtschreibung sonst wo hinstecken, ich schreib so wie es mir passt, wer das nicht akzeptieren kann ist für mich einfach nur "dumm" oder eben Gymnasiast (Da haben fast alle ne Macke).

Das ist genauso wie wenn ich sagen würde: "Hey dein Gesicht gefällt mir net, lass dich endlich mal operieren!"."

Autor: TheCounter
Datum: 17.06.03 13:10
.......
Außerdem, ATI wirbt bzw. hat so toll auf ihrer seite geworben:

"Half-Life 2 - Optimzed for Radeon 9800 Series"

Hab gewusst das die nur lügen, Valve sagt selber das sie mit keinem der Hersteller eng zusammenarbeiten, sie wollen das es auf allen System gut läuft.

[vier Tage später, anderes Thema]

Autor: TheCounter
Datum: 21.07.03 11:01

Jap, aber ich finds verdammt fieß von Valve so einen Standart (Das kann man schon als Standart ansehen) wie AA nur für Spezielle Karten zu implementieren.

Den hier find ich geil:
Autor: TheCounter
Datum: 17.06.03 19:52

.........
Und nun lass mich in ruhe du ProATI Flamer (Kommt mir so vor als würdest du mit ATI bzw. deiner Radeon schlafen..)

Wer lesen kann und sich in Sachen Grafikkarten auskennt ist klar im Vorteil.
*kicher*

Cheaten oder nicht?
Autor: TheCounter
Datum: 03.06.03 11:35

Ich finde das Futuremark doch lieber erlauben sollte das jeder seinen Renderpfad einbaut, das wäre viel näher an der realität als das es jetzt ist, in DoomIII ist nVidia auch ungeschlagene Spitze, knapp 60 - 70 % schneller als ATI.

Jedenfalls finde ich die Optimierung OK, da es weder cheaten noch sonstwas ist, da man keine Bildunterschiede sieht und das auch in Spielen möglich ist.
.....
Autor: TheCounter
Datum: 11.06.03 13:18

Was willste dann kaufen?

ATI und nVidia haben gecheatet, bleibt nurnoch Matrox und Sis (Andere fallen mir net ein). Oder vielleicht ne alte Voodoo :-)

Autor: TheCounter
Datum: 04.06.03 17:58

Die 60% waren noch wo ATI das Treiberproblem hatte, schau dir jetzt mal den rest an, wie weit vorne nVidia in DoomIII (Mit der Engine wird es sicherlich noch mehr als 10 Games geben) ist:

OpenGL Medium Quality:

1024x768x32: 17,22 %
........
Ist nun egal ob die den Bench manipuliert haben oder nicht, ändert nichts daran das nVidia momentan noch die schnellste Desktop Grafikkarte der Welt hat. Abwarten was der R360 bringt, er ist ja nur ein verbesserter R350. Wenigstens fallen die Preise.

Autor: TheCounter
Datum: 27.05.03 17:36

Du bist noch blinder, jeder Benchmark auf den hunderten von Hardware Seiten zeigt das die FX5900Ultra die schnellste Desktop Graka der Welt ist...

Na, will da jemand im September unbedingt die schnellste Desktop-Grafikkarte der Welt sein eigen nennen, hm? *lol*

SCNR
 
Zurück
Oben