News Erste Tests und Meinungen zur Matrox Parhelia

  • Ersteller Ersteller Anonymous
  • Erstellt am Erstellt am
Die Geforce3 konnte allein durch ständig von nvidia optimierten Treibern an die ~30 Prozent an Effizens zulegen - Stichwort : DetonatorXP.

Münzt man dieses Ergebniss auf die Benchmarks der Parphelia um würde diese z.b. in 3DMark2001SE anstatt 7500 fast ~11000 Punkte machen. Wenn es eben Matrox gelingt die Treiber so wie Nvidia noch extrem zu optimieren, ich sehe da allerdings Schwart denn Nvidia viele viele Monate gebraucht um seine Treiber zu optimieren. Dauert das aber bei Matrox nun ebensolang ist bis zu dem Zeitpumkt aber schon der Radeon R300 und vielleicht soagr schon Geforce5 draussen, trotz bis dahin optimierter Parphelia-Treiber hätte diese dann wieder 0 Chancen gegen die bis dahin gewachsene Konkurenz. So oder so Ausichtslos.

Aus einem Interview mit Nvidia :

Zitat : *Karten mit GEforce4ti-Chip werden Doom III sehr flüssig darstellen können, JEDOCH NICHT ZWINGEND MIT MAXIMUM DETAILS ODER HOHEN AUFLÖSUNGEN, dafür braucht es dann unsere nächste Generation (gemmeint sei damit wohl die Geforce5...wobei ein fieses (?) grinsen sein Gesicht überzogen haben soll *G* ...)

Quelle-Interview : http://www.PcGamesHardware.de/ - Ausgabe 7.2002

Doom III für volle Details oder im Falle eines 19Zoll-Monitors für in dem Fall "angenehmener-nötige" 1280x1024 ne Geforce5 nötig ?

Da hat die Parphelia dann wohl gar nichts mehr auszurichten...
 
Tja Ganymed und wenn man keine Ahnung hat einfach keine scheisse schreiben oder am Besten ganz aufhören zu schreiben.
 
Carmack ist genauso ein normaler programmiererfreak wie viele andere..und sicher nicht der beste...und nur weil er was sagt muss es noch lange nicht stimmen..ich glaube langsam auch dass der nicht gerade neutral ist...
 
I need to apologize to Matrox -- their implementation of hardware displacement
mapping is NOT quad based. I was thinking about a certain other companies
proposed approach. Matrox's implementation actually looks quite good, so even
if we don't use it because of the geometry amplification issues, I think it
will serve the noble purpose of killing dead any proposal to implement a quad
based solution.

I got a 3Dlabs P10 card in last week, and yesterday I put it through its
paces. Because my time is fairly over committed, first impressions often
determine how much work I devote to a given card. I didn't speak to ATI for
months after they gave me a beta 8500 board last year with drivers that
rendered the console incorrectly. :-)

I was duly impressed when the P10 just popped right up with full functional
support for both the fallback ARB_ extension path (without specular
highlights), and the NV10 NVidia register combiners path. I only saw two
issues that were at all incorrect in any of our data, and one of them is
debatable. They don't support NV_vertex_program_1_1, which I use for the NV20
path, and when I hacked my programs back to 1.0 support for testing, an
issue did show up, but still, this is the best showing from a new board from
any company other than Nvidia.

It is too early to tell what the performance is going to be like, because they
don't yet support a vertex object extension, so the CPU is hand feeding all
the vertex data to the card at the moment. It was faster than I expected for
those circumstances.

Given the good first impression, I was willing to go ahead and write a new
back end that would let the card do the entire Doom interaction rendering in
a single pass. The most expedient sounding option was to just use the Nvidia
extensions that they implement, NV_vertex_program and NV_register_combiners,
with seven texture units instead of the four available on GF3/GF4. Instead, I
decided to try using the prototype OpenGL 2.0 extensions they provide.

The implementation went very smoothly, but I did run into the limits of their
current prototype compiler before the full feature set could be implemented.
I like it a lot. I am really looking forward to doing research work with this
programming model after the compiler matures a bit. While the shading
languages are the most critical aspects, and can be broken out as extensions
to current OpenGL, there are a lot of other subtle-but-important things that
are addressed in the full OpenGL 2.0 proposal.

I am now committed to supporting an OpenGL 2.0 renderer for Doom through all
the spec evolutions. If anything, I have been somewhat remiss in not pushing
the issues as hard as I could with all the vendors. Now really is the
critical time to start nailing things down, and the decisions may stay with
us for ten years.

A GL2 driver won't give any theoretical advantage over the current back ends
optimized for cards with 7+ texture capability, but future research work will
almost certainly be moving away from the lower level coding practices, and if
some new vendor pops up (say, Rendition back from the dead) with a next-gen
card, I would strongly urge them to implement GL2 instead of proprietary
extensions.

I have not done a detailed comparison with Cg. There are a half dozen C-like
graphics languages floating around, and honestly, I don't think there is a
hell of a lot of usability difference between them at the syntax level. They
are all a whole lot better than the current interfaces we are using, so I hope
syntax quibbles don't get too religious. It won't be too long before all real
work is done in one of these, and developers that stick with the lower level
interfaces will be regarded like people that write all-assembly PC
applications today. (I get some amusement from the all-assembly crowd, and it
can be impressive, but it is certainly not effective)

I do need to get up on a soapbox for a long discourse about why the upcoming
high level languages MUST NOT have fixed, queried resource limits if they are
going to reach their full potential. I will go into a lot of detail when I
get a chance, but drivers must have the right and responsibility to multipass
arbitrarily complex inputs to hardware with smaller limits. Get over it.
 
Der Preis ist nicht nur für die bis jetzt gebotene Leistung, sondern allgemein viel zu hoch für die neue Matrox!
Allerdings war der Treiber beim Test anscheinend mehr als unfertig.

Ich bin kein Nvidia-Fan und warte deshalb auf eine gute Alternative.
Trotzdem habe ich mir für meinen Zweitrechner eine G4 Ti4200 geholt.
Die aber in Bildqualität und TV-Out nicht meiner ATI Radeon 8500 das Wasser reichen kann.
Dafür läuft die Geforce 4 immer ohne nennenswerte Probleme.
Was man von der Radeon 8500 nicht sagen kann (Treiberprobleme, Performance-Einbrüche bei UT und DS, ...).
Ich glaube nicht, ass Matrox so schnelle ausgereifte Treiber liefern kann, wenn ATI für die ersten vernünftigen Treiber fast ein halbes Jahr gebracuht hat.
(Habe meine Karte seit Ende Oktober 2001, "nervenschonende" Treiber gabs erst im März).

Geschwindigkeit ist nicht alles, trotzdem erwarte ich für einen Preis von angeblichen 500-550€ doch eine überlegene Karte, in allen Bereichen.

Viel Glück wünsche ich Matrox, sie werden es wahrscheinlich brauchen.

Gruss
Voodoo
 
Die ersten Parhelia Karten mit 128 MB werden in Kürze im Handel zu einem empfohlenen Verkaufspreis von 549 Euro auftauchen. Im Internet sind nun die ersten Testberichte über eben diese Grafikkarte mit Triple-Monitor-Support und vielen netten theoretischen Features einsehbar.

Zur News: Erste Tests und Meinungen zur Matrox Parhelia
 
Sagt mal kann mir irgendwer sagen wer John Carmack ist?
Will hier keinen beleidigen aber ich hab den namen schon oft gelesen und irgendwie hab ich ka wer genau des ist...

ps ich find die karte nur arschteuer ....
 
entwickler bei ID-software (macher der quake und doom reihe)...der "entwickelt" sozusagen 3D Engines..
 
carmack ist sehr wohl unter den besten 3d engine programmierer der welt zu finden.

und erguk welche engine soll den besser sein?

immo ist immer noch die q3 engine das maß aller dinge. obwohl die schon 3 jahre auf dem buckel hat (1999) da hattest du warscheinlich noch eine voodoo 1 zu hause! 80% der namhaften shooter werden mit dieser engine programmiert und wenn du sof2 mal in action gesehen hättest würdest du nicht so ein mega müll labern!
 
Starke Sache:John Carmack schaut auch bei Computerbase rein-hätt ich ja nicht gedacht
 
Na das die Karte so schlecht abschneidet hätt ich nie im Leben gedacht. Aber es schein wirklich noch ein großes Treiberproblem zu sein denn von den Spezis her müsste das Teil richtig abgehen. Mal sehen wie sich die Karte mit den neuen DX9 Karten von ATI und nVidia schlägt. Der NV30 soll ja auch im August/September erscheinen.
 
also.....erstmal würde ich john carmack auch nicht so wie viele hier in den dreck ziehen, da ich denke das er sowohl zur "weltelite" gehört was seine spiele-erscheinungen gezeigt haben
Was die Matrox angeht.......naja wieso sagen alle nur die is langsamer die is schlecht, bla bla bla
Bin selber kein Matrox fan, aber ganz objektiv gesagt.....mit welcher GF kann ich ordentlich 3 monitore ansteuern? Und abgesehen davon gibt es auch andere Leute als nur die spieler....hab zufällig in der branche zu tun, aber zum beispiel beim CAD zeichen können 3 monitore gleichzeitig durchaus sehr angenehm sein.......usw usw.! ich denke es gibt genügend beispiele wo es halt doch kleine aber feine vorteile der matrox gegenüber anderen karten gibt.....wenn vielleicht auch nicht gamer!

lg
schmikola from AUSTRIA
 
@semikola

zeichne schon einige zeit auf einer matrox g400 ....ein braves teil ...für office,cad und games .....nur eine parhelia könnte mich (bzw. meinen boss) zum kartentausch motivieren ! schon mal eine GF 4mx mit autocad geärgert ?? nicht ? sei froh man erlebt so seine wunderbaren dinge *gg* !

der turl ...i am also from austria :-)
 
John Carmack hat in lätzter Zeit scheinbar nichts anderes mehr zu tun als als Harwdare-Prophet im I-Net rumzuprophezein :) Ja der gute Mann ist ein Meilenstein im grafischen Fortschritt der 3D-Spiele aber lieber Carmack mach nebst alldem doch bitte auch mal schnell Doom III fertig ...
 
Hallo ihr lieben zocker ich würd mal probieren den Nvidia treiber 6.52 zu nehmen an statt den 49.10 xxx irgendwas...
denn dann habt ihr das gleiche ergebnis wie Matrox der treiber ist beta würd ich sagen und nun ja was die qualität der graka angeht sowohl in der verarbeitung als in der Bildqualität (schärfe... farben..) gibt es wohl nichts vergleichbares und das ist schon fast immer so!

Matrox the one and only!

Früher waren die karten nur für 2D
jetzt können sie auf 3D basis zeigen was sie können!!!
 
@Via4in1Bugs_NFurz_DualP4

nur dass es zum zeitpunkt des treibers 6.52 KEINE gf4 oder auch die neuren gf3 gegeben hat und matrox eben auf so einem nullpen treiber die karte verkauft!
 
Ich glaube noch nicht so Recht an die Benchmark Ergebnisse.

Die neue Matrox ist ein wahres Kraftpaket. In jeder Hinsicht. Selbst mit absolut schlampig programmierten Treibern und runtergeschraubten Taktfrequenzen müsste sie eine GF4 Ti4600 zumindest noch Paroli bieten können.

Doch das tut sie nicht. Im Gegenteil. Die Leistung ist in allen Bereichen so dermaßen unter den Erwartungen, das da noch irgendwas im Busch sein muss.

Warum und Wieso? Keine Ahnung. Aber das was wir da sehen ist 100%ig NICHT das, was die Karte tatsächlich kann.

Dafür würde ich meine Hand ins Feuer legen.
 
Zurück
Oben