News 3DMark05 - Endlich kann getestet werden

Was haltet ihr von 3DMark05? (Schulnoten)

  • 1 - sehr gut

    Stimmen: 114 15,9%
  • 2 - gut

    Stimmen: 205 28,6%
  • 3 - befriedigend

    Stimmen: 184 25,6%
  • 4 - ausreichend

    Stimmen: 66 9,2%
  • 5 - mangelhaft

    Stimmen: 47 6,5%
  • 6 - ungenügend

    Stimmen: 102 14,2%

  • Umfrageteilnehmer
    718
  • Umfrage geschlossen .
The_Jackal schrieb:
@cR@zY.EnGi.GeR

Du hast doch eine Geforce FX! Hast du mal selber gegen eine Radeon 9800 Pro verglichen?

Es geht nicht um diesen Bench, sondern um Games, wo die FX Karten einfach absolut abloosen mit wesentlich niedrigeren Frames. Die Spiele ruckeln, was sie bei ATI Karten mit selben einstellungen eben nicht machen. Wie erklärst du dir das? Willst du sagen, dass ich lüge???

Nur weil du deine Kaufentscheidung mit Fön verteidigen willst, pass auf, was du behauptest.
wegen deines karmas (denke mal es ist von dir, passt ja zu deiner ansichtsweise): wo habe ich behauptet das die FX langsam sind ? ich sagte nur das man selbst schuld ist wnen man mist kauft.

ich weiß ja selbst jetzt nicht welche da wo besser ist, müsste mich auch erst informieren.
mein beitrag war allgemein und nicht direkt auf die FX bezogen.

Soviel mal zur richtigstellung


P.S.: Das ist kein Karmageheule (das ist mir eh relativ egal), sondern soll nur klarstellen was ich meine, da es von ihm anscheind falsch verstanden wurde.
 
The_Jackal schrieb:
@cR@zY.EnGi.GeR

Du hast doch eine Geforce FX! Hast du mal selber gegen eine Radeon 9800 Pro verglichen?

Es geht nicht um diesen Bench, sondern um Games, wo die FX Karten einfach absolut abloosen mit wesentlich niedrigeren Frames. Die Spiele ruckeln, was sie bei ATI Karten mit selben einstellungen eben nicht machen. Wie erklärst du dir das? Willst du sagen, dass ich lüge???

Nur weil du deine Kaufentscheidung mit Fön verteidigen willst, pass auf, was du behauptest.

In welchen Spielen loosen denn Deiner Meinung nach Fx KArten ab!

Benchmark-Tests und gerade die von großen Zeitschriften basieren auf folgenden Einstellungen 1024x768 ohne AF und ohne AA bzw. mit 4xAF und 4x AA!

Die FX 5900 ist in diesen Einstellungen gleich bzw. schneller als eine Radeon 9800! Nachzulesen in div. Zeitschriften!

Und ob eine Speil mit 60 oder 75 fps läuft ist völlig irrelevant es sei denn man will einen Schwanzvergleich starten!

Und Drohungen wie "pass auf was Du sagt..." sind hier ganz fehl am Platz!



Und hier noch eine PM die ich von EvilTrunks bekommen habe. Das schreiben Leute denen die Argumente ausgehen!

Vielen Dank dafür! Auf solche Leute kann ich echt verzichten!


EvilTrunks schrieb:
Du tust mir leid, fühlst dich sofort angegriffen wenn jemand was über deine heiß geliebte nVIDIA karte sagt :) schon mal was von rl gehört ?! ... na ja mein kleines butschi butschi nicht gleich weinen, weil der böse Man was über deine Graka gesagt hat, was stimmt oder was bestätigt der 3DMark05 ....

Don’t Get Fooled :D
 
Zuletzt bearbeitet:
The_Jackal schrieb:
@cR@zY.EnGi.GeR

Du hast doch eine Geforce FX! Hast du mal selber gegen eine Radeon 9800 Pro verglichen?

Es geht nicht um diesen Bench, sondern um Games, wo die FX Karten einfach absolut abloosen mit wesentlich niedrigeren Frames. Die Spiele ruckeln, was sie bei ATI Karten mit selben einstellungen eben nicht machen. Wie erklärst du dir das? Willst du sagen, dass ich lüge???

Nur weil du deine Kaufentscheidung mit Fön verteidigen willst, pass auf, was du behauptest.
Ersteinmal solltest du meine vorherigen Beiträge lesen, bevor du etwas postest. Dann wüsstest du, dass bei einigen Benchmarks wie Aquamark 3 und bei diversen Games eine GeForce FX 5800 Ultra schneller als eine 9800 Pro ist und bei einigen anderen langsamer, wobei die Unterschiede immer sehr gering sind.
Und es gibt bisher keine Games, die bei mir ruckeln. Far Cry läuft bei mir bei 1280x1024, 8x AF und alles auf Maximum im Freien zwischen 40 und 70 fps und Indoor zwischen 15 und 35 fps.
Doom 3 läuft bei 1280x1024 und Ultra High Quality beim Timedemo-Benchmark mit 29,7 fps auch flüssig.
Die Radeon-Karten sind nur bei sehr hohen Auflösungen und bei AA wirklich schneller, und AA hab ich sowieso nie aktiviert.

Und was meine Kaufentscheidung betrifft, hatte ich mir die Karte letztes Jahr im September für 270€ zugelegt, da waren die Radeon-Karten noch um einiges teurer.

Des Weiteren habe ich eine Leadtek-Karte, welche keinen "Fön" hat, sondern nen Metallkäfig. :)

Also nächstes Mal erst lesen, dann denken und dann schreiben.
 
Zuletzt bearbeitet:
Na Hauptsache Thomas Hübner von CB steht im Abspann der Demo. :D :cool_alt:
 
@130 schön wenn du so denkst aber das ist vollkommener blödsinn...

OMG seht es doch endlich ein die FX karten bis 5950 von nvidia in bezug auf dx9 sind der letzte dreck!
wenn es ein spiel geben würde, was es definitiv noch geben wird was zu 100% auf dx9 aufbaut ohne irgendwelche abwärtskompativilität dann würde es dort auch NICHT anders aussehen als in dem benchmark.

und was denken leute hier die meinen es sieht nicht umwerfend aus?????
HAAAAAAAAAAAAAAALLOOOOOOOOOOOOOOOOOO
zeigt mir nur ein spiel was so eine umwerfende grafik benutzt oder benutzen wird was nicht über 2005 hinausgeht! hl² oder stalker können da definitiv nicht mithalten!
die jungs von futurmark könnten die grafik so hochdrehen das selbst bei x800 xt STANDBILD wäre mit 1fps und ca 1.5gb größe von dem benchmark...
sie mussten ein mittelmaß finden das es auch auf ehemals high-end karten das ding auch noch läuft und das es nicht auf den jetzigen high-end karten nicht zu schnell läuft...
überlegt doch ENDLICH mal. BITTE! der benchmark muss für die nächsten 2 jahre reichen das es nicht mehr als 20000 punkte werden und das ganze aus dem rahmen fällt...

und was ich noch anmerken wollte...
nVIDIA sind echt die schlechtesten verlierer die es gibt auf der welt...
die freuen sich jetzt: "wir sind die schnellsten bei 3dMark dank sLI" und beschreiben es als MUST HAVE FEATURE!!! <-- kostet ja auch nur mehr als 1000€ + hardware die nicht weniger als 1000€ kostet da man wirklich alles wichtig neu brauch...
die sollten lieber schreiben "es bedarf 2 nVIDIA karten um eine Ati zu schlagen"

ich werd echt net fertig...
http://service.futuremark.com/compare?3dm05=38454
wer denkt es könnte nirgends flüssig laufen...
kleiner auszug:
Game Tests
GT1 - Return To Proxycon 37.7 fps
GT2 - Firefly Forest 23.7 fps
GT3 - Canyon Flight 40.2 fps
3DMark Score 8250 3DMarks
 
Zuletzt bearbeitet:
p00chie schrieb:
und was ich noch anmerken wollte...
nVIDIA sind echt die schlechtesten verlierer die es gibt auf der welt...
die freuen sich jetzt: "wir sind die schnellsten bei 3dMark dank sLI" und beschreiben es als MUST HAVE FEATURE!!! <-- kostet ja auch nur mehr als 1000€ + hardware die nicht weniger als 1000€ kostet da man wirklich alles wichtig neu brauch...
die sollten lieber schreiben "es bedarf 2 nVIDIA karten um eine Ati zu schlagen"
Seit wann ermittelt der 3D-Mark das Preis-Leistungsverhältnis?
Das entscheidet doch AUSSCHLIESSLICH der User, oder?
Es ist doch vollkommen irrrelevant ob der höchste Score mit SLI erreicht wird oder mit nur einer Karte!
 
@167) p00chie

hehe, den spruch mit den 2 nVidias vs. 1 ATi find ich ja cool, aber deine score is gefaket, du benutzt ja die beta treiber, damit bekommste ne hohe punktzahl, nur mittlerweile ja alle wissen, dass diese treiber speziell für 3DMark05 optimiert wurden.
mach mal bitte alle test mit den Catalyst 4.9. bitte bitte, alle test, auch die CPU tests, ich würd gern mal vergleichen.

http://service.futuremark.com/compare?3dm05=45862

das is mit den catalyst 4.9, warum FM behauptet, die wären nicht "FM approved" weiss ich nich, könnte evtl. damit zusammenhängen, dass ich mal das psychotoxic hitfix drauf hatte, aber das psychotoxic-demo stürzt bei mir trotzdem ab.
 
http://www.theinquirer.net/?article=18763
dann lies dir mal das durch...
auszug:
ATI admitted to all of us that it had a nasty memory allocation problem for all of the 256MB cards that resulted in some performance losses in previous drivers. Now it has fixed the problem, and applications that can take advantage of larger frame buffers are going to benefit from that. One of them is 3Dmark05 of course but ATI doesn’t want you to think that this is "a 3DMark05 specific optimization", it's just a pure bug fix.

I can see one possible thing about this sudden driver speed up. Either ATI wanted to surprise Nvidia which it sure did.

soviel zum thema
nVIDIA ist und BLEIBT der schlechte verlierer!

zu 167
Ati ist mit EINEr karte besser als nV mit 2
1100€ gegen 470€
haha
 
Zuletzt bearbeitet:
p00chie schrieb:
http://www.theinquirer.net/?article=18763
dann lies dir mal das durch...
auszug:
ATI admitted to all of us that it had a nasty memory allocation problem for all of the 256MB cards that resulted in some performance losses in previous drivers. Now it has fixed the problem, and applications that can take advantage of larger frame buffers are going to benefit from that. One of them is 3Dmark05 of course but ATI doesn’t want you to think that this is "a 3DMark05 specific optimization", it's just a pure bug fix.

I can see one possible thing about this sudden driver speed up. Either ATI wanted to surprise Nvidia which it sure did.
kann man glauben oder nicht :-)

soviel zum thema
nVIDIA ist und BLEIBT der schlechte verlierer!
wo hat sich nvidia eigentlich zu dem bench geäußert ?

zu 167
Ati ist mit EINEr karte besser als nV mit 2
1100€ gegen 470€
haha
so wie ich das sehe sind die neuen ati und nvidiakarten ähnlich schnell. vll ist ati bei dem bench etwas schneller, aber das juckt ja keinen (ausser leute die sich net auskennen).
es kommt immernoch auf die leistung der karten in den spielen an. und da sind dei für mich etwa gleichauf. mal ist die eine schneller, mal die andere.



ich sehs irgendwie schon wieder kommen, das hieraus ein ati vs. nvidia thread kommt. und das wegen eines nichtausagekräftigem benchmarks.
 
http://www.nvidia.com/object/IO_16083.html
hier hat sich nVIDIA geäußert...
und mit was du hier um dich wirfst ist auch lächerlich...
auf der einen seite zu behaupten der andre hat keine ahnung und auf der andren KEIN einziges argument zu bringen.
die karten sind ähnlich schnell weil noch kein richtiger kracher rausgekommen ist seitdem die karten auf dem markt sind, auf dx9 ebene...
also spiele die sehr hohe ansprüche an grafikkarten haben wie z.b. hl²... dort wird es sich zeigen. aber spiele wo man es wirklich sehen kann kommen erst nächstes jahr.
 
p00chie schrieb:
http://www.nvidia.com/object/IO_16083.html
hier hat sich nVIDIA geäußert...
und mit was du hier um dich wirfst ist auch lächerlich...
auf der einen seite zu behaupten der andre hat keine ahnung und auf der andren KEIN einziges argument zu bringen.
die karten sind ähnlich schnell weil noch kein richtiger kracher rausgekommen ist seitdem die karten auf dem markt sind, auf dx9 ebene...
also spiele die sehr hohe ansprüche an grafikkarten haben wie z.b. hl²... dort wird es sich zeigen. aber spiele wo man es wirklich sehen kann kommen erst nächstes jahr.
ich habe nie gesagt das jemand keine ahnung hat. ich meinte nur das leute die ahnung haben nicht nach einem benchmark kaufen, sondern richtige tests abwarten.
ich greife ja niemanden direkt an.

und doom3 ist ja auch ein kracher der ordentlich hardware braucht. da war nvidia schneller. ok das ist ein openglspiel, nur was macht das für nen unterschied ?
ich denke das beide hersteller mit ihren karten etwa gleichauf sind.

und das ati mit einer karte 2 nvidia schlagen kann ist ziemlich übertrieben. vll sind die etwas schneller in dx9, aber soviel macht das auch net aus.

das nvidia ein kommentar abgeben hat wusste ich nicht, deswegen hab ich ja nachgefragt.
 
p00chie schrieb:
´
nVIDIA ist und BLEIBT der schlechte verlierer!

zu 167
Ati ist mit EINEr karte besser als nV mit 2
1100€ gegen 470€
haha

Fakt 1: 2 SLI 0815 Karten ohne utopisches OC ist und bleibt besser als eine Einzige X800XT
Fakt 2: Mach doch mal mit den SLI ein solch utopisches OC, dann schauen wir mal weiter.
Fakt 3: Was hat den Finnen denn dieses Utopische OC gekostet. LOL :hammer_alt:
Von wegen Trockeneiskühlung etc. :p
Wird es dann immer noch billiger? :p

Fakt 4: Ein SLI System (normal) wird mir halten, habe keine Sorge um Garantie etc.
Wie lange wird diese Trockeneisgeschichte halten? 2x 3DMark oder vielleicht sogar 4x? :D

HAHAHA :mad:
 
Zuletzt bearbeitet:
Sli kannst garnicht so kühlen weil die dinger ja wien sandwich aneinanderkleben...
wieviel slots belegen die eigentlich? 4... je 2 :) schön das der pc jetzt nur noch aus grafikkarte besteht...
aber mal zu was andrem
die haben nicht umsonst Ultra karten im Sli modus genommen...
so wie man nvidia kennt hätten sie sich was schönes draus gemacht wenn schon die GT im Sli ne xt pe geschlagen hätte aber das ist wohl nicht der fall :)
zu Fakt 4...
welcher normale (normal kann man eigentlich nicht bezeichnen wenn man 450€ für ne grafikkarte ausgibt sind ja immerhin 900DM, aber das mal beiseite weil ich es auch machen würde ^^) mensch kauft sich 2 Grafikkarten und dazu noch die hardware ?
das ist vollkommen überzogen und kostet sehr viel geld und brauch viel platz im pc... schließlich will nicht nur ich da noch was andres einbauen können als grafikkarte.
 
die slots liegen etwas weiter auseinander, sodass man nur 2 slots brauch. kühlung ist da auch kein problem.

aber wie schnell es wirklich ist kann man erst sagen wenn SLI endlich da ist.
vorher ist jede diskussion über die leistung von sli sinnlos.
 
ganz sinnlos mag es vlt nicht sein aber wieviel prozent von allen werden sich das zulegen ?
mehr oder weniger als 1% ?
es wird genauso untergehen wie die meisten entwicklungen von beiden seiten...
da gab es mal nen sehr guten artikel irgendwo...
TruForm usw. was alles in den hintergrund gefallen ist.
 
p00chie schrieb:
Sli kannst garnicht so kühlen weil die dinger ja wien sandwich aneinanderkleben...
wieviel slots belegen die eigentlich? 4... je 2 :) schön das der pc jetzt nur noch aus grafikkarte besteht...

Wer sagt Dir das? Wo ein Wille ist, war schon immer ein Weg!
Und wieviele Slots das belegt, ist egal, da zwischen den PCX Slots ohnehin nicht ist, kann mir HÖCHSTENS wie bisher ein einziger PCI Slot verloren gehen. Also, so what?

aber mal zu was andrem
die haben nicht umsonst Ultra karten im Sli modus genommen...
so wie man nvidia kennt hätten sie sich was schönes draus gemacht wenn schon die GT im Sli ne xt pe geschlagen hätte aber das ist wohl nicht der fall :)

Spekulation oder?
Aber btw. 2 GT´s kann ich ohne Trockeneiskühlung auf Ultra übertakten. :D

zu Fakt 4...
welcher normale (normal kann man eigentlich nicht bezeichnen wenn man 450€ für ne grafikkarte ausgibt sind ja immerhin 900DM, aber das mal beiseite weil ich es auch machen würde ^^) mensch kauft sich 2 Grafikkarten und dazu noch die hardware ?
das ist vollkommen überzogen und kostet sehr viel geld und brauch viel platz im pc... schließlich will nicht nur ich da noch was andres einbauen können als grafikkarte.
Sorry, aber das ganze kostet mich keinen Pfifferling mehr, als wenn ich mir jetzt eine X800XT kaufen würde (kann man die überhaupt kaufen?) und mir in 2 Jahren wieder eine neue zulegen muß. Mit dem SLI System komme ich aber mit Sicherheit weiter als 2 Jahre.
Warte einmal ab, wenn nun außer dem Intel E7525 Boards mit 1x 16 und 1x8 PCX Schnittstellen weitere Boards kommen werden. Dann schau einmal wieviele User 2x6600GT, 2x6800GT oder 2x6800Ultra´s haben werden!
Das werden nicht wenige sein. Ich kann mir sogar ein Comeback des SLI vorstellen wie er zu Voodoo Zeiten war.
 
Wer sagt Dir das? Wo ein Wille ist, war schon immer ein Weg!
Und wieviele Slots das belegt, ist egal, da zwischen den PCX Slots ohnehin nicht ist, kann mir HÖCHSTENS wie bisher ein einziger PCI Slot verloren gehen. Also, so what?
<-- das man meistens nur 3 pci1 slots hat und wenn einer wegfällt hat man nur noch 2 (gute rechnung wa ;) ) und mit 2 pci slots kommen nicht viele aus. btw die x800pro kann man auch ohne probleme auf XT meistens ohne PE bringen durch freischalten der pipes...
außerdem ist es viel besser aller 2 jahre ne neue grafikkarte zu kaufen als 2 karten 4 jahre lang zu benutzen. da es ja auf den selben preis herauskommt. und denkst du auch mal an die kosten von nem Sli system in sachen stromverbrauch? die verbrauchen doppelt soviel strom aber bei keinesfalls doppelter leistung und das wird auf keinen fall bilig...
 
Zurück
Oben