[Erfahrungsbericht] Leadtek Winfast PX8800 GT

Lotusbloom

Commander
Registriert
Apr. 2003
Beiträge
2.107
Erfahrungsbericht mit der Leadtek Winfast PX8800 GT

leadtek8800rq4.jpg


So, Leutz: Heute ist es soweit … ich stelle hier meinen Erfahrungsbericht mit meine neuen Grafikkarte ein. Dabei handelt es sich um das Modell PX8800GT aus der Winfast-Serie von Leadtek. Ich schrieb diesen Bericht, weil Leute wie Foxman oder y33h@ mit ihren Erfahrungsberichten vielen Unschlüssigen helfen, die für sie richtige Kaufentscheidung zu fällen. Ich hoffe, auch ich kann Einige unterstützen!



Die technischen Daten der Karte entsprechen den Standard-Vorgaben von NVidia.

Chiptakt: 600MHz
Speichertakt: 900MHz, 512 MB DDR3
Unified Shader/Pixel-Pipelines: 112@1500MHz
Shadereinheiten: 112 (1D)
ROPs: 16
Pixelfüllrate: 9600 MPix/s
Speicherbus: 256-bit
Speicherbandbreite: 57600 MB/s

Die Karte ist ca. 23cm lang und passt ohne Weiteres in mein recht kleines Cooler Master Elite 330. Dank eines ordentlichen Luftzugs sollte eigentlich für genug Frischluft gesorgt sein. Die Temperaturmessung über den Treiber werden es beweisen müssen!

Beigaben bei dem Modell von Leadtek sind:

- DVI/VGA-Adapter
- TV-Out Adapter
- 6 Pin-Stromadapter
- Handbuch und Treiber
- Spiel: Neverwinter Nights 2



Ich habe mir folgendes Vorgehen überlegt: Es steht mein eigener PC mit einem C2D E4300 zur Verfügung. Ich teste mit drei verschiedenen Taktraten, um es ein wenig interessanter werden zu lassen. Ich bin selber über die Performancesteigerung gespannt …

1. Standardtakt: 9x200 MHz = 1800 MHz @ 1,0 Volt
2. OC +33%: 9x166 MHz = 2400 MHz @ 1,1 Volt
3. OC +66%: 9x 333 MHz = 3000 MHz @ 1,275 Volt

Verwendeter Treiber ist der 169.09 (vom 13.11.07) unter Windows XP Professional SP2, also vorerst ausschließlich DX9!

Der Rest meines Systems setzt sich folgendermaßen zusammen (siehe auch Signatur):

CPU-Kühler: Thermalright SI-128 SE mit einem 120mm Lüfter
Mainboard: Gigabyte GA-P35-DS3P (rev 1.0, BIOS F6)
Speicher: 2x 1024 MB DDR2 Mushkin (PC2-6400), 5.0-5-5-18
Netzteil LC-Power LC6550 (550W)
LCD: Hanns-G JC198D, 19“, max. 1280x1024



Trotz des geringen L2-Cache meiner CPU von nur 2 MB denke ich, hier allgemeingültige Werte zu erschaffen. Vielleicht findet sich der eine oder andere mit seinem System wieder. Leider kann ich maximal bis zu der Auflösung 1280x1024 testen, was sicherlich einige verärgern wird. Es ist halt nur ein Erfahrungsbericht … mein Erfahrungsbericht :)

Ich habe mich außerdem im Vorfeld dazu entschlossen, das OC-Potenzial der 8800GT erst später zu testen – vielleicht in Verbindung mit Windows Vista und DX10!

Ich habe folgende Benchmarks ausgewählt: Crysis wird am ausführlichsten mit verschiedenen Auflösungen und Einstellugen gebencht. Es folgen ein Test der Vollversion von Colin McRae Dirt (inkl. Patch 1.3), WiC Demo, Bioshock Demo, Call Of Duty 4 Demo und zu guter Letzt Lost Planet.

Ich werde vorerst nur in DX9 benchen können, sorry! Ich könnte erst zu den Weihnachtstagen meine Vista-Lizenzen (32- und 64-bit habe ich bereits hier liegen!) installieren, einrichten und den gleichen Aufwand an Benchmarking betreiben. Dann wird aber voraussichtlich jeder eine solche Karte besitzen und es niemanden mehr interessieren … Aber mal schauen, was sich in der Zwischenzeit ergibt!

Ich teste (wenn möglich) mit den integrierten Benchmark-Tools. Falls es keine gibt, wähle ich selber eine aufwändige Szene des Spiels und checke mit Fraps die Min-/Max- und Avg-Werte. Ich hoffe, das schimpft sich dann repräsentativ und wird allen gerecht! Ich verzichte übrigens auf einleitende Worte zu jedem Spiel … das wird sonst zu viel Text!

Genug gelabert … Die Benchmarks …

3dmarkug2.jpg


crysisgpumk1.jpg


Ganz offensichtlich „bremst“ hier die 8800GT, denn mit erhöhtem Takt steigen besonders mit mittleren Details die FPS. In hohen Details muss die Grafikkarte ordentlich büffeln. Es ist dennoch absolut spielbar und sieht einfach sensationell aus!

crysiscpudx8.jpg


Hier bietet sich ein ähnliches Bild wie oben, wobei der CPU-Test offensichtlich weniger GPU-lastig ist (was'n Zufall ;))

dirtye4.jpg


wicmh1.jpg


Word in Conflict ist ein gutes Beispiel für ein Spiel, dass sowohl die Leistung der Grafikkarte, als auch die der CPU frisst. So konnte das Ergebnis mit der Takterhöhung deutlich verbessert werden.

lostplanetcx9.jpg


bioshockrl8.jpg


nfsprostreetpb7.jpg


Wie ihr seht, ist auch ProStreet sehr GPU-lastig. Scheinbar interessiert sich das Spiel nicht weiter für die Geschwindigkeit der CPU, was irgendwie schon verwunderlich ist. Vielleicht ist es ja auch nur ein Bug der Demo ... wer weiß!

Temperaturen und Lautstärke

tempspa3.jpg


Wie ihr sehen könnt, wird die Karte durchaus heiß, während man sie stark belastet. Ich meine, dass ein guter Luftzug in meinem PC herrscht. Zu einem Hitzestau kommt es somit nicht!



Sieht sieht es im Hardware Monitoring von Rivatuner aus, wenn die GPU maximal belastet wird. Erst ab einer Temperatur von ca. 88° steigt die Lüfterdrehzahl von ehemals 29,8% (ca. 1600 U/Min = unhörbar) auf ca. 36% (ca. 1980 U/Min = ganz leistes Säuseln)

Sobald jedoch die 3D-Anwendung bzw. Last beendet wird, senkt sich die Lüfterleistung sofort wieder auf die 29,8%! Der Unterschied ist eigentlich hörbar - das ist mir nur beim Beobachten per Rivatuner abgefallen.



Ich habe die wichtige Stelle unübersehbar markiert ^^ Das bedeutet aber auch, dass die hohen Temperatur erst langsam abgebaut wird. Weil sich die Karte dann ja sowieso im idle-Modus befindet und sich langweilt, steht dem ja auch nichts im Wege.

Beurteilung/Gesamteindruck

Das Potential der Karte ist beachtlich. Ich besaß vorher eine angestaubte GF6600GT und ich wurde Augenzeuge eines Quantensprungs! Durchweg läuft jedes Spiel in der optimalen Auflösung meines 19“ TFT mit maximalen Details. Das Modell von Leadtek bleibt dabei sehr leise und ist aus aus dem geschlossenen Gehäuse nicht auszumachen. Ganz offensichtlich wird es von dem recht leisen LC-Power Netzteil übertönt, absolute Silent-Empfehlung. Die Temperaturen sind mit bis zu 91° (in Spielen aber häufig nur bei 85°) doch sehr hoch. Auf Dauer werde ich den Kühler wechseln, wobei dann die schöne dreijährige Garantie flöten geht.

Ich kann für die Karte eine uneingeschränkte Kaufempfehlung aussprechen. Schlagt zu, wenn ihr eine zu einem vernünftigen Preis bekommen könnt!



Also, ich hoffe, der Bericht hat euch gefallen. (Konstruktive) Kritik ist nun erwünscht :)

Bis denne :)

----------------------------------
Updates:
04.12.2007: ProStreet hinzugefügt
04.12.2007: 3DMark @ 3GHz, Bioshock und Lostplanet hinzugefügt
06.12.2007: Weitere Erläuterungen zu den Temperaturen/der Lautstärke, mit Screenshot
 
Zuletzt bearbeitet:
ja toller bericht, aber auch nicht wirklich was neues. muss man schon schüler mit viel zeit sein um das hier so ausführlich reinzuschreiben ;) trotzdem danke.

was ziemlich auffällig ist, dass doch viele spiele von ner etwas schnelleren cpu profitieren. ich merk das selbst, ob meiner auf 1,86ghz oder 2,8ghz läuft ;)

vielleicht hat der dicke olle mitm bart sowas für mich an weihnachten, ma schauen ;)
 
Danke für den Bericht. Wenn ich die Werte mit Übertaktung so sehe, dann frage ich mich, wie lange mein E6400 übertaktet noch halten wird.

Denn jetzt stellt Intel für Januar 2008 3Ghz Cpus vor, doch so weit komme ich mit dem E6400 auch ungefähr.
Anhand deiner Benchmarks erkennt man aber, dass der Unterschied lediglich zwischen 1,8 und 2,4 - nicht aber höher signifikant ist. =) (Zumindest in 1280x1024)
 
emagon schrieb:
muss man schon schüler mit viel zeit sein um das hier so ausführlich reinzuschreiben

Das war jetzt aber nicht nett ... schließlich haben es Studenten nicht minder schlechter! :p

Außerdem solltest du dich jetzt mal entscheiden, ob es interessant oder nicht ist! So eine Übersicht mit verschiedenen CPU-Taktraten habe ich bislang kaum gesehen, deswegen habe ich mir mal die Mühe gemacht.
 
Sehr guter, beinahe perfekter Bericht! ;)

Meine Wertung:

Qualität (Text, Bild, Grafik...) 9/10
Umfang (Berichtumfang...) 7/10
Übersicht (Kapitelübersicht...) 10/10
Struktur (Gesamtstrukturierung...) 9/10

Gesamtwertung: 8,75!

Nur weiter so! :)

LG
Ganeagon

PS: Die unterschiedlichen CPU-Taktraten stellen ein deutliches Plus dar.
 
hi, vielen dank für den guten bericht und die mühe/aufwand :) war sehr informationsreich
 
Hi,
also ich finde dieser Bericht ist echt genial. Vielen dank! Hat Spaß gemacht den zu lesen.
 
Wirklich toller umfangreicher Test!

Hab da nur eine Frage, läuft dein E4300 bei 3 GHz und 1,275 Volt stabil! Ich musste ihn bei mir so einstellen, das er unter Last nie unter 1,31 Volt fällt.

Zum Test, da ich selber eine GT von MSI habe kann ich noch ergänzen das meine bei 3 GHz CPU und nicht übertakteter Grafikkarte im 3DMark05 17839 Punkte und im 3DMark06 11981 Punkte schafft.

Gruß
 
Mein_ED9 schrieb:
Hab da nur eine Frage, läuft dein E4300 bei 3 GHz und 1,275 Volt stabil!

Wie hätte ich denn sonst den Test erstellen können? Hier läuft alles absolut stabil! :)

Mein_ED9 schrieb:
meine bei 3 GHz CPU und nicht übertakteter Grafikkarte im 3DMark05 17839 Punkte und im 3DMark06 11981 Punkte

Wieso taktest du ein OC-Modell herunter? Ich habe mittlerweile den 3DMark-Bench aktualisiert und komme auf ganz ähnliche Werte!
 
Sehr schön gemachter Bericht! sehr fein.

Besitze selber die gleiche Graka und muss sagen geiles teil :evillol:
 
Hallo,
Sorry hab mich da wohl falsch ausgedrückt! Habe natürlich nicht runter getaktet. Meinte damit das ich nicht weiter Übertaktet habe. Meinst du das liegt am Chipsatz oder Board selber das du 1,275 Volt schaffst? Habe selber ein G33er Board
 
mal auch von mir ein lob ich find das echt klasse was ihr 3 macht foxman , y33h und du vorallem mit den 3 neuen karten da können echt die die wo sich unsicher sind welche sie jetz kaufen einfach nachlesen und sich entscheiden sehr gut weiter so
 
Mein_ED9 schrieb:
Meinst du das liegt am Chipsatz oder Board selber das du 1,275 Volt schaffst? Habe selber ein G33er Board

Puh, gute Frage ... ich würde es nicht automatisch auf den Chipsatz bzw. Board schieben. Vielleicht macht deine CPU auch nicht mehr mit.
 
Ähm ... ja, definitiv!! Das wird dann wohl in 3 Jahren sein ... ich meld mich! :lol:

In 14 Tagen habe ich Zeit für Windows Vista respektiv DX10 und das OC-Potenzial. Wer hat bis dahin noch eine Idee für einen sinnvollen und interessanten Benchmark?

Was auf die Schnelle in der vergangenen Nacht nicht funktioniert hat waren Fear, Stalker und Prey ... es gab verschiedene Probleme, die sich in der kurzen Zeit, die ich zwischendurch oder am späten Abend (= Nacht) opfern kann, nicht lösen konnte.
 
Kompliment, schöner Bericht, auch wenn leider etwas zuviel auf die CPU eingegangen wird, wie ich finde. Andererseits hast du da eine sehr interessante CPU zum Vergleich herangezogen, da ich alleine im Bekanntenkreis 4 Leute weiss (inkl. MICH) die nen 4300er auf 3 Ghz haben.
Die Grafiken dürften so manches online-Magazin vor Neid erblassen lassen, übersichtlich, nicht "too much", informativ.
Bin gespannt was du nach dem OCing schreibst, besonders wegen den Temperaturen.
 
Respekt und Annerkennung!
Wirklich sehr Nice anzuschauen.;)


Was mir aufgefallen ist:
Bioshock profitiert wohl von langsamen CPU´s am meisten:lol:

Gruss Foxman
 
ToNkA23 schrieb:

Das erinnert mich an das "to slow" von THG //*klick*// Immer wieder lustig ... :D

Aber danke für's Kompliment. Wie gesagt - erst in der Woche vor Weihnachten habe ich Zeit für weitere, tiefer gehende Tests ... Sry!

Foxman schrieb:
Was mir aufgefallen ist: Bioshock profitiert wohl von langsamen CPU´s am meisten

Ja, da habe ich wohl schlecht gemessen ... das fällt dann unter den Posten "Messungenauigkeit". Aber bei so hohen FPS ist es schlichtweg Wurst, wie viel MHz der DualCore-Prozessor hat. Mit meiner 6600GT lief es jedenfalls net so fix. Das Spiel lutscht eben nur an der Graka und vergisst den Rest.
 
Zuletzt bearbeitet:
Zurück
Oben