Test Test: ATi Radeon X1950 Pro

Was bedeuten denn die verschiedenen Farben der Balken in den Diagrammen?
 
wo meinst?

also nicht im 3D mark, auch in den spielen.........
eine gto ist ja e das gleiche wie ne normale 7900gt oder??
kann mich wer aufklären?
mfg ^^
 
Die GTO ist eine runtergetaktete 7900GTX. Ansonsten sind die GTO und GTX baugleich.

Deine 7900GT taktet @ default nur mit 450MHz GPU- und 1380MHz Speichertakt.

mFg tAk
 
ich hab aber ne gto :) deswegen...
bin draufgekommen weil ich nomal den händler fragte....
;)

also erklärung büdde
der treiber schreibt zwar GT/GTO aber laut hersteller und beschreibung ists ne gto ^^

EDIT: also laut händler

EDIT: Oder etwa doch nicht?
fakt ist die taktraten die du mir schriebst stimmen net ganz überein mit meinen ^^
 
Zuletzt bearbeitet: (ups)
da du ne asus hast wirds wohl ne gt sein
die haben keine gto
11-1080.1866151902.jpg

das ist der kühler der gto
kannst ja mal nachschauen;)

EDIT: sorry aber die kühler haben ja mal gar kein ähnlichkeit :lol:
du hast ne 7900gt, welche von asus leicht übertaktete wurde
 
Zuletzt bearbeitet:
das is mein kühler, eindeutig!!

aber ich hab trotzdem ne asus aber
hmm
ne gtx vlt?
muss mal gucken auf verpackung
aber es is fix ne asus :)

EDIT;
ok back to topic

was ich mir nicht ganz vorstellen kann ist das eine CPU mit AGP
diese Karte auch noch voll ausreizt...
 
Zuletzt bearbeitet:
Wo steht so eine X1950 Pro denn im Vergleich zu einer X800XT? Hat da jemand brauchbares Material drüber?

Wenn die nicht mindestens doppelt so schnell ist, rüste ich nicht auf.
 
@ it_is_me:

Was ist es denn nun? Hast du den GTO/GTX drauf?

mFg tAk
 
Ich hätte mir in dem Test zusätzlich die Powercolor X1950 Pro mit 512 MB gewünscht.
Die Extreme wird ja auch mit 512 MB angeboten. Da ist die Frage ob die Mehrkosten von 40 € einen Sinn machen. Daher fehlt mir hier in dem Test was ganz wichtiges.

Gruß

Jürgen
 
512MB bringen bei einigen Spielen und sicherlich bei kommenden mit entsprechenden Einstellungen schon etwas. Nur die Frage bleibt, ob die X1950Pro in Zukunft genug schnell sein wird um entsprechende Settings mitdarstellen zu lassen.

mFg tAk
 
was sie nicht sein wird ...

bei Gothic3 ist sie ja jez schon am limit.
und da kommen noch viel fettere kaliber.

cYa
 
wie kommt ihr auf so einen hohen stromverbrauch im idle? das kann ja nie hinhauen, mein system verbraucht 115w im idle. der lastwert entspricht so ungefähr der angegebenen werte mit einem graka takt von 660/830, fehler unterlaufen?
 
Wenn man genau hinguckt kann ich da Pidel0 nur zustimmen, die Werte sind echt viel zu hoch.
Ich komm mit nem San Diego @ 2600MHz und ner 6600GT auf gut 90 Watt idle.
Im Cool and Quiet dürfte die CPU nicht viel mehr ziehen, vieleicht 10 Watt.
Ne 7600GT dürfte nicht mehr brauchen als ne 6600GT, Chipsatz hab ich nen XPress2000, der braucht etwa 12 Watt weniger als mein NForce 4, geben wir dem SLI nochmal 10 Watt extra, dann fehlen immer noch etwa 30 Watt.
Unter Last legt mein System ~60 Watt zu, eures nur 50, da stimmt was nicht.
Habt ihr evtl. Cool and Quiet nicht an ?
 
Cool`n`Quiet haben wir absichtlich deaktiviert, das wird wohl auch die Differenz erklären:)
 
das sollte man vielleicht auch am rande auch bemerken, solche daten schrecken doch deutlich ab, ich hatte jedenfalls schon angst bekommen von den 170w:)
mfg
 
Wolfgang schrieb:
Cool`n`Quiet haben wir absichtlich deaktiviert, das wird wohl auch die Differenz erklären:)

Guten Tag!

Unter 3DMark06 wird ja auch die CPU etwas belastet. Ist der Stromverbrauch der CPU bei deaktiviertem Cool'n'Quit wirklich genau gleich hoch wie im Idle?
Und kann der Stromverbrauch der Grafikkarte wirklich nicht genauer gemessen werden, z.B. mittels einem modifizierten PCIe-Slot mit dazwischen geschaltetem Strommessgerät (Ist ja dank Gleichstrom nicht so aufwendig)?

Ich finde es allerdings schon toll, dass der Stromverbrauch von Komponenten ganz allgemein mehr Beachtung findet und sowohl im Test wie auch im Forum ein Thema ist.

Grüsse,

Florio
 
@Florio:
Sowas gibts bestimmt für messungen im Labor. Aber sowas ist dann sicher kein Massenprodukt und wird entsprechend teuer sein. Ist die Frage ob sich da die Investition lohnt um da den Wert um ein Watt genauer rauszubekommen.

@TcT:
dürfte ausreichen
 
Zurück
Oben