Wieso keine bessere Hersteller Optimierung aktueller und künftiger GPU's ?

Ist das nicht einfach eine TUF mit Bracket und zwei 12x25? Warum die jetzt bei der 3080 auch wieder die Braunen genommen haben habe ich mich auch gefragt. Geht da wohl auch um den Wiedererkennungswert. Erkennt ja keine Sau dass da Noctua drin steckt wenn sie die schwarzen genommen hätten. :freaky:
 
  • Gefällt mir
Reaktionen: Chri996
|SoulReaver| schrieb:
Glaubst du jeder der sich was nicht zu traut und "Angst" sich die Karte zu zerschießen ist zu faul oder was?

Was ich glaube ist egal. Darum geht es nicht.

Wenn du denkst die Angst verschwindet weil man weniger Knöpfe drücken muss, hast du auch nur durch Unwissen geglänzt - weder Garantie für stabilen Betrieb, noch für etwaige Schäden wären damit abegesichert, denn es ist und bleibt ein Eingriff in die Herstellerspezifikationen und damit ist die Gewährleistung und die Garantie nunmal flöten.

Wenn du einfach nur sicher Undervolten willst dann dreh' das Powertarget runter, den Rest regelt die Karte von allein. Dann stürzt nichts ab, es wird nicht so heiß und die Karte wird sehr wahrscheinlich erheblich effizienter arbeiten. Alles was du wolltest, mit nur einem Schieberegler und ohne Angst haben zu müssen etwas kaputt zu modden.
 
Zuletzt bearbeitet:
Wenn der Hersteller jede fertige Grafikkarte auf seinen niedrigsten Stromverbrauch bei voller Leistung einstellt nimmt er dafür Geld und bewirbt es mit besonderer Effizienz.
Zack, und schon ist die Summe, die du direkt an der Steckdose sparst dreimal beim Hersteller gelandet.
Man nimmt msi afterburner und stellt selbst das Optimum ein und spart sich das Geld.

Du kannst ja auch selektierte CPUs kaufen. Sie kosten halt mehr.
Für den Otto Normalzocker sinnfrei.
Der Enthusiast kauft mehrere und lotet aus, der Rest geht zurück.
 
Danke für eure rege Teilnahme zum Thema. Habt natürlich recht mit euren Aussagen weshalb die Hersteller da so viel Saft drauf geben und das es an jeder einzelnen GPU selbst liegt was sie mit macht. Aber ich denke wie gesagt das da Effizienz technisch um einiges mehr geht und denke dass die Hersteller auch die Mittel/Tools haben diese noch weiter auszureizen und zu optimieren.

Wie gesagt ich hab mich mit dem Thema sehr viel befasst, gerade aufgrund meiner eigenen uv/oc Versuche und der Großteil der 6800XT Karten würden eine 1050mv Spannung im Standard Takt sicherlich mitmachen. Ggf. wäre es sogar super wenn sie in ihren Treibern eine Funktion einbauen würden um die Effizienz, je nach Chip den man auf seiner Grafikkarte hat, automatisch auszuloten und anzupassen, um die Effizienz dahingehend zu verbessern und damit meine ich jetzt nicht irgendeinen pauschalen Eco Modus zu aktivieren.

Da müsste man noch nicht einmal von Werk aus dann jeden einzelnen Chip überprüfen, sondern könnte das dem Kunden überlassen. Daher denke ich würde da Effizienz mäßig noch um einiges mehr gehen, wie die Hersteller es dann anstellen, ist mir als Kunde dann ehrlich gesagt egal.
Ergänzung ()

aber wie auch schon einige dazu meinten, solang da nichts vom Kunden gefordert wird, wird da in die Richtung wohl auch nichts kommen
 
Zuletzt bearbeitet:
Du wiederholst dich und ignorierst die 15-30% die es nicht mitmachen. Ebenso kannst du bei 1050mv nicht mehr garantieren dass es immer und in jeder Anwendung stabil läuft.

Oft genug müssen hier gpu/cpu/ram oc/uv geandert werden, weil sie durch neue bios, neue treiber oder neue Software Instabil werden.
Ergänzung ()

Nebstbei wusste ich nicht wie du ne 6800 noch effizienter machen willst. 200w gpu package ist super fur die Leistung die man bekommt. Das ist der sweet Spot der aktuellen Generation.

6800 XT/6900XTliegen darüber fur 4k und Enthusiasten.
Was hindert dich daran die GPU zu kaufen die offensichtlich die Wünsche erfüllt?
Die letzten % waren schon immer deutlich verbrauchsfreudiger. Egal ob GPU oder CPU.

Es gab hier im Forum auch schon Karten die sogut wie kein UV konnten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Chri996
Fuchiii schrieb:
Nebstbei wusste ich nicht wie du ne 6800 noch effizienter machen willst. 200w gpu package ist super fur die Leistung die man bekommt. Das ist der sweet Spot der aktuellen Generation.

6800 XT/6900XTliegen darüber fur 4k und Enthusiasten.
Was hindert dich daran die GPU zu kaufen die offensichtlich die Wünsche erfüllt?
Die letzten % waren schon immer deutlich verbrauchsfreudiger. Egal ob GPU oder CPU.
Was genau willst du jetzt von mir ? von einer RX 6800 non XT war hier nie die Rede und meine 6800XT läuft auf 6900XTXH Niveau mit 1020mv statt der Standard mäßigen 1175mv.
 
Wen interessiert der Stromverbrauch wenn man Strom aus Sonne erzeugen kann ? Stichwort Balkonkraftwerk.
Klar ist es Kacke nur bei Sonne Zocken zu können aber besser als sich draußen Hautkrebs einzufangen. :daumen:

Selbst wenn eine Grafikkarte 500 Watt braucht und man pro Tag 4 Stunden im absoluten GPU Limit zockt
dann sind das pro Jahr gerade mal 220€ Stromkosten. Da man nicht jeden der 365 Tage zockt, eher 150€.

Wie viel kostet aktuell nochmal eine Tankfüllung fürs Auto und wie viel braucht man davon pro Jahr !? :evillol:
 
  • Gefällt mir
Reaktionen: Chri996 und Fuchiii
Oh man, exakt. DEiNE 6800XT. Das schafft nicht mal im Ansatz jede Karte. Und wie (lang) das wirklich stabil ist, weist du ebenfalls nicht.

Davon abgesehen, was schluckt deine Karte jetzt auf "6900XTXH" Niveau?

Die 6800 hat soweit damit zu tun, dass es die effizienteste Karte der Serie ist. Offensichtlich war dir Effizienz aber doch nicht ganz so wichtig wie maximale Leistung.

Und dann aber im Nachhinein beschweren, super xD

Aber ich gab jetzt keine Lust mehr gegen Windmühlen zu kämpfen :)
 
  • Gefällt mir
Reaktionen: Chri996
Fuchiii schrieb:
Oh man, exakt. DEiNE 6800XT. Das schafft nicht mal im Ansatz jede Karte. Und wie (lang) das wirklich stabil ist, weist du ebenfalls nicht.
Iguana Gaming schrieb:
Wenn selbst 1050mv im Schnitt bei 2.3GHz Turbotakt reichen würde !
Lesen im Kontext ist nicht wirklich deine Stärke oder ? auch dein Poste zuvor schon und meine 6800XT schluckt im Schnitt mit 1020mv keine 200W und hat Peaks von bis zu 230W.
 
Lol, genau. Ich bin das Problem. Nicht du, der nur unsinn erzählt und jedes Gegenargument einfach ignoriert. Genauso dass ein unternehmen wirtschaftlich arbeiten muss.

Melde dich wieder wenn du rund 1000 Karten so in 50-100 verschiedenen Spielen und Anwendungen auf verschiedenen Betriebssystemen in unterschiedlichen Hardwarekombinationen unter diversen Bedingungen etwa 6 bis 12 Monate so betrieben hast.

Du bist Kurzsichtig und uneinsichtig und denkst du bist der geilo Typ. Auf dich hat AMD gewartet! Was wissen schon die hochstudierten Ingenieure von denen :D


Sry, aber du bist ne Lachnummer :D
 
Iguana Gaming schrieb:
Was genau willst du jetzt von mir ? von einer RX 6800 non XT war hier nie die Rede und meine 6800XT läuft auf 6900XTXH Niveau mit 1020mv statt der Standard mäßigen 1175mv.
Ergänzung ()

Iguana Gaming schrieb:
und meine 6800XT schluckt im Schnitt mit 1020mv keine 200W und hat Peaks von bis zu 230W.
Da müsste dann aber schon mehr drin sein...oder sind das deine 200W?
200W?
 
Zuletzt bearbeitet:
Es geht ja um deine ~200W Verbrauch...und da liegst Du ja angeblich auf dem Level einer RX 6900 XTXH.
Die reine Punktezahl sagt ja alleine nichts aus, wenn der Verbrauch nicht angegeben wird.

Eine stock (unverbastelte) RX 6900 XT wie hier

RX 6900 XT.png


kann man auch mit einer kleinen RX 6800 schlagen....nur will man dann den Verbrauch nicht wissen :evillol:
 
Beim benchen lag der Verbrauch in etwa bei 250-270W, statt den 350W mit der 1175mv im Standard, wenn ich zocke liegt er halt bei 200-230W je nach Game. Werte wurden mit HWmonitor und Afterburner ausgelesen.
Ergänzung ()

Wurde übrigens auch alles nur mit dem AMD Treiber und nicht mit MPT eingestellt. Mit MPT wäre wohl noch etwas mehr drinne gewesen.
 
DaHell63 schrieb:
Eine stock (unverbastelte) RX 6900 XT
Eine stock 6900XT macht gut mehr als 18.7k. ~20k sind mit ner 6900XT ohne Gefummel normal. 21-22k bei maximalem Tuning über wattman. >22k mit MPT.

Meine 6900XT Red Devil (XTX non-H) war ab Werk bei 20.7k: http://www.3dmark.com/spy/24289947
 
Deine RED Devil ist aber auch keine RX 6900 XT FE :D

Es gibt halt auch gute und weniger gute Chips. Ich kann da jetzt auch nur mit der RX 6800 vergleichen

Und abseits von den LUXX Ergebnissen (oder anderen Ranglisten), gibt es auch eine andere Welt...und da gibt es genügend Karten die auf dem Level vom Release arbeiten. Wird bei allen Karten so sein. Nur tauchen die meist nirgends auf.

Das ist das, zumindest habe ich das so verstanden, was @Fuchiii bemängelt. Nur weil Karte XY bestimmte Taktraten/Verbrauch schafft, ist es trotzdem unmöglich eine allgemeine Anleitung zu geben, oder eben eine Software für Takt XY bei Verbrauch Z zu verlangen. Dafür haben die Chips eine viel zu große Range.

Wem natürlich das Glück ein wenig hold war hat da mehr Möglichkeiten.
 

Anhänge

  • RX 6800.png
    RX 6800.png
    962,2 KB · Aufrufe: 157
  • Gefällt mir
Reaktionen: Fuchiii
DaHell63 schrieb:
Deine RED Devil ist aber auch keine RX 6900 XT FE :D
Klar, die Ref ist aber sicher keine 2k Punkte langsamer, das sind knapp 10% Unterschied.

Gleiches Power Limit ab Werk und 4% OC, das sich zu <4% echtem Taktunterschied bei Last ergibt.
 
Iguana Gaming schrieb:
Beim benchen lag der Verbrauch in etwa bei 250-270W
Sag ich doch... Dann behaupte bitte nicht deine Karte schluckt 200W :freak:


Meine 6800 schluckt unter Vollast 200W. Unter Teillast natürlich weniger.
 
  • Gefällt mir
Reaktionen: Chri996
Powl_0 schrieb:
Klar, die Ref ist aber sicher keine 2k Punkte langsamer, das sind knapp 10% Unterschied.
Und doch erreicht er mit seiner RX 6900 XT nur 18700 Punkte...siehe oben....auch wenn es angeblich nicht mglich ist.

Bei AMD kommt es mir so vor, daß der Griff in die Wundertüte entscheidend ist...nicht das große Können der User.

Nicht mal bei der selben Karte ist es gewährleistet, daß man die selbe Performance bekommt.
Ziemlich aktueller Test von einer ASUS RX 6800 STRIX. Der Reviewer ist sehr angetan davon.

Nur ist die Leistung hier nicht mit meiner STRIX vergleichbar. Für das Ergebnis muß der gute Mann 228W TGP abrufen, währen meine das selbe Ergebnis mit ~150W TGP erreicht. Bei seinem OC Ergebnis muß ich meine Karte noch einbremsen.
https://www.3dmark.com/spy/19654671

Und das kommt sicher nicht davon weil ich der große Checker bin......sondern eher davon, daß ich als alter Eber auch Schweineglück hatte.
Und genauso wird es auch bei anderen Karten sein, bei deren Ergebnissen man sich fragt wie die zustande kommen.

Im Endeffekt reden wir hier von ein paar %/FPS die im Spiel eigentlich nicht entscheidend sein sollten, sondern nur in der Welt des Benchmarks eine große Rolle spielen ;)

Wenn man sich die Unterschiede beim CB23 ansieht, ist es doch bei den CPUs das selbe Spiel....Wundertüte.
 

Anhänge

  • Screenshot 2022-06-22 121401.png
    Screenshot 2022-06-22 121401.png
    1,8 MB · Aufrufe: 150
  • Screenshot 2022-06-22 121519.png
    Screenshot 2022-06-22 121519.png
    1 MB · Aufrufe: 155
  • Screenshot 2022-06-22 121706.png
    Screenshot 2022-06-22 121706.png
    2,9 MB · Aufrufe: 151
DaHell63 schrieb:
Und doch erreicht er mit seiner RX 6900 XT nur 18700 Punkte...siehe oben....auch wenn es angeblich nicht mglich ist.
Ich sage nicht dass es nicht möglich ist. Klar ist es das, wenn was anderes limitiert oder falsch eingestellt ist.

Vielleicht Freesync an, oder schlechter Airflow im Gehäuse, oder kurz mal ein CPU Limit (vielleicht weil was nebenbei lief), etc...
Ergänzung ()

DaHell63 schrieb:
Für das Ergebnis muß der gute Mann 228W TGP abrufen, währen meine das selbe Ergebnis mit ~150W TGP erreicht. Bei seinem OC Ergebnis muß ich meine Karte noch einbremsen.
https://www.3dmark.com/spy/19654671
? In dem Video ist nirgends gesagt ob er manuell OC betrieben hat oder gar welche Settings. Die 228W sind unklar ob TGP oder TBP.

Mit gleichen Settings werden eure zwei Karten sicher nicht weit voneinander entfernt sein.
Erst recht nicht so weit, wie du es hier offenbar siehst.
 
Zuletzt bearbeitet:
Zurück
Oben