News Radeon RX Vega 64 Nitro: Sapphires Custom Design hat drei Mal 8‑Pin-PCIe

Ganz ehrlich? Ich glaub das wird nix mehr mit ner Serienproduktion
 
Ap2000 schrieb:
Das wirkt doch reichlich übertrieben.
Schon mit 2x8 Pin kann man die Karte an die Grenze bringen.
...und abgesehen davon sind 525W mit 3x 90mm Lüfter nicht zu kühlen, selbst wenn
man mit Volt Mods übers Limit gehen könnte um tatsächlich mehr Leistung rauszuholen.
Die Karte wird nicht alt, wenn man sie am Limit fährt.
 
am besten im Marianengraben zocken und ein 11 Km langes Starkstromkabel mitnehmen, ihr wisst schon das rote runde. Der Strom sollte dann reichen , naja und die Tiefe wegen der Kühlung auch.

Da greif ich mir doch langsam an den Helm:freak:
 
über 500 Watt um beim übertakten dann annähernd an eine 1080ti ran zu kommen wenn überhaupt..

versteht mich nicht falsch. Ich hab bis dato nur AMD grafikkarten gehabt und mir macht der stromverbrauch meiner sapphire 280x langsam sorgen. man wohnt allein, ist student.. da macht sich eine 1060 im vergleich zum verbrauch schon viel besser..
AMD hat in der CPU sparte was tolles abgelegt. Ich möchte mein Ryzen 1600 nicht abgeben.. aber die GPU sparte könnte mal jemanden wie Lisa Su gebrauchen. Die wird als CEO etc. ja schon eine treibende kraft gewesen sein.

Verständlich das Koduri nicht mehr bei AMD ist. Ich kann mir gut vorstellen das er mehr wollte als Vega..
NVidia würde mit 500+ Watt einiges mehr als das zustande bringen.. und das sagt jemand der seit über 15 jahren AMD supportet

edit

und nochmal, versteht mich nicht falsch. Die 300 bis 400 watt (vgl computerbase test) für eine Vega 64 wären okay.. aber nicht bei der Leistung. eine 1080ti kann die nicht ausreizen.
Wenn der Chip nur ansatzweise gut konstruiert wäre, wäre viel viel viel mehr leistung drin. Vega profitiert von mehr Verbrauch. Das kann man umsetzen.
 
Zuletzt bearbeitet:
In Tech Foren sollte man meinen haben die Leute ein wenig Ahnung und bashen nicht nur rum.. aber wie man sieht, irrt man sich da..
4 Seiten lang nur Ahnungsloses gebashe mit paar ausnahmen dazwischen..

Ich selbst betreibe eine VEGA 64 und die Karte zieht nie mehr als 200 Watt egal was ich Spiele..
 
#Seneca schrieb:
Wenn es AMD nicht hin bekommt, die Packages vernünftig herstellen zu lassen...


Mal Überlegen, die von AMD gefertigen VEGA Karten sind alle sehr gut lieferbar und verfügbar. Die Partner kleben nur kleine Aufkleber auf die Karten, der Rest kommt von AMD... AMD kann keine Chips an Partner liefern... Mhhh, 1+1=3 in welchem Szenario verdient AMD denn jetzt mehr? Nur den Chip oder die fertige Karte an die Partner verkaufen?

Ich denke das hat Strategie, AMD machts wie 3DFX am Ende ihrer Laufbahn. Da wurden auch keine Chips mehr an Parner verkauft, sondern man wollte den maximalen Gewinn eintreichen und einziger Kartenhersteller sein und man konnte Karten nur doch von 3dfx kaufen.
Kleines Rätsel, welche Firma war ein Jahr später pleite???
 
Zuletzt bearbeitet:
Payne19 schrieb:
Da haben sämtliche Tech-Seiten aber etwas anderes gezeigt... Dir ist schon klar, dass CPU, RAM, Auflösung und viele andere Faktoren da mitspielen und ggf. limitieren? Und btw. wie misst du den Verbrauch der Grafikkarte überhaupt?
 
Payne19 schrieb:
In Tech Foren sollte man meinen haben die Leute ein wenig Ahnung und bashen nicht nur rum.. aber wie man sieht, irrt man sich da..
4 Seiten lang nur Ahnungsloses gebashe mit paar ausnahmen dazwischen..

Ich selbst betreibe eine VEGA 64 und die Karte zieht nie mehr als 200 Watt egal was ich Spiele..

Ich weiß nicht wie du spielst und ob updates und patches bisher was verändert haben.. aber benches und tests sprechen für sich...
Ich zitiere computerbase bei dem Test von Vega 64 und 56..

Maximiert man das Power Target, explodiert der Leistungsbedarf deutlich: Die Radeon RX Vega 56 genehmigt sich dann zusätzliche 109 Watt und erreicht im Schnitt 342 Watt. Die Radeon RX Vega 64 kommt auf Plus 106 Watt und knackt damit gar die 400-Watt-Schallmauer. Das ist ein Wert, den man selbst mit einer stark übertakteten GeForce GTX 1080 Ti nicht einmal im Ansatz erreicht. Partnerdesigns mit mehr Spielraum beim Verbrauch werden es nicht leicht haben, leise zu bleiben.
Siehe https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/ -> Stromhunger in Spielen.


edit: Wie gesagt, etwas weiter oben, ich bin kein fanboy.. ich mag AMD und hab nur AMD im Case.. aber es ist schon nicht mehr feierlich.
 
Nur weil ich einen 3. oder 4. 8-Pin auf die Karte löte, heißt es nicht das die Karte diese dann automatisch voll auslastet
 
Payne19 schrieb:
Nur weil ich einen 3. oder 4. 8-Pin auf die Karte löte, heißt es nicht das die Karte diese dann automatisch voll auslastet

Nein, das stimmt wohl. Aber die Vanilla Vega von AMD braucht schon 400 Watt bei maximierten Powertarget.
DU müsstest, um 200 Watt zu erreichen, auf -20% Powertarget spielen und wärst nicht schneller als eine gute Polaris.
Die Vega schluckt, das ist Fakt. Jeder Test und Bench kann das zeigen. Und erstmal müsstest du zuverlässig testen können wie viel die Grafikkarte alleine verbraucht. Das ist selbst für Redaktionen nicht einfach mal so gemacht.
400 Watt für eine Standard Vega im Vergleich zu den 212 Watt einer 11GB 1080 Ti.. ist nicht tragbar, selbst als AMD Fan nicht.
Deine 200 Watt von vorher sind unrealistisch und die 500 Watt wird diese Karte sprengen mit der richtigen Kühlung. Die Karte kann das bestimmt, keine Frage.. aber ist es das WIRKLICH wert?
 
ThmKc schrieb:
Für Gaming ist und bleibt Vega ein Fail. In 90% der Fälle wird Vega 64 von einem Konkurrenten in Schach gehalten, der mit über 70% weniger Transistoren auskommt

Ich hab ja nichts gegen kreative Mathematik, aber das ist totaler Bullshit.
12,5 vs 7,2 sind vieles, aber nicht "70% weniger" :rolleyes:
 
Erst total spät und dann 3x8Pin ?
Wird ja auch jeder haben :lol:

Noch ein Grund mehr mMn für eine 1080/1080 ti, sofen die anderen Custom Karten es besser machen.....wenn die überhaupr mal kommen :(
 
Ich hab irgendwann mal geschaut, wieviel Strom die jeweiligen Modelle aus dem PCIe-Slot beziehen und war überrascht.
Warum wird bei Karten, die einen Stromstecker haben (und mehr als 75W verbrauchen können) eigentlich nicht direkt der ganze Strom vom Netzteil geholt? (und der PCIe-Slot einfach nur als Datenverbindung genutzt)

Adapter für PCIe-Stromstecker würde ich nicht verbauen. Ich verzichte wenn möglich auf jede zusätzliche Steckverbindung. Hat mehr Widerstand und ist fehleranfälliger als ein verlöteter Kontakt.

Meine Radeon 9500@9700 damals hatte nur eine weiße Floppy-Laufwerk-Strombuchse und die war nach mehreren Jahren Gebrauch etwas braun geworden zwischen 2 Pins.

Würde mir aber keine Graka mit mehr als 200W Verbrauch kaufen. (Temperatur <> Lautstärke, Lebensdauer der Karte)
Dann warte ich lieber 1-2 Generationen und bekomme dann eine ähnliche Leistung in der Mittelklasse.

Und gerade die OC-Modelle der 1080/TI verbrauchen auch mal schnell mehr als die Referenz-Version.
 
Zuletzt bearbeitet:
Also erstmal geiles Design spricht mich von der Optik sehr an.
Ich denke es reicht die Karte mit 2x8pin zu versorgen^^
 
Zurück
Oben