News GeForce RTX 3090 und 3080: Gainward Phantom GS mit bis zu 1.845 MHz bei 420 Watt

Pizza! schrieb:
Ich bin mir nicht mehr 100% sicher bei wem das alles war. Auf jedenfall 1200 Watt, was ja eigentlich mehr als genug haben sollte, hatten Probleme mit der 3080 und 3090.
Was ansich einfach beeindruckend ist. Netzteile die eine 2080 Ti mit dickem OC locker wegstecken haben plötzlich Probleme.

Ich meine gelesen zu haben, dass da ein paar billige Kondensatoren oder so verbaut wurden und diese diese Spitzen nicht aushalten?
Igors Lab?

Kann grad nicht suchen :-)
 
ghecko schrieb:
Spielst du im Freien oder ist dein Raum klimatisiert? 1000w Abwärme würde man im Sommer in einem geschlossenen Raum normaler Größe nicht lange überleben.

ich kann die balkontür öffnen ;)

nö, ich meinte nur: hätte man die entsprechende leistung, dann würde ich es probieren...

aber keine sorge, wenn laut igor schon eine 3080 lastspitzen bis knapp 500 w erzeugt, dann werde ich es mit meinem 600 w netzteil lieber keine einbauen... eher warte ich auf zen3 und was big navi im vergleich bringt, und klöppele dann einen neuen pc zusammen. mit mindestens 850 w netzteil nur mal zur sicherheit, wenn der trend wieder so aussieht.

ja, für länder wie USA mit billigem strom und klimaanlagen überall mag das ja gehen, aber hier wird's teuer.
Ergänzung ()

Caramelito schrieb:
Ich meine gelesen zu haben, dass da ein paar billige Kondensatoren oder so verbaut wurden und diese diese Spitzen nicht aushalten?
Igors Lab?

genau das. poscaps statt mlcc. die filtern nicht gut genug, daher vermutlich der absturz:

https://www.igorslab.de/was-wirklic...80-und-rtx-3090-stecken-koennte-investigativ/
 
Zuletzt bearbeitet:
"Interessante" Verbrauchsentwicklung der Custom Karten. Eine Amp Extreme oder eine EVGA Kingpin Edition wird dann bei Lastspitzen bestimmt die Versorgersicherung des Energieversorgers auslösen, oder ? (//Sarkassmus) :rolleyes:

Oder wir sehen bei Nvidia bei von denen supportete Spiele im Abspann den Text:

No PowerSupply were harmed during this Game! :D
 
gua* schrieb:
Deutsche Foren sind halt auch die einzigen wo man seitenweise Geheule zum Stromverbrauch lesen muss. Der Rest der Welt freut sich indessen über mehr Leistung. Jedem das seine.

Dann Vergleich mal die Strompreise in DE mit dem Rest der Welt.
 
Das Design finde ich richtig schön , nur warte ich auf die 3080ti.
Und bis da werden auch die Kinderkrankheiten raus sein.
Die Watt Zahlen gehen echt langsam durch die Decke, überlege auch schon ob mein 850w Platin NT reicht für das neue Sys.
 
420 Watt, da brauche ich mein derzeitiges Netzteil (450W) alleine schon für die Grafikkarte :freak: - Stromspitzen nicht einberechnet.
Na solange die Performance/Watt stimmt und man auch gerne bei 30° im Zimmer spielt ^^
 
gua* schrieb:
Deutsche Foren sind halt auch die einzigen wo man seitenweise Geheule zum Stromverbrauch lesen muss. Der Rest der Welt freut sich indessen über mehr Leistung. Jedem das seine.
Deutschland ist halt das Land mit den fast höchsten Strompreisen weltweit. Und das einzige Land in dem der Strompreis auch in Zukunft unverhältnismäßig steigen wird. Also kann Mal schonmal heulen. Ich geb dir aber Recht. Das interessiert 99% der restlichen Welt überhaupt nicht, und das zurecht.
 
  • Gefällt mir
Reaktionen: gua*
Ich weiß, ich weiß, wir sind hier in einem Hardware-Forum und eigentlich mixe ich jetzt "Politik" mit rein, welche hier wohl genauso wenig reingehört wie beim Sport - aber ich finde es immernoch erschreckend, wie sich viele (neben der eigentlichen Hardware-Diskussion bzgl. der Instabilität) eher über die StromKOSTEN oder zusätzlichen Investitionskosten (besseres Netzteil) aufregen, als über die zusätzliche Energieverschwendung bei kaum höherer Leistung... Fast ein 1:1-Deal an "Mehr-Peformance zu Mehr-Verlust"
 
Tja für die Hersteller spielen 420Watt TDP keine Rolle, mich würde mal ernsthaft interessieren wie viel Watt die Herstellung einer Rtx 3080 kostet!
 
Undervolten ist wohl der beste Weg, außer man will jedes % Leistung. Hab meine Gainward Phoenix 3080 auf 806 mv bei ca. 1800 MHz festgenagelt. In AC Odyssey als Beispiel komme ich dabei von 76 auf 71 FPS und der Verbrauch sinkt um knapp 100 Watt + die Karte wird ca. 15°C kühler. In Shadow of the Tomb Raider verliere ich ganze 2 FPS.
 
  • Gefällt mir
Reaktionen: Valeria und Hipplch
ach und ich dachte euch ist es egal" wieviel Watt die grakas nutzen damit sie Ihre volle Leistungen bringen. 🤭 😂
 
Endlich! Endlich muss man sich nicht mit BIOS-Flasherei rumschlagen, um Power Limit auszuhebeln ohne Garantie zu verlieren. Endlich kein Shunt-Mod. Endlich ein Hersteller, der mir nicht bevormundet, wie viel Strom meine Grafikkarte ziehen darf, weil man Bei 420 Watt schon von "keinem Power Limit" sprechen kann. Soweit alles schön und gut, wenn es da nicht ein "Aber" wäre: wird es für die Grafikkarte einen Wasserkühler Block geben?
 
Foxman schrieb:
Von der Leistung her sind die Karten aktuell unanfechtbar (von den Abstürzen mal abgesehen) aber der Verbrauch? :o
Naja, der Verbrauch ist auch nicht anfechtbar :lol:
-Genausowenig wie die nicht Verfügbarkeit :lol:

Ich persönlich bin eigentlich mehr auf die 220W 3070 gespannt, die schneller als eine 2080Ti sein soll, wirklich besonders gespannt, wie das möglich sein wird. Vielleicht skaliert die auch einfach besser mit höheren Taktfrequenzen? Die angegeben 1700MHz Boost sind ja auch nur ein Pseudowert der immer überschritten wird bei den 3080/3090ern, vielleicht bei der 3070 deutlich mehr?
 
QuackerJJ schrieb:
Habe das Gefühl Nvidia wollte mit aller Macht vor Big Navi releasen weil sie sich etwas einkacken.
Ich denke, dass hier weniger AMD das Problem mit RDNA2 ist, als viel eher die Turing selbst.

Faust2011 schrieb:
Im Test zur RTX 3080 wurde doch gezeigt, wie effizient/sparsam der Ampere-Chip sein kann.
Irgendwie ist es amüsant, dass nun bei NVIDIA genau die Argumentation kommt, die damals auch bei AMD Polaris als auch Vega gekommen ist.

Ich sag da mal ganz frech das gleiche wie so mancher damals zu der Argumentation bei AMD: Das zählt nicht! Klar kann man die Hardware optimieren, wenn man weiß wie es geht, entscheidend für die meisten Nutzer sind aber die Stock-Einstellungen.

Nein, nicht wirklich ernst nehmen. Im Endeffekt stimmt es schon. Hier muss man sich schon die Frage stellen, warum NVIDIA nun genau so an die Kotzgrenze der Chips geht. Ich will hier aber keine Mutmaßungen zu RDNA2 ablassen um Erwartungen zu schüren.
 
Teralios schrieb:
Irgendwie ist es amüsant, dass nun bei NVIDIA genau die Argumentation kommt, die damals auch bei AMD Polaris als auch Vega gekommen ist.

Ja, in der Tat. Ich finde das auch "beeindruckend", wie Nvidia hier den Chip über die Verlustleistung hochprügelt (+ 50 Watt), um gerademal +4% Performance herauszuholen. Nvidia hatte bisher bei Maxwell, Pascall und Turing die Chips eher am Sweetspot zwischen Leistungsaufnahme und Performance betrieben, während AMD bei Hawaii, Fiji und Vega eher die Brechstange herausgeholt hatte.
 
  • Gefällt mir
Reaktionen: Herdware
slogen schrieb:
Mein ganzer Rechner braucht keine 300Watt unter Vollast.
du hast einen ähnlichen wie ich, aber glaube nicht, dass du bei Volllast gemessen hast. Im Gaming verbraucht meiner 250-280W, wenn ich die CPU parallel mit 100% belaste zB. mit heavyload, dann komme ich auf 340W. Aber gut, meine CPU auf 4,9GHz und die 1070Ti braucht wohl etwas mehr power als deine 1070er und das Powerlimit hab ich auch um 20% erhöht um 2000MHz Gamingclock zu erreichen.

Ich bin aber auch mittlerweile immer weiter weg von der 3080, eigentlich gut, dass ich sie nicht bestellen konnte, mal sehen was die 3070 wirklich schafft, so ne 500 Euro 2080Ti bei 220W, da sag ich nicht nein :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: slogen
gua* schrieb:
Deutsche Foren sind halt auch die einzigen wo man seitenweise Geheule zum Stromverbrauch lesen muss. Der Rest der Welt freut sich indessen über mehr Leistung. Jedem das seine.

Ja, zumal dieses Geflenne „wir haben die höchsten Strompreise“ auch nicht stimmen dürfte, wenn man es ins Verhältnis mit dem Median-Nettoeinkommen setzt. Außerdem wird immer so getan, als ob die Kiste 24/7 unter GPU-Volllast laufen würde. Außer Miner macht das aber niemand. Wir reden hier von 6-7 h täglich bei vielleicht 50% Last, und das sind schon Schüler oder Arbeitslose (oder solche, die es bald werden wollen). Also lasst doch die Kirche mal wieder im Dorf.
 
  • Gefällt mir
Reaktionen: Knatschsack
Von mir aus die Abwärme die bei 400+Watt ensteht verschwindet aber nicht einfach oder löst sich wundersam in Luft auf wie die Coronaviren in den USA (laut Trump ...). So einen Rechner möchte ich nicht mit Luft kühlen müssen. Leise kann das kaum mehr sein.
 
Die mal im SLI betreiben :love:
 
Zurück
Oben