News MSI GeForce RTX 3050 Ventus 2X: Erste Revision mit „kleiner“ GPU und nur 115 Watt TDP

Re: 75W-GPUs. Schaut man sich die Effizienz der GTX 4090/4080 an, dann wären technisch GPUs, die weniger als 100W ziehen, aber trotzdem noch was aufn Tacho bringen, sicher machbar. Die Frage ist, ob es hierfür genug, äh, "Anreize" gibt, die zu entwickeln. Der Auto-Vergleich kam mal -- und erst scheint nicht so verkehrt. Die Dinger werden, gerade von deutschen Autobauern, ja auch beständig dicker, breiter, schwerer, so dass demnächst jedes davon einen eigenen Fußballplatz brauchen wird, um parken zu können. (Die Auto-Lobby redet dann trotzdem gerne von "Verkehrswende" auch der Autoindustrie -- aber mit Vorliebe dann, wenn die Energiepreise den Absatz an neuen Autos gefährden).

BrollyLSSJ schrieb:
Also die GT 1030 ist schon brauchbar.

Welche Version? :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fenkel, Wintermute und Mcr-King
Svennc schrieb:
Schaut man sich die Effizienz der GTX 4090/4080 an
Die Frage ist immer: wie gut kann man nach unten skalieren

Wenn dir ein Trabbi reicht aber du den Platz eines Bullys brauchst, wird das nichts mit sparsam
 
Ich würde auch jedem raten der einen Fps Limit benutzt auch die Frequenzen zu begrenzen. Geht bei AMD im Adrenalin ganz einfach. Dadurch wird die gpu im boost begrenzt, was zusätzlich Energie einspart.
 
mgutt schrieb:
Wie viele Punkte schaffst du? Wollte eh noch Benchmarks machen.
Da habe ich wohl die NVIDIA Quadro RTX 4000 mit der NVIDIA RTX A4000 verwechselt. Trotzdem nichts, was die RTX 3070, mit weniger Watt, nicht schaffen würde.

PR.pngPR 130W.png

TS.pngTS 120W.png

TSE.pngTSE 115W.png

Svennc schrieb:
Re: 75W-GPUs. Schaut man sich die Effizienz der GTX 4090/4080 an, dann wären technisch GPUs, die weniger als 100W ziehen, aber trotzdem noch was aufn Tacho bringen, sicher machbar.
Wäre sicher machbar.
Eine RTX 3070,
Stock schluckt die Karte hier 230W
stock.png

optimiert und auf 60FPS eingebremst.
1.png2.png3.png

wäre sie sicher noch schneller als eine RTX 3050
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: spongohannes, Melu76, FGA und eine weitere Person
Hmm, anstatt dieser Karte, warum keine gute gebrauchte 2070S nehmen ?

Klar, 220W (manche auch bis 266W), aber etwas UV und man landet bei ca. 170W und selber Leistung.

Und dennoch wird sie vermutl. mehr Bilder zaubern als diese Karte hier.

Ich hab keinen Preis der 115W Karte gesehen. Damit würde alles stehen oder fallen. Also die Idee eine ältere Gen. Karte zu holen.

Hmm
 
  • Gefällt mir
Reaktionen: Kenshin_01 und Mcr-King
Neodar schrieb:
Es geht doch einfach darum, dass man gebraucht bereits deutlich mehr Leistung haben kann, als mit der 3050 als Neuware.
Und das darf eigentlich nicht sein, wenn ein Markt richtig funktioniert.
Was ist das für eine Logik? Gebraucht ist immer günstiger, ergo bekommt man gebraucht auch mehr Leistung als neu

Nicht desto trotz ist die 3050 Preis-Leistung mist und ein neuaufguss mit -15w lächerlich
 
  • Gefällt mir
Reaktionen: Stuffz und Mcr-King
latiose88 schrieb:
Auch wer ne 6600 von AMD empfohlen hat braucht ebenso mehr Strom.
Absolut mit dem neuen Modell ja, im Bezug auf die Effizienz ist es nun ein totes Rennen: 14,8% mehr Verbrauch für 16% mehr Rasterperformance. Die FPS pro Watt nehmen sich da nichts mehr. Bei der RTX 3050 auf GA106-Basis ist die Radeon vorne.

latiose88 schrieb:
Wollte eigentlich nur eine gpu mit 75 Watt einsetzen mit der selben Leistung wie ne rtx 3050 aber die gibt es einfach nicht zu kaufen.
latiose88 schrieb:
Und naja raytracing wird zum zocken nicht verwendet und auch diese upskaler wie angepriesen von Nvidia ebenso nicht. Es wird nur in full hd gezockt. Und dann auch nur in 60 Hz.
Spiele auch so, und dann hat man meist eine Karte, die nicht mehr als 75W aufnimmt. Oft genug sind es auch unter 40W. Das sollte bei einer RTX 3050 ganz analog zu einer RX 6600 hinkommen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich habe eine 1660Super die Original im Grafik Benchmark 123W zieht, auf 67W gedrückt mit UV.
Sie liefert dabei 85% der FPS bei nur 53% des Stromes. Stabil, auch in allen Games beim zocken.

Dieses größer schneller mehr geht definitiv in die falsche Richtung. Die Technik ist vorhanden auch schnelle und sparsame GPU´s auf den Markt zu bringen.

Ich glaube aber das ist dem Mining der letzten Jahre geschuldet.
 
  • Gefällt mir
Reaktionen: andi_sco, Svennc und Mcr-King
Ob bei der RTX 3050 dann auch die Preise wieder kraeftig ueber den bald 2 Jahre alten MSRP/UVP ansteigen werden, denn das scheint aktuell der Trend bei den alten nVidia Ampere Karten zu sein (so dass die noch teureren Ada Lovelace Karten von nVidia dann guenstiger erscheinen sollen)?


Jedenfalls ein unguter Trend der sich bei nVidia und deren Preispolitik/-diktat abzeichnet und umso attraktiver werden die neuen RDNA3 (RX 7900XT) und alten RDNA2 (RX 6600 bis RX 6950XT) Grafikkarten, mehr oder weniger deutlich unter 1000 Euro, im direkten Vergleich.
 
  • Gefällt mir
Reaktionen: LamaMitHut und Mcr-King
Zynisch betrachtet: DLSS ist der einzige Weg, mit dem Nvidia das "RTX" in "RTX" auf mancher ihrer exklusiv als Raytracingkarten beworbenen Karten einigermaßen flüssig darstellbar bekommt -- selbst wenn sie wie die RTX 4050 demnächst minimum 400-500 Euro kosten. Man muss sich das mal vorstellen, das ist Marketing vom Feinsten: Bildqualitätsverluste werden als offizielle Features vertickt. Gib dem Krempel einen schönen Namen, der vom Wesentlichen ablenkt -- und es ist kein Trick mehr, sondern ein Produktfeature auf der Verpackungsrückseite. Wie etwa die "neue Rezeptur" im Vanilleeis, die die edle Bourbonvanille mit billigem Ersatz streckt.

Nüchtern betrachtet: Bei der Preisentwicklung sind DLSS und Co. ein Segen. Trotzdem, aktuell: Im Zweifel RX 6600 over 3050. Anytime.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco, Mcr-King, amorosa und eine weitere Person
Svennc schrieb:
Re: 75W-GPUs. Schaut man sich die Effizienz der GTX 4090/4080 an, dann wären technisch GPUs, die weniger als 100W ziehen, aber trotzdem noch was aufn Tacho bringen, sicher machbar.
Da kann ich mich nur anschließen. Da wird von Nvidia für sicher 1 Jahr nichts unter 1000€ und 300 W Verbrauch angeboten. Aus dem Grund ist so ein Release einer neuen Generation für viele auch erstmal total uninteressant. Sorry, aber bei 45 Cent / kWh kaufe ich mir ganz sicher nicht noch so ein Heizkraftwerk. Ich hätte gerne irgendwas für 60 fps auf FullHD aber bitte mit Raytracing. Da scheitert es dann häufig.
Die Radeon 5850 war vor vielen Jahren das Optimum. Verbrauch bei 150 W bei einer sehr guten Performance. Ich meine, ich habe damals gebraucht dafür auch unter 200€ bezahlt.
 
  • Gefällt mir
Reaktionen: Telechinese, Ragnarök88, Svennc und eine weitere Person
FGA schrieb:
Ich glaube aber das ist dem Mining der letzten Jahre geschuldet.
Kann ich nicht nachvollziehen. Mining steht und fällt mit guter Energieeffizienz. insbesondere beim ETH-Mining, welches ja die GPU-Situation lange beeinflusst hatte, waren super sparsame Chips gefragt, weswegen Karten wie die a2000 (3060er Chip auf 75w Verbrauch gedrosselt), auf Platine gezogene 3060/3070er Laptopchips und ansonsten die 6600er die besten Karten für ETH-Mining waren.

Natürlich wurden auch die überteuerten blingbling-Editionen der 3090 eingesetzt, einfach weil sich auch das gelohnt hat eine Zeit lang, aber auch nur, weil es nicht genug sparsame Chips wie z.B. auch 3070 und 6800 gab
 
  • Gefällt mir
Reaktionen: Mcr-King
Wobei Karten mit <100W TDP wohl in den letzten zehn Jahren schon seltener waren, als ich anfangs dachte. Ist natürlich auch meiner eigenen Historie geschuldet. Ich hatte mir 2007 eine 8600GT geholt und später durch eine HD 6670 getauscht, die ich lange benutzte vor der 1050ti (falls eng wurde, noch eine gebrauchte HD 6850 geschossen, die aber nicht oft in Betrieb war.)

https://www.3dcenter.org/artikel/stromverbrauchs-ueberblick-fuer-directx-1112-grafikkarten

Vor gut zehn Jahren war z.B. selbst eine GTS 450 mit über 100W gelistet, auch wenn sie real weniger verbrauchte. Das ändert nichts daran, was man hier gut sieht: Karten, die im Betrieb weniger als 100W ziehen, sind immer weniger geworden. Aktuell die RX 6400, die in etwa die Performance der sechs Jahre alten 1050ti hat -- aber nicht viel weniger verbraucht.

Mit Raytracing ist hier vermutlich (noch) nicht viel Luft, irgendwoher muss die Extrapower für die dafür speziell verbaute Hardware ja kommen. Andererseits: Wer braucht bitte bei kleinen Karten, die das eh so mittelmäßig draufhaben, Raytracing?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fenkel und Mcr-King
amorosa schrieb:
Hmm, anstatt dieser Karte, warum keine gute gebrauchte 2070S nehmen ?
Die Frage müsste eher heißen: warum eine RTX 3050, wenn es für den gleichen Preis eine deutlich leistungsfähigere RTX 2060 neu gibt?
 
  • Gefällt mir
Reaktionen: Fenkel, Mcr-King und amorosa
Zurück
Oben