News MSI GeForce RTX 3050 Ventus 2X: Erste Revision mit „kleiner“ GPU und nur 115 Watt TDP

Sorry aber "warum"?
 
ungeachtet des überzogenen Preises oder der langen Zeit die Ampere / eine 3050 schon auf dem Markt ist...

Ob das Teil nun mit 130Watt oder grob 11% weniger, also 115 Watt daher kommt... die Relevanz ist da doch eher sehr geringfügig. Durch die 15 Watt, wie auch die zusätzlichen 2Pins bei der Stromversorgung, mehr oder weniger, ergeben sich keinerlei besonderen Vorteile oder Nachteile für das System in jedweder Herangehensweise, noch für den Geldbeutel. Einzig eine Karte, selbst wenn es eine Ampere wäre, die jetzt erst erscheint aber immerhin ohne zusätzliche Stromversorgung daher kommt, wäre interessant.

Da muss man AMD leider zu gute halten, dass sie mit der absoluten Nullnummer von rx6400 immerhin eine Sache richtig gemacht haben...
 
Die RX 6600 ist gut und gerne im Schnitt 30% schneller, verbraucht und kostet dabei in etwa dasselbe.
Noch Fragen?
 
  • Gefällt mir
Reaktionen: Grundgütiger
_roman_ schrieb:
RT ist eine Randtechnologie. Wer High End Spielt hat eine 4090 mit RT.
RT funktioniert mit angepassten Settings auch in der Einstiegsklasse. Ich zocke ab und zu am Notebook. Und dort lässt es sich entspannt nutzen. Metro Exodus, Resident Evil, Guardians of the Galaxy ( alles ultra) Cyberpunk und gerade Witcher 3 Remastered, ja nicht mit 120 FPS, aber ~ 40 bekomm ich hin.
_roman_ schrieb:
Wer schlecht optimierte Games kauft und zu Release spielen will, kann gerne eine 4090 erwerben.
Schlecht optimiert? Sicherlich nicht.
_roman_ schrieb:
In der billig Klasse wird DLSS und RT egal sein.
Ich kann beides problemlos nutzen. Gerade DLSS bringt in der Billig Klasse mit Abstand am meisten.
_roman_ schrieb:
Ohne mich damit beschäftigen zu wollen.
Ja, this.
 
  • Gefällt mir
Reaktionen: Loopman
GTI84 schrieb:
Hmm, die RTX a2000 hat maximal Verbrauch von 70 Watt und ist schneller als RTX 3050. Und braucht keinen extra Stromanschluss.
Wieso kriegt Nvidia die 3050 nicht auch so sparsam hin?
die 3050 ist leicht schneller. Je nach Spiel gibt es einen Gleichstand. 3060/3050/a2000 basieren alle auf den gleichen Chip, nur mit unterschieden im chiptakt und SM Einheiten. Die speicheranbindung und Frequenz sind auch anders.

und 450€ (A2000) für die Leistung einer 3050 kauft doch keiner.
 
catch 22 schrieb:
Da muss man AMD leider zu gute halten, dass sie mit der absoluten Nullnummer von rx6400 immerhin eine Sache richtig gemacht haben...

Relativ. Meist 1050ti-Performance bei ~15-20W weniger Verbrauch. Na ja, immer noch besser als meist GTX1060-Performance bei gleichem Verbrauch wie mit der 6500XT. Da wäre bei beiden Karten wohl mehr drin gewesen, wenn man sich anschaut, wie viel effizienter als die ollen Pascal RDNA2 (natürlich) sind. Und auch hier: OBWOHL die RX 6400 eine maximal zerstückelte Karte ist: 4 Lanes, Notebookchip, keine nennenswerten Features... Diese Karten halten nicht mal den Status Quo -- sind ein Rückschritt. Aber wie man so schön sagt: "Besser als nichts".
 
Loopman schrieb:
Wieso ist die 6750XT schlechter?
Die Urban Legend mit dem Stromverbrauch?
Mehr Watt und Euro / FPS. Stock ist sie damit schlechter als das Original
 
Northstar2710 schrieb:
die 3050 ist leicht schneller. Je nach Spiel gibt es einen Gleichstand. 3060/3050/a2000 basieren alle auf den gleichen Chip, nur mit unterschieden im chiptakt und SM Einheiten. Die speicheranbindung und Frequenz sind auch anders.

und 450€ (A2000) für die Leistung einer 3050 kauft doch keiner.
Ja klar, lohnt es sich bei dem Preis nicht. Die Frage war halt wieso Nvidia die RTX 3050 nicht auch so sparsam bekommt.
 
DerRico schrieb:
Mehr Watt und Euro / FPS. Stock ist sie damit schlechter als das Original
Soweit ich weiss, hatte nur Igor das Problem. In allen anderen Tests war die Leistungsaufnahme mehr oder weniger identisch zur 6700XT. Selbst hier auf Computerbase. 5 Watt mehr bei 4K Gaming, bei 5-6% mehr Leistung. Performance pro Watt ist die 6750XT also sogar besser.

Und preislich sind die beiden Karten mittlerweile fast gleichauf. Paar Euro mehr, dafür auch ein paar Prozent mehr Leistung. Alles gut also ;)
 
Oggy666 schrieb:
Es bleibt dabei - die Karte is Ausschuß - das Interface und der Preis geben dem Teil den Rest - Features hin oder her - die kannst bei der geringen Leistung eh ned verwenden...
Oh man :rolleyes: - nicht jeder zieht los, um in der 1.000€ Riege zu wildern
 
  • Gefällt mir
Reaktionen: konkretor
Melu76 schrieb:
warum macht man sowas?
warum kauft man sich nicht direkt eine 3070/3070 ti gebraucht?
Tatsächlich war die Karte neu (Original Ersatzteil eingeschweißt in Tüte), aber ohne Garantie, daher habe ich gebraucht geschrieben. Aber ja, 150 € Aufpreis waren dadurch fällig, um knapp unterhalb einer 3070 zu landen. Dafür aber eben mit doppelt so viel VRAM, was denke ich beim Upgrade auf einen 4K Monitor nützlich sein wird.

Der Grund ist ansonsten das physische TDP Limit. Die Karte kann niemals, egal ob Afterburner oder nvidia-smi gestartet und eingestellt wurden, mehr als 140W ziehen. Der PC soll jederzeit leise, kühl und sparsam sein.

Dann weiß ich als unRAID Nutzer, dass mir eine Quadro das Leben in Sachen Virtualisierung, NVFBC, parallelen Plex Streams und vGPU deutlich erleichtert. Ich werde also beim nächsten Upgrade auch was von der Karte haben. Etwas Eigennutz muss auch erlaubt sein. Hab sie ja schließlich bezahlt ^^
Ergänzung ()

DaHell63 schrieb:
die laut 3DMARK in jedem Test erheblich langsamer ist als meine auf 100W optimierte RTX 3070
Wie viele Punkte schaffst du? Wollte eh noch Benchmarks machen.

EDIT: Gerade gemacht:
11350 Punkte TimeSpy
21404 Punkte Passmark

Also auf dem Niveau einer RTX 3060 Ti, verbraucht dabei aber 60W weniger. Und eine mobile RTX 3070 mit 100 bis 130W ist deutlich schwächer laut meiner Recherche. Hast du auch UV oder warum hast du "so viel mehr"?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
GTI84 schrieb:
Die Frage war halt wieso Nvidia die RTX 3050 nicht auch so sparsam bekommt.
Vergleich mal die Werte dieser beiden Karten. Dann siehst du es eigentlich schon.
Die Performance der 3050 sollte ja nicht geringer ausfallen und das bei 70watt. Die Chips der 3050 ist Reste Verwertung der 3060. alleine die chiptakt Reduzierung um 1ghz der A2000 macht jedemenge des Stromverbrauchs aus.
 
  • Gefällt mir
Reaktionen: Mcr-King
mgutt schrieb:
Jedenfalls erscheint mir die RTX 3050, ob nun alte oder neue Auflage, erst recht die deutlich schlechtere Wahl zu sein, wenn sie bei 115 bzw 130W TDP
Dass Problem ist nicht dass sie nicht können, sondern der Bereich bei 200-350€ keinen mehr interessiert von den Big-Playern, sondern nur 500€ aufwärts.
 
_roman_ schrieb:
Ich denke DLSS wird irgendein SCAM sein - der irgendwann durchschaut wird. Die Fake Frames werden mit irgendetwas bezahlt. Entweder Qualität oder anderen Parametern der Bildausgabe.
So wie die Zwischenbildberechnung bei Fernsehern?

Mit Verlaub, so eine Aussage, wenn alle Daten/Vergleichsbilder offen zugänglich sind, ist dümmlich.
 
latiose88 schrieb:
Für mich wird es also keine einfache Lösung geben. Könnte zwar noch auf eine Gtx 1030 setzen nur halt wie lange noch.
Also die GT 1030 ist schon brauchbar. Zumindest für mich beim i5-2400 um Genshin Impact in low auf 1080p zu spielen. Wenn es dir aber auf Leistung ankommt, wäre bis 75W noch eine GTX 1650 drin. Die hätte ich genommen, wenn DELL beim OptiPlex 390DT nicht den PCIe Slot auf 25W beschränkt hätte. In der Zukunft bleiben dann eventuell noch die Profikarten. Eine T400 und T600 bekommt man auch relativ günstig. Ampere fängt ja erst bei der A2000 mit 6GB ab 400+ EUR an. Ich bin also auch gespannt, ob es neue Consumer GPUs bis 75W geben wird. Das habe ich mir auch als Limit gesetzt. Bei mir kommt beim DELL leider noch Low Profile + Low Profile Blende erschwerend hinzu (noch mal geringere Auswahl).
 
latiose88 schrieb:
Blöd nur das man mit onboard gpu die fps nicht mehr limitieren kann per Treiber. Denn ich weiß selbst alte games haben fps Schwankungen auch wenn sie uralt sind. So ist zum Beispiel serious Sam 2 das hat viele fps, fühlt sich dennoch nicht immer klar flüssig an.
Das stimmt nicht. Mit jeder AMD Apu kannst du im Adrenaline Treiber die Fps begrenzen.
Ergänzung ()

Das große Thema Strom sparen beim Gaming. Ist wie alles beim Gaming, es liegt im Auge des Betrachters. Denn Bildqualität, fps und Details, ist das wo man viel tunen kann. Und die Features wie dlss,framegeneration, FSR/2, RSR und NIS können da extrem helfen um dahin zukommen wo man hin will. Wer sich einmal an ein Feature oder Einstellung gewöhnt hat, dem machen Fehler oder Bildqualitäts Einschränkungen die dieses Feature erzeugt, nix aus.

Von daher würde ich jedem empfehlen, dem Strom sparen beim Gaming wichtig sind diese Features auszuprobieren.
 
Zuletzt bearbeitet:
latiose88 schrieb:
Habe ja ein System mit onboard da siehe i7 3770k mit Intel HD 4000 und es ist furchtbar.
Northstar2710 schrieb:
stimmt nicht. Mit jeder AMD Apu
Er hat aber ein Intel System


latiose88 schrieb:
Wollte eigentlich nur eine gpu mit 75 Watt einsetzen mit der selben Leistung wie ne rtx 3050 aber die gibt es einfach nicht zu kaufen.
Naja, du erwartest eine Eierlegende Wollmilchsau🙄
Und anscheinend gibt es "Probleme" aka technische Einschränkungen, warum eine 3050 keine 75W zieht, sondern mehr
 
Mcr-King schrieb:
Dass Problem ist nicht dass sie nicht können, sondern der Bereich bei 200-350€ keinen mehr interessiert von den Big-Playern, sondern nur 500€ aufwärts.
Solange sich 500+ verkauft... warum auch. Wenn Sie nur 2 Autos bauen können, 4 Räder zu verfügung haben und damit entweder nen 3er oder nen Porsche verkaufen können, natürlich nehmen Sie den Porsche.
.
Ist ärgerlich wird sich aber auch erst ändern bis alle Earlyadobter bedient sind und die Leute sich auch nicht mehr über den Tisch ziehen lassen.
 
  • Gefällt mir
Reaktionen: Mcr-King
SavageSkull schrieb:
DLSS wäre bei einer Karte mit der Leistung schon ein Killerfeature.
DLSS ist nicht kostenlos und funktioniert nur in hohen Auflösungen gut.
Öfters gibts Ghosting, was nicht per se an DLSS liegt, sondern an den Studios. Interessiert mich als Kunde jedoch wenig.
VRam wird durch die niedrige Auflösung gespart und kein Kantenflimmern mehr.

Je nach Monitor fällt das doch stärker auf als einem die Medien es glauben lassen.
Dabei wird auch hier auf Computerbase DLSS + Nachschärfen mit Native+TAA verglichen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben