News GPU-Gerüchte: GeForce RTX 3050 mit 2.304 CUDA-Kernen und 90 Watt

J_RN schrieb:
In meiner Testszene heute morgen [...]1920x1080, nur Materialien ohne Texturen [...] waren 6GB V-RAM belegt.
Das deckt sich ziemlich mit meinen Erfahrungen, dann mal in 4K hübsch gemacht und aus is.
Schiere GPU Power ist für solche Applikationen aber tatsächlich eher zweitrangig, von daher volle Zustimmung. Deshalb wäre die irgendwann mal kurz gerüchtetet 3070 16GB GDDR6 nonX ja auch sehr interessant gewesen. Unter 12GB kommt bei mir jedenfalls genausowenig in die Kiste wie über 1250,- ;)
 
  • Gefällt mir
Reaktionen: J_RN
Notfalls kann man ja noch immer eine 3040 ohne PCIe Anschluss bringen, das dürfte der Chip schon hergeben.

Die 2300 sind ja nur der best case. In games eher +50 -+75% je nachdem wie sich fp32 entwickelt 2021.
Das interessante ist eher, dass es nun wohl DLSS bis unten geben wird.
Das dürfte eher für einen größeren Unterschied sorgen gegenüber der 1050 Reihe.

Wird spannend auch unten . Ich sehe schon die RX 6500 XT mit 128bit und 8gb vram :) .
 
Auf die stinknormale RTX 3050 warte ich sehnsüchtig. Ich möchte eigentlich kein Geld mehr in die technisch veraltete GTX 1650 Super investieren müssen. Allerdings muß die RTX 3050 auch preislich in einem bezahlbaren Bereich landen und nicht wieder Geldmäßig an die Decke gehen, wie die großen Brüder zuvor.
 
Endless Storm schrieb:
Ich freue mich, zur Minderheit zu gehören. Seit längerem habe ich kein Geld mehr für Spiele bezahlt und habe auch persönlich kaum noch Interesse an die aktuellsten Titel.
Aber warum brauchst du dann unbedingt eine brandaktuelle Grafikkarte?
Je nach alter der Titel dürfte der Gebrauchtmark doch voller günstiger Karten sein, welche die jeweiligen Titel mühelos flüssig mit maximalen Grafikdetails darstellen können.
 
kgrosser schrieb:
Das deckt sich ziemlich mit meinen Erfahrungen, dann mal in 4K hübsch gemacht und aus is.
Schiere GPU Power ist für solche Applikationen aber tatsächlich eher zweitrangig, von daher volle Zustimmung. Deshalb wäre die irgendwann mal kurz gerüchtetet 3070 16GB GDDR6 nonX ja auch sehr interessant gewesen. Unter 12GB kommt bei mir jedenfalls genausowenig in die Kiste wie über 1250,- ;)

Ich denke so kritisch ist es mit dem V-RAM aber auch nicht.

Gerade nochmal getestet:

3840x2160 > VRAM: 4,9 GB

als das Rendering beendet war, ging es auf 2,5 GB (wie vor dem Rendering) herunter

danach:
1920x1080 > VRAM: 4,9 GB

anscheinend ist hier die Auflösung ziemlich egal. Warum und wie sich das technisch verhält.. keine Ahnung.
Wär mal interessant zu sehen, wie sich eine Karte mit 4GB verhält.
Gibt es ein Tool, wo man den Vram softwareseitig beschneiden kann?
 
Hoffentlich kommt AMD mal mit Navi23 um die Ecke, sonst befürchte ich Phantasiepreise weit jenseits von 200€ für die 3050/3050ti.
Ich bezahle jedenfalls nicht mehr als 200€ für einen Nachfolger meiner 1050ti.
Und das muss dann schon ein ordentliches 6GB-Custommodell mit 2 Lüftern sein.
 
  • Gefällt mir
Reaktionen: Daggy820 und PS828
kgrosser schrieb:
Na ja, die kommt aber auch nur mit 4GB VRAM daher - das eignet sich besten falls für einfache Objekte bzw. schmale Texturen
Bis letzte Woche hat mein Sohn mit ner 1650 folgende Spiele ohne allzugroße Einschränkungen in FHD gespielt:
  • Fortnite
  • Fifa 20/21
  • Rainbow Six Siege
  • Warzone
  • Apex
  • Valorant
  • GTA5

Es lief alles mit 50-60fps und kA welche Settings (vermutlich medium/low), aber es sah alles nicht schlecht aus.
Es kommt also immer darauf an, wie anspruchsvoll man ist.
Jetzt mit der 3070 geht das natürlich alles auf Ultra, aber das Spielerlebnis ist dadurch auch nicht wirklich besser geworden ;)
 
Als Single Slot Karte für 75W wäre die non-Ti besser gewesen. Die 4 GB sind zwar wenig aber am Ende ist es bei diesem Anwendungsbereich auch egal. Damit ist der GA107 als kleinster Chip auch bekannt. Fraglich ist jetzt ob die 3050 der Vollausbau dieses Chips ist.

Konkurrenzprodukt ist hier dann Navi 23
 
  • Gefällt mir
Reaktionen: foo_1337
NVIDIA GeForce RTX 3080 Ti Landing in January at $999

1605112038412.png

Quelle:
https://www.computerbase.de/forum/t...rnen-und-90-watt.1980629/page-5#post-24867042

Na ja Nvidia hat wohl noch ein paar Karten im Ärmel. Jetzt haben wir endlich mal ein sehr guten Konkurrenzkampf, der sich hoffentlich auch auf den Preis auswirken wird.

P.S. Der Stromanschluss gefällt mir!
 
@zonediver
Das es dann auf 2060 niveo landen könnte bzw wird,bringt mir ja nix.Ich warte noch immer drauf,das zu hoffen das es dann noch ne RTX 3040 kommen wird,wo diese dann nur 50 Watt verbrauch hat und hoffentlich auf dem Niveu von einer gtx 1060 landen wird.Dann rechnet sich das stromsparen wirklich.Ich habe das große Glück nicht mehr leistung zu brauchen.Wenn ich also extra aufrüste dann zu einer echten stromspar GPU.Ob meine 6 oder nur 4 gb hat,das merke ich bei meinen alten Games ohnhin nicht.Wenn dann nur fürs stromsparen.Für die gtx 1060 werde ich gewiss noch so um die 80 € bekommen.Hoffe das wenigstens die RTX 3040 dann so um die 150 € dann kosten wird und diese dann auch wirklich die selbe Leistung hat,ansonsten lohnt es sich halt leider nicht mehr für mich.Was ratest du denn dann mir so?
 
Chesterfield schrieb:
Wenn man mal sieht wie beliebt die 1050ti bei Einsteigern war, kann das durchaus ein großer Wurf werden wenn 3050 ca die Leistung einer geschätzten 1060 z.b bringt.
Volumenmodelle sind sowohl für Marktanteile als auch fertigrechner wichtiger als der High End Gamer vllt ahnt 😅.
Und für kleine itx Multimedia Systeme durchaus dann eine erste Wahl dann
Du wirst lachen wie viele im Freundeskreis oder von den Jungs Abends im Discord oder TS3 beim zocken mit ner 1050ti unterwegs sind, das sind eine ganze Menge. (Ich ja gerade Übergangsweise auch).
Die meisten von denen freuen sich schon tierisch auf eine mögliche 3050ti.
 
  • Gefällt mir
Reaktionen: Chesterfield
latiose88 schrieb:
Ich warte noch immer drauf,das zu hoffen das es dann noch ne RTX 3040 kommen wird,wo diese dann nur 50 Watt verbrauch hat und hoffentlich auf dem Niveu von einer gtx 1060 landen wird
Das wäre ideal xD
Ich würde trotzdem lieber eine 75w GPU zugreifen, sie die maximal möglichen Leistung ohne externen Stromversorgung hervorbringt.
Du kannst ja immer noch den Framelimiter verwenden xD, welches noch effizienter ist weil die CPU ebenfalls entlastet wird.
 
achso,weil dann die CPU dann ebenso weniger zu berechnen hat.Also ich habe ja games wo ich 72 Hertz,sowie auf 120 Herz(fps festlegen).Das alles reduziert also die auslastung der CPU und damit weniger stromverbrauch oder?
 
Ja der Framelimiter kann die GPU und CPU entlasten und somit sinkt natürlich auch der Stromverbrauch, die Temperatur im PC-Gehäuse und auch die Lüfterdrehzahl der GPU.
Wenn du keine Ego-Shooter oder Auto-rennen spielst kannst du ruhig alles auf 60fps festlegen.

Wenn du ein Strommessgerät hast, dann ist das noch besser. Der Stromverbrauch steigt nicht linear sondern stufenweise in Abhängigkeit der FPS. Bps: 60fps = 70W, 64fps=70W, 65fps=80W
Mein PC (3600+gtx1050) verbraucht 70W beim Diablo3 mit 60fps.
gtx1050 rennt dann mit 936Mhz statt 1733Mhz.
Hätte ich die 1050ti oder 1650, hätte ich womöglich noch weniger Stromverbrauch gehabt da die leistungsstärker sind und weniger Aufwand haben um 60 fps zu erzeugen.
 
Achso verstehe.Nun mein Haupt Pc muss ein WQHD bei den ganzen alten Games stemmen.Der Bildschirm löst in 75 Hertz auf.Nicht alle meine Games haben sowas ingame.Sollte also schauen das ich das im Nvidia Treiber lösen,das kann man doch machen nicht wahr?
Achja,Games die ja ingame die Hertz Zahl einstellbar sind,limitieren da ja automatisch die Fps.Hertz Zahl = Fps Zahl. Wenn also ein ingame 60 Hertz automatisch nimmt,sind es somit automatisch 60 fps.Das sind wohlgemerkt Egoshooter.Also da habe ich selbst irgendwie keine Kontrolle.Ich gebe aber zu ich habe fast keine Rennspiele,aber halt Egoshooter wo es Limitiert ist.
Und sonst zocke ich überwiegend Strategie Games.

Beim zweiten Pc habe ich ne gtx 1050 Ti drinnen.Dem steht ein Full HD mit 60 Hertz zur Verfügung.Auch hier werden nur die selben Games gezockt.Was mir aufgefallen war,es gibt Games die ne gewisse Kantengättung nicht mögen ,also in form von starken Ruckeln.Das Game ist von 2009,wird daher auch nie mehr Optmiert ,also sprich keine neuen Updates und der Treiber verbessert dort auch nix mehr.Vermutlich ist das also sehr speziell.Hier scheint mehr Leistung also nix wirklich zu bringen.Selbst mit der gtx 1060 habe ich wenn auch etwas abgeschwächter Form(auch weniger Kantenglättung verwendet),weniger Ruckler gehabt.
Es ist unglaublich wie speziell so manche Games sein können.Raytracing ist bei mir kein Thema,weil ich habe weder dx12,dx11 noch Raytracing Games bei mir.Alles nur dx9 Games.Erhoffe mir also von der 3040 keine mehrleistung sondern weniger Stromverbrauch.Habe ausgerechnet,ne 90 Watt GPU lohnt sich nicht,auch wenn sie die Selbe Leistung wie ne GTX 1060 hätte.Erst bei 50 Watt lohnt sich ne neuinfestition.Damit der kaufpreis am ende auch wirklich reingeholt werden kann.Denn auch wenn ich für die gtx 1060 80 € kriege sollte,so bliebe am ende 120 € wo ich mit Stromsparen erst nach 5 Jahren reingeholt hatte übrig.Sonst kann ich genauso gut die gtx 1060 weiter behalten,wenn es so nicht ist.Es lohnt sich halt eben nicht für alle.Man muss halt auch abwägen,ab wann es sich lohnt und ab wann nicht mehr.Mehr Leistung kommt bei mir nicht an,es sei denn ich stehe drauf 200 und mehr Fps bei selben settings zu haben.Dann ist der vorteil allerdings ganz dahin.
 
latiose88 schrieb:
@zonediver
Das es dann auf 2060 niveo landen könnte bzw wird,bringt mir ja nix.Ich warte noch immer drauf,das zu hoffen das es dann noch ne RTX 3040 kommen wird,wo diese dann nur 50 Watt verbrauch hat und hoffentlich auf dem Niveu von einer gtx 1060 landen wird.Dann rechnet sich das stromsparen wirklich.Ich habe das große Glück nicht mehr leistung zu brauchen.Wenn ich also extra aufrüste dann zu einer echten stromspar GPU.Ob meine 6 oder nur 4 gb hat,das merke ich bei meinen alten Games ohnhin nicht.Wenn dann nur fürs stromsparen.Für die gtx 1060 werde ich gewiss noch so um die 80 € bekommen.Hoffe das wenigstens die RTX 3040 dann so um die 150 € dann kosten wird und diese dann auch wirklich die selbe Leistung hat,ansonsten lohnt es sich halt leider nicht mehr für mich.Was ratest du denn dann mir so?
Naja, die RTX-Karten sind für Deinen Einsatzzweck eher nicht oder garnicht konzipiert. Da wird sicher Anderes kommen. Das Problem gabs bei den 2xxx/16xx ja auch schon - nur einige 1650er hatten keinen ext. Stromanschluß.
Aber vielleicht bringt NV eine 3030 oder sowas...
 
Zuletzt bearbeitet:
Ja eben,sehe ich auch so.Da wird gewiss ein paar Bereiche von der GPU wohl brach liegen.Je weniger Tensor Cores es hat,desto weniger verschwende ich mit diesen Einheiten dann unnötigen Stromverbrauch.Nicht genutzes braucht auch wenn man es nie verwendet oder ne last da drauf gibt,ja ebenso strom.Also von daher,je mehr Einheiten drinnen sind,die ich nie nutzen werde,desto mehr Leistung und auch mehr Strom versenke ich ins nichts.
Und ja drauf warte ich,auf ne 3030.Die würde wohl auch noch interessant werden.Ich bin ja eh schon langsam im unteren Bereich angekommen.Werde auch langfristig immer weiter nach unten abrutschen.
Wenn sich halt bei mir auch in Zukunft nichts an mehr Anforderung tut,dann ist das halt eben so.
Das game wo diese Einstellmöglichkeiten hat,läuft selbst auf einer gtx 860m mit 2 gb vollkommen flüssig.Habe da Full Hd mit 60 fps erreicht.Damit ist diese GPU fast so gut wie ne gtx 1050 ti.Naja ein wenig fehlt da zwar noch,aber so riesig das es die doppelte Leistung hat,ist es ja nicht.
Dabei habe ich die ganzen Einstellung wie bei meinem Pc am laufen.Mich wundert es das der Speicher nicht Limitiert.Nun gut zu wissen das ich mir um den GPU Speicher keine Gedanken zu machen brauche.

Achja Borderland 2 habe ich selbst mit ner GTX 570 mit nur 1,25 gb auf Maximal Details aber mit Full HD (bis auf Pysiks) auf alle Regler auf Anschlag zocken können.Die Anforderungen haben sich also irgendwie nicht verändert.
Also wird wohl auch WQHD auch nicht mehr so viel fressen.Oder kostet die Auflösung alleine soviel GPU Ram,das es gleich das doppelte am GPU Ram benötigt?
 
@latiose88
Hz und fps sind zwei völlig verschiedene Dinge, und unabhängig. Man kann im Nvidia Treiber einen fps-limit einstellen.
Nvidia Systemsteuerung -> 3D-Einstellungen verwalten -> Max Frame Rate
Dann ist das für alle Anwendungen (u.a. CAD) und Spiele festgelegt.
 
Zurück
Oben