News GPU-Gerüchte: GeForce RTX 3050 mit 2.304 CUDA-Kernen und 90 Watt

Es wird wieder Zeit für eine Karte ohne Stromanschluss und passiven Kühler, das gab es früher auch schon, bei der kleineren Fertigung kann man das wenigstens bei einer 3050 (ohne Ti und ohne Super) machen.
 
Chesterfield schrieb:
Wenn man mal sieht wie beliebt die 1050ti bei Einsteigern war, kann das durchaus ein großer Wurf werden wenn 3050 ca die Leistung einer geschätzten 1060 z.b bringt.
Volumenmodelle sind sowohl für Marktanteile als auch fertigrechner wichtiger als der High End Gamer vllt ahnt 😅.
Und für kleine itx Multimedia Systeme durchaus dann eine erste Wahl dann
Du sprichst von einem großen Wurf!? Die 1650(Super) ist schon auf dem Level einer GTX1060. Die gibt es neu, teilweise für 125€. Eine gebrauchte GTX 1060 gibt es für unter 100€ mit 6GBVRAM. Die 3050RTX müsste mindestens auf dem Level einer 2060 sein, damit ein Preis von 200€ und mehr gerechtfertigt ist, sofern die Gerüchte stimmen zu den Preisen. Alles andere ist sonst erneut eine Verschiebung eines ganzen Segments nach oben mit der Begründung, Raytracing ist halt der neue "Shit".

Der letzte Retroartikel zur GTX 580 verdeutlicht dieses Problem. 2010 kostete die Highend-Graka 500€, bei einer jährlichen, großzügig geschätzten Inflationsrate von 2%, dürften heutige Highendkarten nicht mehr als 600€ kosten.

Die 1080Ti lag 2015 schon bei 820€, die 2080Ti um die 1200€. Eine 3080Ti gibt es leider noch nicht, aber wird wahrscheinlich auch um die 999€ kosten.

Ich finde es mittlerweile einfach nur noch lächerlich, wie die Preisen nach oben gehen und hier im Forum von großen Wurf gesprochen wird. Und AMD ist da auch kein deut besser, GPU als AUCH CPU. Der exklusive Release der reinen X-Serie plus 30-50€ Aufschlag pro neue CPU im Vergleich der Vorgänger-Generation ist schon happig. Schlimmer finde ich sogar, es wird nicht ein Wort verloren im CB-Test über das schlechte Preisleistungs-Verhältnis der 5800X CPU. Ein netter Wink mit dem Zaunpfahl zum Intel i7 10700(K)(F) wäre angebracht gewesen, der eine Preisrange von 280-350€ unterliegt, ist Stand heute das bessere Angebot. Und ich bin wahrlich kein Intel-Freund. Wegen dieser AMD-Release&Preis-Politik warte ich jetzt bis Januar, Februar 2021, in der Hoffnung die lassen etwas günstigeres vom Stapel was mit dem i7 preislich mithalten kann. Sonst kaufe ich wirklich Intel, obwohl ich seit meinem Haswel i5 4460, auf ZEN 3 gewartet habe.
 
  • Gefällt mir
Reaktionen: Smartin, elmex201, Shy Bell und 4 andere
Die GTX1660 müssen auch irgendwann abgelöst werden.
Von 90 zu 75 Watt ist es nicht mehr weit. Da wird sicher jemand mit einer "Green Edition" aufwarten.
 
xdave78 schrieb:
...wer wirklich "professionell" arbeitet kauft dann wohl eher ne Quattro mit Tensor Kernen.

Wozu eine Quattro wenn es um Raytracing-Leistung geht? Die Mehrkosten für die OpenGL- Optimierung kann man nicht in Leistung umsetzen. Igor hatte in Benchmarks zur 3070 gezeigt, dass einige CAD/CAS/Rendertools keinen Mehrwert aus einer Quattro ziehen.
Es gibt auch Firmen, vor allem kleinere, wo man nicht querfinanzieren kann. Da spielen diese Preisunterschiede schon eine Rolle.
 
  • Gefällt mir
Reaktionen: elmex201 und Coeckchen
Ein modernes Nachfolgemodel der Geforce GT 1030,
also eine normalpreisige passiv gekühlte Geforce 3030 bzw. 3040 fehlt noch für übliche Multimedia Anwendungen !

frankkl
 
  • Gefällt mir
Reaktionen: PS828
Es zieht sich jetzt natürlich durchs ganze Portfolio, dass die Karten angefangen bei der 3080 knapp bemessen sind beim Speicher. Ich vermute eine 3050 wird immer noch ordentlich Rechenleistung bieten und ganz sicher mehr als die einzig andere 4GB Karte von Nvidia der letzten Jahre, die mir noch einfällt, die 1050ti. Die 1660er sollten eigentlich auch noch geschlagen werden, aber die bieten auch schon 6GB. Also 8GB wären bei einer 3050 locker sinnvoll zu gebrauchen, aber ist natürlich etwas doof, wenn die viel bessere 3070 auch nur 8GB hat 😁
 
Sollte man nicht erst über die neuen Karten diskutieren wenn auch wirklich verfügbar?
Langsam wird es echt lächerlich... Überall neue Garten und nichts ist lieferbar...

Bei mir wird's ne AMD 6800Xt...
Die Nvidia Müllpolitik geht mir so auf den Sack! Genauso Intels Schublade... Jedes ja alte CPU mit neuem Sockel und neuem Chipsatz... Die Leute lernen gar nichts...
 
Hades85 schrieb:
Der letzte Retroartikel zur GTX 580 verdeutlicht dieses Problem. 2010 kostete die Highend-Graka 500€, bei einer jährlichen, großzügig geschätzten Inflationsrate von 2%, dürften heutige Highendkarten nicht mehr als 600€ kosten.

Ich finde es mittlerweile einfach nur noch lächerlich, wie die Preisen nach oben gehen und hier im Forum von großen Wurf gesprochen wird. Und AMD ist da auch kein deut besser, GPU als AUCH CPU.

Eine RTX 3080 ist ja nicht einfach nur eine schnellere GTX 580. Wie lange konnte mein eine GTX 580 nutzen, bevor sie für fast alles zu lahm war? Meine damalige 1060 ist heute immer noch gut in Full-HD zu gebrauchen und das Teil ist jetzt fast 4 Jahre alt. Wenn Karten seltener ersetzt werden müssen, steigt auch der Preis.

Konnte man mit früheren GPUs das selbe machen wie mit heutigen? Ich habe hier die damalige Präsentationsfolie der GTX 580 gefunden. Und es ging dort nur ums Gaming. Auch die damalige Testumgebung von CB konzentrierte sich nur aufs Gaming. Vergleich das mal mit der Präsentation und dem Test von heute. Mit breiteren Einsatzmöglichkeiten steigt auch der Preis. Wofür du früher eine Extra-CPU benötigt hast, kann das heutige die GPU für dich übernehmen und du sparst dir den Kauf zusätzlicher Hardware.

Ich spiele z. B. fast nicht mehr direkt am PC selbst, sondern streame das Spiel auf mein Notebook über Nvenc und Moonlight in einem anderen Raum. Die Latenzen sind im Heimnetzwerk nicht der Rede wert. Ich spare also hier ein spieletaugliches Notebook ein und der PC kann überall stehen, wo ich möchte. Wer aber einfach nur zocken will, der muss für Features zahlen, die er nicht nutzen möchte/will.

In einem stimme ich dir aber zu. Es wäre wirklich schön, wenn die Highend-Modelle von Rot und Grün weniger als 600 € kosten würden :D
 
  • Gefällt mir
Reaktionen: adAstra
hmmm... das Schema mit den Vram scheint zu stimmen, wenn man es mit der 1000er Serie vergleicht.

1050 2gb -> 3050 4gb
1050ti 4gb -> 3050ti 6gb

Der "Standard" wurde um 2gb erhöht... Ob das allerdings heutzutage ausreicht, ist eine andere Frage.

(Die Zwischenserie 1650 lass ich hier mal weg, weil sie weder von Nvidia- noch Kundenseite große Beachtung erhielt. Die 3050 wird ganz klar die neue Brot- und Butterkarte nach der 1050 werden)
 
Chesterfield schrieb:
Wenn man mal sieht wie beliebt die 1050ti bei Einsteigern war, kann das durchaus ein großer Wurf werden wenn 3050 ca die Leistung einer geschätzten 1060 z.b bringt.
Die wird deutlich schneller. Ne 1650S mit 20 SMs ist ja schon schneller. Eine 3050 mit 18 Ampere SMs wird nochmal zulegen. Eventuell wird die Speicherbandbreite limitieren, aber eine 1660 wird die spielend übertrumpfen. Ich tippe mal knapp auf 1660Ti Niveau.

Nero2019 schrieb:
Die gtx3050 (Nachfolger des gtx1650) hätte ohne externen Stromanschluss sein sollen. Die gtx3050ti wäre der Nachfolger des gtx1650 S sein sollen.
Man muss immer schauen was für ein Chip und was für eine Performance dahinter steckt. Vielleicht kommt ja noch ein abgespecktes Modell und/oder ein GA108 auch im Desktop mit dann <75W.

benneq schrieb:
Der Unterschied bei den CUDA Cores zur 3050 Ti scheint mir dann doch etwas zu groß. Wobei mir der Unterschied zwischen 3050 Ti und 3060 wiederum zu klein erscheint.
Immer auf die verbauten GPUs schauen. Das ist ja jetzt alles etwas verrutscht, da die 3080 auf den GA102 setzt.
3050Ti und 3060 haben die gleiche GPU, damit wirdd er Unterschied dort auch klein sein. Zur 3050 passt das dann wieder zum üblichen Abstand zwischen zwei GPUs.


S.Kara schrieb:
Die 12 GB der 3060 finde ich dagegen schon etwas übertrieben, lieber 8 GB und dafür mit dem Preis etwas runter.
Wie willst du 8GB an ein 192bit Speicherinterface vernünftig anbinden?
 
J_RN schrieb:
Selbst wenn die 3050 nur halb so stark wie die 3070 sein sollte, ist sie im Rendering deutlich produktiver als eine CPU.

Ja, RTX lohnt sich auch im unteren Segment - und zwar im professionellen Einsatz.
Na ja, die kommt aber auch nur mit 4GB VRAM daher - das eignet sich besten falls für einfache Objekte bzw. schmale Texturen, vo Szenen basierten 3D Programmen ganz zu schweigen. Dann brauch ich aber eigentlich auch kein Raytracingsahnehäubchen. Bei komplexen Szenen werden mir anno 2020 die 11GB meiner 1080Ti ja schon knapp, warum ich weder auf den 2080Ti noch auf den 3080er Zug aufgesprungen bin. Ich warte da mal geduldig, ob/dass endlich eine 3080 (Ti) 20GB als Vernunftskarte doch noch mal offiziell angekündigt wird.
 
Schwer einzuschätzen.
Eine 3050 mit (nur) der Leistung einer 1650 Super lässt sich schwer verkaufen, da diese unter 150€ zu haben ist.
Dann müsste die 3050 schon deutlich günstiger sein.
Und wenn sie schneller ist, ist sie im Bereich der 6GB-FHD-Karten, da wäre 4GB schon recht dünn.
 
Ah Super noch eine Grafikkarte die keiner haben möchte und die bereits bevor sie zu den Händlern kommt schon als Ausverkauft gelistet wird.
Wie wäre es denn noch mit eine Nvidia GeForce RTX 3030 anzubieten die aber auch schon als Ausverkauft gilt bevor sie ein Händler hat?
 
Benji18 schrieb:
da bist dann bei der 3060, würde jetzt mal 250-300€ rechnern was exorbitant viel wäre verglichen zur Leistung.
das war scherzhaft gemeint, so wie die Preise aktuell explodieren,
mit 4GB wäre alles über 200€ (nein eigentlich 150) ein Witz und ich dachte die 6GB 5600er suboptimal.

Warten wir übrigens ab welchen Straßenpreis die 3060 haben wird
 
  • Gefällt mir
Reaktionen: Benji18
Zitat: "Anders als die GeForce RTX 3060 Ti sind die GeForce RTX 3060, GeForce RTX 3050 Ti und GeForce RTX 3050 – wie auch die GeForce RTX 3080 Ti – noch rein theoretischer Natur und Abseits der Gerüchteküche noch nicht in Erscheinung getreten. "

Also ich sehe da keinen Unterschied zu 3090, 3080 und 3070. Für mich sind diese ebenfalls noch nicht in Erscheinung getreten :freak:
 
Blöd, hatte ich schon mit 6 GB mindestens gerechnet... Das wäre für mich noch interessant geworden. Nun muss doch die 3060 zeigen, dass sie unterhalb der 300€ Marke bleibt um halbwegs noch interessant zu bleiben...
Irgendwie schreit mich AMD geradezu an, einen ihrer Grafikkarten zu nehmen. Hoffentlich stellen sie bald die kleineren Modelle vor... Notfalls muss dann doch die Sapphire Pulse 5600XT rein.
 
  • Gefällt mir
Reaktionen: Nefcairon
NguyenV3 schrieb:
Das trifft wohl insbesondere auf die größeren Modelle zu.

Die kleiner 3070 ist durchaus verfügbar.
z. B. hier: mindfactory (gestern noch 7 verschiedene Customs), caseking und Alternate

Und der Proshop hat seine Übersicht auch wieder aktualisiert. 844 Karten erhalten und 465 sind unterwegs.

Und das ganze für lächerlich günstige (im Schnitt) 150€ über UVP. Spricht natürlich für die gute Liefersituation.
Die Karten sind nur lieferbar, weil nur Vollidioten zu dem Preis bestellen.
 
  • Gefällt mir
Reaktionen: Bright0001, DefconDev und RayKrebs
MilchKuh Trude schrieb:
Bissken mehr ram auf der Karte wäre auch nett.

Nein, Nvidia möchte dass du spätestens nach 2 Jahren aufrüsten musst.

Wenn du dieses Geschäftsgebaren nicht unterstützen möchtest, greif zu einer anderen Karte mit mehr Vram oder noch besser: Zu einer Karte der Konkurrenz mit mehr Vram. Das ist die einzige Sprache, die ein Hersteller versteht.

Man hat ja schon gesehen, wohin die Reise bei den Grünen geht, mit der absoluten Sparausstattung beim Vram, siehe RTX3070 mit lächerlichen 8GB Speicher. Und dann kommen schon die Ersten, und verteidigen die Karte mit Leistung einer 2080Ti, da sie nur für Full-HD gemacht ist...

Ich bin gespannt, was AMD so macht. Die Radeon 5600XT war ja auch schon sehr knauserig, beim Vram. Allerdings könnte es diesmal anders aussehen, da die High-End-Klasse bereits ab knapp 500 € schon 16GB bieten wird.

4GB Karten sollten über 100 € schlicht nicht mehr verkauft werden.

LG

Micha
 
  • Gefällt mir
Reaktionen: Tinpoint
NguyenV3 schrieb:
Eine RTX 3080 ist ja nicht einfach nur eine schnellere GTX 580. Wie lange konnte mein eine GTX 580 nutzen, bevor sie für fast alles zu lahm war? Meine damalige 1060 ist heute immer noch gut in Full-HD zu gebrauchen und das Teil ist jetzt fast 4 Jahre alt.

Ich stimme dir in gewisser Weise zu aber die Sprünge zwischen den Generationen waren früher auch riesig. Von Directx6 zu 7, war technisch betrachtet ein riesiger Sprung. Die ersten Shader ebenso. Das war sogar alles vor der GTX580. Ich sehe gerade nicht welche Feature-Palette mir eine neue Generation an Mehrwert bietet für mich als Gamer, die absurde Preise von 1000-1400€ rechtfertigen könnten.

Jetzt kannst du natürlich Raytracing und DLSS ins Feld führen, aber für mich ist Raytracing ein "Nice-to-Have"-Feature und eine Erleichterung in der Entwicklung. Und Raytracing könnte man durchaus gleich setzen mit den ersten Shadern, für diese Grafikkarten wurden aber keine 1500€ Preise aufgerufen. Gleiches gilt für DLSS, eine "Bildverbesserung" die nicht einmal frei ist, ist in meinen Augen ein ähnlicher Schritt in der "Bildverbesserung" wie einst Tessellation.

ich sehe einfach nur eine neue Preispolitik welche an den Tag gelegt wird, welche Apple eingeführt hat und in Perfektion beherrscht. Es werden sich immer Argumente finden, die Preise zu rechtfertigen aber darf nicht abstreiten, das vieles teurer geworden ist, jenseits der Inflation.
 
  • Gefällt mir
Reaktionen: flying_ass und PhilAd
Wenn ich mir die Tests der neuen Spiele - AC:W z.B. anschaue, frag ich mich, was ich mit so einer Karte soll?!
 
  • Gefällt mir
Reaktionen: MarcelGX und Nefcairon
Zurück
Oben