News Comeback: Die Fertigung der GeForce RTX 3060 soll wieder anlaufen

@Samuelz
Da sagt die Community-Umfrage aber was anderes:
cb_bildschirme.png

Full-HD ist ne Minderheit und hat über die letzten Jahre stark abgebaut (war ja mal bei fast 50%), die Mehrheit nutzt jetzt WQHD gefolgt von UHD und UWQHD. Zumindest unter aktiven Community-Mitgliedern.
Selbst WQHD baut mittlerweile ab. Ich hab auch jüngst von 3440x1440 auf 5120x1440 geupgradet.
 
  • Gefällt mir
Reaktionen: Alphanerd und Wichelmanni
RTX 3060 ist eine gute Karte.

Ich habe eine RTX 2060 im Drittrechner, die zieht noch alles.
 
Marcel55 schrieb:
Da sagt die Community-Umfrage aber was anderes:

Full-HD ist ne Minderheit und hat über die letzten Jahre stark abgebaut (war ja mal bei fast 50%), die Mehrheit nutzt jetzt WQHD gefolgt von UHD
Kontere mit Steam Umfrage:
Unbenannt.png

Wir sind hier auf CB in einer Bubble!
Ja Die Tendenz für 1080p ist sinkend aber die Auflösung ist noch weit verbreitet
Marcel55 schrieb:
Selbst WQHD baut mittlerweile ab.
Nein:
Unbenannt.png


Ergibt auch Sinn:
Hardware wird wieder teurer, aufrüsten unerschwinglich und wenn man einen neuen Monitor braucht muss man ja auch gucken wie man den befeuert.
 
  • Gefällt mir
Reaktionen: eXe777, Gizzmow, Xes und 3 andere
Interessant ist doch nur der Preis. Sie steht leistungstechnisch unter der 5060 und die startet Stand Heute bei 312 für eine Gigabyte Windforce. Klar, 4GB weniger VRAM aber wenn es dann etwas teurer wird kratzt sie schon an der 9060XT, die mit 413€ und 16GB vermutlich die bessere Wahl ist. Also 240,-€ oder sowas... dafür vielleicht aber ob das passiert?
 
Yosup schrieb:
Der Laie staunt, der Fachmann wundert sich, alle anderen schütteln nur noch den Kopf...
Du weißt aber schon, dass die 12GB version jedwede 8GB Karte schlägt, wenn man entsprechende Vorraussetzungen schafft?
Eine 5060 Ti 16GB macht auch eine 5070 12Gb platt, wenn man es so einstellt.
Für die Langzeitnutzung ist das also definitiv sinnvoll, wenn man sich bei den absurden preissteigerungen nich tmehr alle 2-3 Jahre eine neue Karte holt, sondern die auch mal 5-7 halten müssen.
Für Pille Palle Spiele nimmt man natürlich einfach absolute Rohleistung, aber selbst da sind die neuen NVidia Karten absolut schlecht drin und das neue Namensschema nicht wirklich wert.
Am Ende geht natrülcih alles auch über den Preis.
Ach ja, Indiana Jones will unbedingt 10GB haben.
Vielleicht wird/wurde das nachgepatcht.
Aber es zeigt den Weg der Spiele.
Bei PCGH gibts imemr schöne Heftbeiträge, aber auch Onlientests udn Videos dazu, falsl man hier nicht fündig werden sollte.
Oder auch bei Hardwaredealz bei Youtube.
In dem Video ist z.B. eine 5060 Ti 8GB gegen 16GB angetreten und wird total in den Boden gestampft - bei normalen Spieleinstellungen.
Spiderman 130 Bilder in FullHD oder nur 46. Nur wegen mehr Speicher.
Und udn und an weitere Spielbeispiele.
Jetzt. Nicht erst in 3 oder 5 Jahren.
Und in Benchmarkbalken sieht man nicht die eklatanten Grafik udn Performanceprobleme im Spiel selbst.
Wohlgemerkt bereits bei annähernd gleich langen Balken, wo man meint, die Karten sind doch nahezu gleich schnell.
Wenn also eine Karte zwei Versionen auf dem MArkt hat und in einem Leistungsindex die KArte mit mehr VRAm lediglich nur 3% schneller zu sein scheint, dann kauft man trotzdem niemals die Karte mit dem kleinen Speicher, wenn man damit Triple-A zocken können will.
Unoptimierte Spiele machen einem schnell einen Strich durch die Rechnung.
Siehe Watch Dogs und Mordor damals, wo 3/4GB Standard waren und nie benötigte 8GB VRAM der Radeons plötzlich die eierlegende Wollmilchsau für hohe Bildraten waren.
Übrigens: MFG rettet einem NICHT den Tag, wenn man zu wenig VRAM hat, denn das macht alles nur noch schlimmer, denn die Bilder müssen zusätzlich im VRAM gespeihert werden!
 
Zuletzt bearbeitet:
Aus Fehlern werden nur andere klug.
Nvidia zeigt wie egal denen die Endnutzer sind, solange die diesen alten Mist brav kaufen.
 
  • Gefällt mir
Reaktionen: Sebbi und Clark Griswold
BxBender schrieb:
Ach ja, Indiana Jones will unbedingt 10GB haben.


Es gibt bislang kein Game, das "unbedingt 10GB haben will". Indiana Jones ist sogar eines der schlechteren Beispiele für VRAM-Knappheit, weil es sich beim kritischsten Setting um einen (Textur-)Streamingcache handelt, der optisch so mittel Mehrwert bringt, wenn man ihn größer pumpt. id Tech verhandelt halt nicht in globalen Texturdetails, wie man sie kennt.

PS: Das ist keine Werbung für 8GB-Grafikkarten -- für 6 schon gar nicht. Allerdings sollte auch die Computerbase-Redaktion mal zumindest nachprüfen, ob sich die Performance-Targets der Hersteller erfüllen lassen, wenn welche angegeben sind. Indiana Jones läuft nämlich offiziell nicht nur auf Steam Deck, sondern seit Launch auf einer RTX 2060 Super -- das hatten Machine Games in den Specs auch "versprochen".

Ansonsten geht auf Basis ihrer Benches auch mal so ein Clickbait-Käse rund: ALLES UNTER 12GB KANN DAS GAME VERGESSEN!!!!1

https://www.notebookcheck.com/Todes...rt-Grafikkarten-wie-RTX-4060-Ti.929027.0.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cele
Sennox schrieb:
Kontere mit Steam Umfrage:
Ist auch zu ungenau. Jedes Gerät das Steam drauf hat wird hier mit aufgeführt, also auch Notebooks, Office Pcs, Internet Cafe Pcs etc. Es gibt viele die Steam nutzen auf Geräten ohne dedizierte Graka um einfache Spiele zu spielen, die auch auf der APU laufen. Dazu kommt, dass alte aufgenommene Systeme in der Statistik einfach liegen bleiben und als aktiv gelten. D.h. mein ehemaliger 2560x1440 32" ist wohl noch in dieser Statistik, obwohl ich längst auf einem 34" 3440x1440 bin.
Sennox schrieb:
Wir sind hier auf CB in einer Bubble!
Ja aber genau diese Bubble ist doch ausschlaggebend. Jemand mit Office PC, der hier und da 2d Spiele zockt , kauft doch keine dedizierte 3060....
 
Sennox schrieb:
Ergibt auch Sinn:
Hardware wird wieder teurer, aufrüsten unerschwinglich und wenn man einen neuen Monitor braucht muss man ja auch gucken wie man den befeuert.
so funktioniert das aber in realität nicht...dein monitor geht kaputt, alle reden von tollen 4k oleds also kaufst du einen und kommst dann hierher und jammerst rum das deine alte 3060 halt auf 4k plötzlich keine 100fps mehr hat...und wir erklären dir dann das du dlss nutzen must oder du ne grafikkarte für mindestens 1000€ kaufen must...
 

-Legend-Storm- schrieb:
die 1080ti winkt noch aus den zweit PC und sagt sich " ich bin bald wieder eine moderne Karte " :evillol:


Leider eine Generation zu früh eingekauft. :D





Die 2080Ti wird man noch länger in Gebrauch sehen als die 1080Ti -- noch einmal mehr, sollte sich die PS6 tatsäczlich verspäten.
 
Zuletzt bearbeitet:
Bei meinem DeLorean DMC-12 glühen schon alle Bremsen und Gummis.

Leider ist der Kofferraum zu klein...
 
@WommU Hm, die tendez scheint zu passen. Denn viele Quellen unterschiedeliche Marktforschungsberichte zeigen auf wohin die Reise aktuell geht...

Claude AI:
Marktforschung zum Gaming-Monitor-Markt (z.B. Consegic Business Intelligence) schaut auf verkaufte Monitore statt auf aktive Nutzer. Da ergibt sich ein interessanter Unterschied: Full HD hatte 2024 einen Umsatzanteil von 39 % am Gaming-Monitor-Markt – also deutlich weniger als die ~53 % Nutzeranteil bei Steam. Das macht Sinn, weil ältere 1080p-Monitore noch viele Jahre im Einsatz bleiben, während neue Käufe stärker Richtung 1440p gehen.

Ich glaube das spiegelt die Wahrheit deutlich mehr. Alte PCs, Zweitrechner, office pcs, inet kaffee pcs, notebooks usw. verwaschen das Steam Hardware Ergebnis massivst.
Gerade unter Gamern, die nicht nur olle 2d klick Spiele spielen mit ihren Office Geräten, sondern wirklich auch neuere Titel werden wohl deutlich mehr in wqhd spielen. WQHD Monitore sind mittlerweile auch absoluter Standard und sehr sehr günstig zu bekommen. 25/26/27 dürften das Bild noch weiter in WQHD rücken... FHD stirbt langsam aus...
 
Svennc schrieb:
Die 2080Ti wird man noch länger in Gebrauch sehen als die 1080Ti
Ich frage mich eh warum die 1080Ti so sehr für die angebliche Langlebigkeitkeit gefeiert wird. Als letzte GTX Karte kann sie nicht nur kein RT, sondern ist auch bei DLSS außen vor.
Klar die 1080Ti hatte gute Rasterleistung und für ihre Leistungsklasse üppig VRAM, aber spätestens seit mit DLSS3 hohe Auflösungen immer weniger nativ berechnet werden, ist die 1080Ti gegenüber den Nachfolgern massiv im Nachteil und die nur ein Jahr später releaste 2080Ti steht heute wesentlich besser da.

Pascal war toll (ich hatte selbst eine GTX 1070 mit der ich damals super zufrieden war), aber mit einer 1080Ti bekommst du heutzutage teilweise echt schon große Probleme, wohingehen ein Kumpel von mir mit seiner kaum jüngeren RTX 2080 immernoch weitestgehend ohne Probleme in FullHD spielen kann. (Trotz der nur 8GB VRAM).
 
  • Gefällt mir
Reaktionen: Hawk1980
Xes schrieb:
Ich frage mich eh warum die 1080Ti so sehr für die angebliche Langlebigkeitkeit gefeiert wird. Als letzte GTX Karte kann sie nicht nur kein RT, sondern ist auch bei DLSS außen vor.
Klar die 1080Ti hatte gute Rasterleistung und für ihre Leistungsklasse üppig VRAM, aber spätestens seit mit DLSS3 hohe Auflösungen immer weniger nativ berechnet werden, ist die 1080Ti gegenüber den Nachfolgern massiv im Nachteil und die nur ein Jahr später releaste 2080Ti steht heute wesentlich besser da.

und was wenn man diese Fakeseuche nicht will, man lieber nativ auf 1080p spielt, anti aliasing seinen Job macht, man nah genug am Monitor sitzt, so das >24 " zu groß wären für den Blickwinkel, um alles zu erfassen und die Panel Qualität so gut ist, das man einzelne Pixel erst bei 1cm Abstand sieht?

Dann reicht auf einmal die Leistung der 1080TI durchaus wieder für 60fps mit guten Details ... Wenn es da nicht die Unsitte gäbe, Games nicht mehr zu optmieren und den VRAM Verbrauch in schwindelerregende Höhen zu treiben.
 
Jetzt erst gelesen das. Heißt das dann wenn ich bis Weihnachten warte kommen Karten wie die Matrox Mystique und die Diamond Monster 3DII wieder auf den Markt?
 
  • Gefällt mir
Reaktionen: Sebbi
Sebbi schrieb:
und was wenn man diese Fakeseuche nicht will, man lieber nativ auf 1080p spielt, anti aliasing seinen Job macht, man nah genug am Monitor sitzt, so das >24 " zu groß wären für den Blickwinkel, um alles zu erfassen und die Panel Qualität so gut ist, das man einzelne Pixel erst bei 1cm Abstand sieht?
Nichts für ungut aber wenn du so nahe vor dem Bildschirm klebst, dass >24" zu groß für den Blickwinkel wären (wie nah ist das? <30cm?) und du auf dieser kurzen Distanz auf einem 24" 1080p Panel noch keine einzelnen Pixel ausmachen kannst, solltest du eventuell mal zum Augenarzt. 🤷‍♂️
 
Xes schrieb:
dass >24" zu groß für den Blickwinkel wären (wie nah ist das? <30cm?)

80 cm - Dual Monitor Setup - 2. Monitor links von mir, rechts ein paar Grad Freiraum. Eingerichtet nach Arbeitsplatzvorschriften für einen Bildschrimarbeitsplatz.

Ich kann ohne das sich meine Augen hin und her bewegen müssen, den kompletten Inhalt meines Hauptmonitors erfassen, was angenehmer für die Augen ist, weil weniger ermüdend.

Xes schrieb:
und du auf dieser kurzen Distanz auf einem 24" 1080p Panel noch keine einzelnen Pixel ausmachen kannst, solltest du eventuell mal zum Augenarzt.

oder man hat einen ortentlichen Monitor, der keine 80 dpi hat, sondern ein IPS Panel 200+dpi aufweisen kann.
Wenn du auf deine Entfernung bei deinen Monitor einzelne Pixel ausmachen kannst, dann solltest du dir einen besseren Monitor kaufen.
 
Sebbi schrieb:
oder man hat einen ortentlichen Monitor, der keine 80 dpi hat, sondern ein IPS Panel 200+dpi aufweisen kann.
Dann kann das aber wiederum kein 24'' Display mit 1080p sein. Denn die Pixeldichte ergibt sich ja aus Auflösung und Bildschirmgröße. Bei 1080p auf 24'' liegt die Pixeldichte so um 93 dpi.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Zurück
Oben