News GeForce RTX 3060 Ti: GPU-Z verrät GA104 mit 4.864 ALUs und 8 GB GDDR6

zonediver schrieb:
Was kostet dann die 3060? € 350.-? Und das mit nur 6GB-VRAM... nö danke :freak:

nun, soviel besser war es mit der rtx2060 auch nicht...die 160watt leistungsaufnahme mit 6gb vram kosteten bei der einführung auch 320-330€.
aber ich pflichte bei - langsam wird es für 6gb vram einwenig dünn..
 
Was ich komisch finde: Seit wann gibt es Gerüchte über ein TI-Model vor der non TI-Version?
 
Marcel55 schrieb:
Es läuft aber lange nicht jedes Spiel mit DLSS, und wenn man auf TV oder Monitor in 4K spielen möchte, ist DLSS die einzige Alternative zur nativen 4K Auflösung.
Mal davon ab haben die Karten durchaus genug Leistung für 4K, auch in Zukunft.

Aktuell liefert eine 3090 auf 4K nativ gerade mal ca. 50-70 FPS in den meisten Titeln, mit ein paar Ausreißern Richtung 90-120 FPS.

Ich kenne niemanden, der 1440p auf 4K als großen Sprung empfunden hat. Ich habe zum Arbeiten 32" 4K Monitore und habe darauf auch schon mal gespielt, der qualitative Unterschied ist marginal.

Wer jedoch schon mal von 60 auf 120/144 Hz + FPS gewechselt ist, will nie wieder zurück. Der Unterschied ist wirklich wie Tag und Nacht, gerade in Spielen mit viel Bewegung.

Im Endeffekt hat man in den meisten Titeln aktuell eher die Wahl zwischen 4K nativ gerade so spielbar und 1440p nativ oder 4K DLSS extrem flüssig.

Aus meiner Sicht ist 4K nativ keine sinnvolle Auflösung.
 
  • Gefällt mir
Reaktionen: floTTes, Schuhkarton und Shoryuken94
Von 27" Full HD auf 43" 4K ist schon ein gewaltiger Sprung. Kam mir jedenfalls wie eine Offenbarung vor.

Mir reichen 60Hz bei 4K erst mal. Ich habe noch kein 120Hz gesehen, daher bin ich noch mit 60Hz zufrieden ;-)
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
GerryB schrieb:
Außer evtl. Game XYZ:
Ich verstehe denn Sinn deines Posts leider nicht. Um das klarzustellen ich will im selben Preisbereich der GTX1070 beim Kauf (300€) im gleichen TDP Bereich einiges an Mehrleistung bei gleichviel aber idealerweise mehr RAM. Und bloß weil es keine Karten mehr ohne Raytracing gibt fliegen mir nicht die Scheine aus der Tasche für die 3000er Karten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwirbelkatz und Endless Storm
Die 6GB der 2060 waren schon beim Launchtest messbar zuwenig. Jetzt, wo die Leistung einer 3060 für Raytracing in FHD reichen würde, ist er ein krasses Gegenargument. Wer seinen Use-Case kennt und nur Titel ohne Raytracing (oder die mit DLSS) spielt, der kann vielleicht noch zur 3060 greifen. Aber jeder der Zukunftstauglichkeit haben möchte, sollte heutzutage in der Preisklasse dringend auf 8 GB achten.
 
D3rid3x schrieb:
Was ich komisch finde: Seit wann gibt es Gerüchte über ein TI-Model vor der non TI-Version?
Weil die Ti den größeren Chip von der 3070 hat, = eherer Produktionsstart.
 
Discovery_1 schrieb:
Die normale RTX 3060 würde mir schon mehr als ausreichen, wenn nicht zu teuer.

da kannst wohl von 350€ ausgehen für 6GB im Jahr 20/21 nee danke behaltet euren überteuerten elektromüll ...

die Preise sind völlig überzogen, ich hoffe wirklich AMD grätscht da ordentlich dazwischen mit Leistung und Preis.

vorausgesetzt das kommt wirklich so ich meine ne 3060ti für 400€ viel zu teuer für 99€ mehr bekommt man ne 3070 🤷🏻‍♂️ wozu dann die schlechtere Karte kaufen?
 
180W, also ca so viel wie eine 1080 mal verbraucht hat, bin gespannt ob die 4080 dann Stock die 400W sprengt^^
 
@engineer123 Mittwoch 28.10.2020 ist AMD und erst am Donnerstag 29.10.2020 kommt die 3070.
 
Kloin schrieb:
Ich sitz hier mit ner GTX 1070 8GB (TDP 150W) die ich auf 0,98V undervoltet und auf 2000MHz laufen hab bei 25W weniger Verbrauch.
Die Generation hatte einen sehr großen Leistungssprung, eine solide Menge an Grafikspeicher für ihre Zeit und war sparsam. Die Sparsamkeit ist insbesondere eine Qualität, denn es gibt nichts Schlimmeres als eine Karte, die langsam wird und trotzdem heiß und laut vor sich hin kocht.

Kloin schrieb:
bloß weil es keine Karten mehr ohne Raytracing gibt fliegen mir nicht die Scheine aus der Tasche für die 3000er Karten.
6-9.jpg


GHad schrieb:
Mir reichen 60Hz bei 4K erst mal. Ich habe noch kein 120Hz gesehen, daher bin ich noch mit 60Hz zufrieden ;-)
So handhabe ich das auch. :) Ist bestimmt super, aber dann will man nie mehr zurück ;) Ohnehin hab ich keinen Bock, Teilnehmer einer Panel-Lotterie zu sein.


Ich habe den Eindruck, AMD wird morgen abliefern.
Writing's on the wall.
 
  • Gefällt mir
Reaktionen: Paul Muad'Dib
Colindo schrieb:
Die 6GB der 2060 waren schon beim Launchtest messbar zuwenig. Jetzt, wo die Leistung einer 3060 für Raytracing in FHD reichen würde, ist er ein krasses Gegenargument. Wer seinen Use-Case kennt und nur Titel ohne Raytracing (oder die mit DLSS) spielt, der kann vielleicht noch zur 3060 greifen. Aber jeder der Zukunftstauglichkeit haben möchte, sollte heutzutage in der Preisklasse dringend auf 8 GB achten.

In der Preisklasse ist aber nicht viel Auswahl. Zwischen 200 und 300 Euro haben alle (recht aktuellen) Karten nur 6GB. Und ich werde definitiv nicht auf 400 Euro hochgehen nur um 8GB zu bekommen. Und eine mehrere Jahre alte Karte kaufen, die im Preis praktisch nicht sinkt ist aus meiner Sicht leider auch keine Option...
Eigentlich wollte ich noch auf einen Monitor mit 3440 x 1440 Pixeln wechseln... Kann ich dann wohl knicken mit einer aktuellen <300€ Karte^^

Naja, Stand jetzt würde ich in den sauren Apfel beißen und mir die 6GB RT 5600 XT kaufen (Sapphire Pulse). Für das, was ich aktuell nutze, ist sie stark genug. Nur hätte ich keine Lust, mir alle paar Jahre was neues zu kaufen... Das System darf dann gerne wieder 8 Jahre halten^^ (-> kein Gamer aus heutiger Sich, nur Gelegenheitszocker)
 
GHad schrieb:
Von 27" Full HD auf 43" 4K ist schon ein gewaltiger Sprung. Kam mir jedenfalls wie eine Offenbarung vor.

Extrem große Monitore sind hier die Ausnahme, wo 4K durchaus Sinn machen kann. 2160p auf 43 Zoll ist von der pixeldichte aber noch immer leicht unter einem 27 Zöller mit 1440p. Allerdings sind solche Monitore eher eine Ausnahme, gerade bei Spielern

GHad schrieb:
Mir reichen 60Hz bei 4K erst mal. Ich habe noch kein 120Hz gesehen, daher bin ich noch mit 60Hz zufrieden ;-)

Hatte mir nach meinem 27 Zoll 1440p 165Hz Monitor einen 60Hz 32 Zöller geholt. Dachte darauf spiele ich eher langsamere Games.... letzten Endes zocke ich auf dem nichts. In meinen Augen sind hohe Framerates einfach ein viel größerer Bonus als die Auflösung. Vielleicht wenn es mal paar bezahlbare 4K 144Hz Monitore in 32 Zoll mit vernünftigem HDR gibt, werde ich einen zweiten 32 Zöller holen, aber auf 60Hz möchte ich nicht mehr zurück, auch nicht bei Singleplayer Spielen etc. In meinen Augen sind solche Framerates der größte Pluspunkt beim PC Gaming. Hatte auch lange Zeit lahme Displays zum zocken.

Wenn du mal die Gelegenheit hast, solltest du es unbedingt mal eine zeit ausprobieren :)
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Sgt.Slaughter schrieb:
Transparenz anstatt Verwirrung schaffen, das wäre dich mal was ihr lieben Verantwortlichen bei NVIDIA :stacheln:
verwirrte Kunden kaufen im Idelfall 2-mal =), am Ende ist ja doch der Kunde "schuld" und kann es dem Unternehmen schlecht vorwerfen das er sich nicht informiert hat.
 
Laphonso schrieb:
AMD beats Nvidia by availability ist der Tenor der Foren.

AMD gewinnt die Gruppe der "Unentschlossenen" bereits durch Verfügbarkeit, also dass man die RDNA2 Grafikkarten - im Gegensatz zu Ampere - überhaupt kaufen kann. ;)

abwarten und tee trinken, wenn jetzt die geprellten 3000 Käufer AMD die Bude einlaufen werden wir sehen ob AMD tatsächlich die Nachfrage soweit bedienen kann 🤷🏻‍♂️
Ergänzung ()

feed3r schrieb:
Ich hüpfe immer gern von Mittelklasse zu Mittelklasse. Mit meiner 1060 6GB muss ich ja fast heulen, dass die 3060 auch nur 6 GB hat.

der Preis ist einfach zu hoch für 6GB Speicher, für die 1060 wars noch OK aber in 20/21 und wenn man bedenkt die Karte soll noch 3-4 Jahre verwendet werden wird der VRAM knapp und dafür sind dann 350€ zu teuer.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz und Laphonso
@Endless Storm
Vielleicht hast du Glück und AMD zeigt morgen was krasses. Dann besteht die Möglichkeit, dass die Kartenpreise sinken...
 
So erstmal vram Nutzung hat nur bedingt was mit Auflösung zu tun
Den es gibt 2 Wege wie man den vram adressiert
Skalierbar über die bittiefe der maximalen polygone bzw bipmaps
Hier orientiert man sich an einer fixen Auflösung und alles darunter und darüber wird hoch herunterskaliert

Oder den zweiten weg über die polygondichte/bipmaps die je nach Auflösung sich erhöht
Diese Spiel haben je größer die Auflösung wird bessere assets/texturen weil mehr.
Und genau solche spiel sind es die 6-8gb gpu zum Verhängnis werden
Den es wird nicht mehr vergleichbar mit gpu mit mehr vram weil diese nicht dieselbe Optik haben wie eine gpu mit bsp 10gb vram
Wobei die erstere Methode immer sparsamer mit vram umgehen kann da ist die basis also 512 oder mehr bit pro ppi (windows seit jeher 96)
bei 1080p liegt man pro frame bei 2gb vram
man braucht etwa 3 frames also reichen 6gb vram aus dynamisch gehen bei Kompression auch 2,5 frames.

Die andere Methode ist das völlig egal da man nicht mehr die maximale Optik mit weniger vram zu Gesicht bekommt.
Bevor man nicht die grundlegende Auflösung erhöht.
zwar kann man die bittiefe einstellen bei manchen games bsp ubisoft games aber oft wird einen das vorgegeben an der vram menge. bsp cod mw2 re

Dieser zwang zu automatische Qualitätsanpassung bei games war nie eine gute Idee warum man das bei pc ports immer anwendet ist mirn rätsel.
Anstatt einfache vorgaben zu machen anstatt das per shader Kompilierung zu ermitteln. Das wird in Zukunft bei neueren gpu zu Fehlern führen.

kommende engines machen es möglich die bittiefe der Texturen dynamisch an die vram menge anzupassen
also wird das bild je weniger vram man hat unschärfer
Abhängig von der polygondichte und bipmap menge
Nachladeruckler sind dann Geschichte aber es wird deutlich unschärfer.
Daher sehe ich ab 2023 min 12gb vram als pflicht an
8GB werden reichen keine sorge aber es wird unschön aussehen meist weniger details.(vergleichbar mit den limit auf 720p)

Der Anfang wird die UE5 engine machen release 2022 erste games Mitte 2023
Und das wird wenn keiner ähnliche Lösungen hat der Standard werden für Jahre.
 
  • Gefällt mir
Reaktionen: Coeckchen und Zwirbelkatz
@lubi7

Anhand der techn. Daten dürfte die 60TI etwa 14% weniger FPS liefern als die 3070.
 
  • Gefällt mir
Reaktionen: GerryB
Blade0479 schrieb:
6gb Karten in 2021 :freak:...Das ist für mich eher neues Entry Level ala 1050(ti) 1650 usw
Kennt man doch von NV die verkaufen wieder Speicherkrüppel
nvidia the way it's meant to be played
Damit die Leute wieder schön aufrüsten xD
 
  • Gefällt mir
Reaktionen: Benji18
Endless Storm schrieb:
aja, Stand jetzt würde ich in den sauren Apfel beißen und mir die 6GB RT 5600 XT kaufen (Sapphire Pulse). Für das, was ich aktuell nutze, ist sie stark genug.
Wenn Du noch bis in den Januar warten kannst, wirst Du für 399 Euro eine 12GB Karte von AMD kaufen können (N22). Denke mal zweite KW, eventuell auch die Dritte - das scheint noch nicht ganz fest zu stehen. Oder halt im Abverkauf nach der morgigen Vorstellung mit viel Glück etwas im Abverkauf ....
 
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben