News Nvidia GeForce RTX 4060: Gerüchte und Benchmarks umreißen Leistungsniveau

kachiri schrieb:
Dieses "Gerücht" gibt es seitdem AMD 8 GB und NV 6 GB verbaut. Heute wissen wir, dass eine 1060 mit 6 GB nicht schlechter da steht als eine 480/580 mit 8 GB...
Doch sogar in vielen Games auch wenn es nur 5-10% sind. ;)
 
  • Gefällt mir
Reaktionen: Chismon
@Caramelito Gerade für esport games istdie4070 ti doch völlig überdimensioniert und reicht locker mehr als 5-7 Jahre. Sage ich als jemand, der csgo und dota auf ner 6600 in 4K mit 100+ fps zockt. Da würde auch ne noch langsamere Gurke reichen.
nur um deinen Punkt noch dreimal mit fettem ending zu unterstreichen :daumen:
 
  • Gefällt mir
Reaktionen: thuering, Valdi und Mcr-King
@CiX
Das ist mir durchaus bewusst.
Dennoch will man vllt. ne Runde CP, Hogwarts, GoW, .. spielen ^^

Wenn man über richtigen E-Sport spricht, dann hat man auch keinen 4k oder Ultrawide Monitor etc.

Wie es mit Fortnite etc ist kA..aber wenn es um jeden Frame geht, stellt man natürlich die Quali runter auf Low/Med oder was auch immer. So reicht auch eine RTX 3060 für die nächsten 5j. Egal ob 8 oder 12gb Vram ^^
 
Also ich bin zufrieden mit meiner 3080 für 430€.
 
  • Gefällt mir
Reaktionen: Pater_Erminold und ASCORBIN
Simariqcocuq schrieb:
Also ich bin zufrieden mit meiner 3080 für 430€.
Guter Preis für die 3080.
Vor dem Kauf einer 4090 konnte ich meine Aorus Xtreme 3080 auch für angenehme 500€ verkaufen. Wir sind seitdem auch im Kontakt geblieben und es hat sich eine gute Freundschaft daraus Entwickelt. war eine absolut tolle Karte nur die 10GB VRAM haben mich auf Dauer nicht glücklich gemacht
 
  • Gefällt mir
Reaktionen: Mcr-King
FR3DI schrieb:
Ich finde zwar "8 GB VRAM" auch unterdimensioniert, aber für den 24/7 Porntuber wird es um Welten reichen. Daher spart euch eine Diskussion über den Sinn & Logik darüber und freut euch einfach das "jeder" Kunde von NVIDIA bedacht und bedient wird,

Humor Ende.

Gruß Fred.
Dafür reicht eine RX6300/6400.
Aktuell gibt es wenig Spiele welche mehr als 8 GB VRAM Adressieren. Es ist halt wohl die Karte für das untere mittlere Segment. Entscheidend wird sein, wie viel Leistung die 112W haben werden. Wie viel besser wird die Karte zu einer GTX1070/1080 usw. sein? Immerhin verbrauchen diese etwas mehr.
 
  • Gefällt mir
Reaktionen: Mcr-King
Jaa, hab mich schon gefragt wann die Karten mit 64Bit Abfindung kommen. Habe eigentlich 96bit für die 4060 erwartet. Die 128 Bit sind ja fast schon großzügig. Das hatte die 3060 teilweise auch schon.

Aber 4050 für 500 Euro wird n Schnapper. Die 4040 vielleicht sogar für 404€. Man darf gespannt sein!
 
  • Gefällt mir
Reaktionen: bullit1, Kaulin und Mcr-King
Ich bin so abgenervt, dass Eure ironisch sarkastischen Witze mich nicht mal mehr zum Lachen bringen.

Als ich gestern auch noch die aktuellen (nicht repräsentativen) Verkaufszahlen gesehen habe, kann ich gar nicht so viel fressen wie ich kotzen möchte. Die Menschen sind so dumm und kaufen wie die Weltmeister das maßlos überteuerte Zeug. :kotz:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Inxession, ademd91, Kommando und eine weitere Person
ASCORBIN schrieb:
Siehe Ampere 3080 10GB with Far Cry 6 😂
RTX 3080 FSR.png

...und jetzt?
 
  • Gefällt mir
Reaktionen: FrankN84 und Mcr-King
Über die Release Notes zur neuen Version des Gigabyte Control Center hat der Hersteller sowohl die GeForce RTX 4070 mit 12 GB als auch die GeForce RTX 4060 mit 8 GB indirekt bestätigt.

Dann kann man sich die (hauptsaechlich AI bezogene) Keynote von nVidia CEO Huang auf der GDC 2023 in ca. 9 Stunden wohl sparen, es sei denn man hofft mehr ueber Blackwell zu erfahren oder ist an den Marketingreden von Huang und den eingeladenen Gastrednern interessiert.

Eine Real-Time Pathtracing (RT-PT) Marketing-Demo koennte es wohl auch bei dem nVidia Keynote Event geben, da die nVidia RT-PT SDK in der Version 1 offiziell veroeffentlicht wurde.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Wenn die selben Argumente wie: 8 GB reichen fuer die 4060 Einsteigerkarte, Sinn ergeben würden, ist es trotzdem unsinnig. Warum hat ihr direkter Vorgänger 3060Ti dann überhaupt 12GB?
Hat sich jemals einer beschwert:
Ey kacke, meine Karte hat zuviel RAM!
 
  • Gefällt mir
Reaktionen: FrankN84 und Mcr-King
MORPEUS schrieb:
Ich bin so abgenervt, dass Eure ironisch sarkastischen Witze mich nicht mal mehr zum Lachen bringen.

Als ich gestern auch noch die aktuellen (nicht repräsentativen) Verkaufszahlen gesehen habe, kann ich gar nicht so viel fressen wie ich kotzen möchte. Die Menschen sind so dumm und kaufen wie die Weltmeister das maßlos überteuerte Zeug. :kotz:
Das ist das voll komische Konzept, dass die Menschen mit ihrem eigenen Geld machen können, was sie wollen ;-)

Vielleicht ist die realitätsferne Blase hier in unserer Community, in der jeder hier schon glaubt, dass jeder neue Titel 10 GB VRAM usage unter full hd benötigt.....einfach noch realitätsferner als wir es selbst merken?

Ich habe beide Gruppen im Freundeskreis, die High End Enthusiasten, die in den letzten 10 Jahren in der Reihenfolge ab launch die 780Ti, die 980Ti, die 1080Ti, die 2080Ti, die 3090 und nun die 4090 gekauft haben.

Und dann das andere Extrem der Casuals, die bei der 60er Klasse sind seit der 760, 960, 1060, 2060 etc.

Es gab nicht ein einziges mal ein Szenario in den letzten 10 Jahren, dass da jemand über das VRAM sprach.
Grund: VRAM ist IRRELEVANT in der Zielgruppe.
Die können alles zu 100% so spielen wie sie wollen. Uneingeschränkt.

Wer mehr VRAM braucht, also wirklich GENAU die paar wenigen Games spielt, die "nicht spielbar" sind (welche sind das btw?) mit 8 GB VRAM in 1080p, kauft keine 60er Nvidia GPU.

Ist echt total einfach. :)
Ergänzung ()

LencoX2 schrieb:
Warum hat ihr direkter Vorgänger 3060Ti dann überhaupt 12GB?
Hat technische Fertigungsgründe: Aufgrund des Speicherinterfaces von 192 Bit.
Hatte nichts mit goodie zu tun.
 
  • Gefällt mir
Reaktionen: ademd91 und Mcr-King
MORPEUS schrieb:
Einfach wäre es nur wenn die Preise stimmen würden.

Die stimmen ja leider generell nicht mehr, und ich fürchte, wir kommen da bis auf weiteres auch nicht mehr hin zurück.

Wer in Sachen Performance und VRAM "Ruhe" haben will jenseits von 1440p, kauft per heute die 4080 oder die 7900XT/X. Oder schießt "günstig" die 3090 oder 6900XT/6950XT

AMD und Nvidia ziehen beide das upselling gnadenlos durch.
 
  • Gefällt mir
Reaktionen: Mcr-King
MORPEUS schrieb:
Weiß jemand was 16 GB GDDR6(X) kosten?
GDDR6 kostet aktuell ca. 3,55$ pro GB. Das heißt eine Verdoppelung des VRAMs von 8 auf 16 GB würde Pi x Daumen 30 (+ sagen wir 10 $ Nebenkosten, + 10 $ Steuern), also läppische 50 $ - und keine mehrere Hundert $ - kosten.
 
Laphonso schrieb:
AMD und Nvidia ziehen beide das upselling gnadenlos durch.
Aber Nvidia kosten mehr als die UVP also ein Sale ist dass nicht naja ausser NVIDIA und ihre Anhänger machen dass immer so. 😉

Amd und Intel gute Preise und NVIDIA RTX30er nicht wirklich gut. 😉
 
  • Gefällt mir
Reaktionen: Laphonso
LencoX2 schrieb:
Warum hat ihr direkter Vorgänger 3060Ti dann überhaupt 12GB?
Die 3060 (nicht Ti) hat 12 GB VRAM, weil sie aufgrund ihrer Speicheranbindung sonst 6 GB haben müsste. Was dann sogar Nvidia zu wenig war.
Die "neue" 3060 mit 8 GB VRAM hat nur weniger Leistung gegenüber der 12 GB-Version, weil auch das Speicherinterface langsamer ist.
Und natürlich ist die Angabe "12 GB VRAM" auch wunderbar, um jede Menge uninformierte Leute zu ködern, die denken, dass VRAM = Leistung ist.
 
  • Gefällt mir
Reaktionen: Mcr-King und Laphonso
Mcr-King schrieb:
Aber Nvidia kosten mehr als die UVP also ein Sale ist dass nicht naja ausser NVIDIA und ihre Anhänger machen dass immer so. 😉

Amd und Intel gute Preise und NVIDIA RTX30er nicht wirklich gut. 😉
Also...
Ich habe auch absolute AMD und Team Rot only Freaks in meinen Daddelgruppen, und sogar die sprechen von AMD Mittelfingern und nur 2 neuen "next gen GPUs" , die einen Einstiegspreis von 850 Euro respektive 1100 Euro haben.
Wir sprechen von AMD hier!
Tolle "Alternative"!

Wo ist die 7800XT? Wo die 7700XT? Wo ist AMDs neues midrange Angebot?
AMD bekommt es seit 5 Monaten nicht gebacken, FSR 3.0 zu platzieren.
Wo ist hier die Alternative?

AMD kann dieses traurige und ebenso teure Profitberechstangen-Verhalten nur durchziehen, weil Nvidias noch dreistere Penetranz und freche Portfoliopolitik einfach viel mehr Scheinwerferlicht und Buhrufe zieht.

Nach wie vor gilt, wer nicht zwingend mehr braucht, fährt am besten und bis auf weiteres fantastisch mit der 6800XT (weit vorne P/L!) und dann mit den 3080/TIs im sale im oberen Ende oder endlich "UVP" Optionen mit der 3070/Ti und 3060Ti im Mittelsegment für full hd und 1440p.

Diese GPUs sind auch 2,5 Jahre später nicht langsamer als vorher!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: franzerich, Mcr-King und Fallout667
Zurück
Oben