News Nvidia zur GeForce RTX 4060: Grafikkarte bringt 13 mal mehr Leistung* und „Less Power“

Diablokiller999 schrieb:
Na, Dickmoves kann man auch als solche betiteln. Einer gefügigen Riege an Werbeträgern aka Tech-Youtubern, die wahrscheinlich schon mit einer OS-Installation an die Grenzen ihrer kognitiven Fähigkeiten stoßen, das NDA zu lockern um Gefälligkeits-Previews zu bekommen ist schon arg shady würde ich mal sagen.
Ich sehe den Schritt unabhängig vom Produkt, ist und bleibt asi.
Ich finde das leider völlig normal. Firmen werden immer darauf aus sein, Influencer maximal und mit allen Möglichkeiten zu ihren Gunsten zu nutzen und zu beeinflussen. Ehrlich gesagt wäre ich jetzt davon ausgegangen, dass das, was Nvidia treibt, alltägliche Normalität im Umgang aller Firmen mit Influencern ist, nur dass das halt nicht immer öffentlich wird, weil daran weder die Firmen noch die Influencer irgendein Interesse haben.

Immerhin gibt einem das aber auch ein Mittel an die Hand, bei den Influencern seiner Wahl die Spreu vom Weizen zu trennen. Der Weizen boykottiert das Ganze entweder komplett oder führt den "Test" durch, klärt dabei aber ganz klar über die Umstände und die Tatsache auf, dass ein objektiver Test durch Nvidia untersagt wurde. Der Spreu testet und jubelt hingegen. Kann ja auf der Grundlage dann jeder selber entscheiden, wem er in Zukunft noch Gehör und Aufmerksamkeit schenkt ...
 
  • Gefällt mir
Reaktionen: conglom-o
ThirdLife schrieb:
Und stattdessen was kaufen ? AMD ? Die nahezu genauso teuer aber Feature-Incomplete sind ?
Ich hab für den Preis der 4060 eine 6700xt gekauft und kann wunderbar ohne die Features leben das meiste was ich spiele unterstützt das sowieso nicht.
 
  • Gefällt mir
Reaktionen: Chismon, Zik0815, mibbio und 4 andere
Diablokiller999 schrieb:
Spätestens da ist dann die Grenze der Werbung für mich überschritten.

Und genau dieses Wissen ist für die nächste Generation wichtig.

Manche lernen es schneller, manche langsamer. Lernen müssen es aber alle.

Die Tatsache, dass die Werbung keine Verbraucherproduktinformation mehr ist, muss man wissen. Gut wäre, wenn die Influencer, die sich haben kaufen lassen, an ihren eigenen Zuschauerzahlen merken würden, dass die Konsumenten sie durchschaut haben. Das ist aber genauso Wunschdenken wie zu glauben, die Hersteller würden das Beste, was sie bauen können, zu den billigsten Preisen verkaufen.

mfg
 
  • Gefällt mir
Reaktionen: BornBad
@ThirdLife

Naja die 5000 Euro Upgrades von Intel für das ganze Team gesponsert sind schon Mal ein Anzeichen das Geld fließt. Dazu gibt's ja einige Videos. Als ich den Test zu Raptor Lake gesehen habe, wurde beim Energieverbrauch dann sehr schnell weiter geklickt. Das erfüllt mich nicht mit Vertrauen. Wer umfassend auf Vor- und Nachteile eingeht, muss sich derartige Kritik dann nicht anhören.

Manche hier wollen ja Kritik an ihrer Marke gar nicht hören und zählen nur immer wieder die gleichen Marketingfolien auf. Das hat für mich nichts mit Neutralität zu tun.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und Demon_666
ThirdLife schrieb:
Ist schon langsam eine Unart jedem der die eigene Meinung nicht trifft oder einem nicht passt irgendwelche bösartigen Motive zu unterstellen.
Das sollten sich die Leute mal einbleuen, die hier andere als Fanboy bezeichnen.
 
Zuletzt bearbeitet:
Ich hatte in Erwägung gezogen eine 3060ti oder 4060 für Starfield zu holen, nachdem das nun aber von AMD gesponsort wird macht ne 6700(xt) wieder mehr Sinn, ohne DLSS bleibt ja nur die Energieeffizenz übrig.

Von den Benchmark "leaks" her liegt die Rohleistung der 4060 gegenüber der 3060 ja bei ~20%.
Am Ende denke ich das der Preis die Musik machen wird, alte sowie neue Generation sind interessant fürs aktuelle Gaming.

Und dann ist da ja auch noch der Gebrauchtmarkt....
 
C0rteX schrieb:
@ThirdLife

Naja die 5000 Euro Upgrades von Intel für das ganze Team gesponsert sind schon Mal ein Anzeichen das Geld fließt. Dazu gibt's ja einige Videos. Als ich den Test zu Raptor Lake gesehen habe, wurde beim Energieverbrauch dann sehr schnell weiter geklickt. Das erfüllt mich nicht mit Vertrauen. Wer umfassend auf Vor- und Nachteile eingeht, muss sich derartige Kritik dann nicht anhören.
Ah ok, jetzt versteh ich wo du herkommst. Ich finde aber er hat diese Videos ja ganz klar als Sponsoring gekennzeichnet und rein des Unterhaltungswertes so gemacht.

Er hat aber auch oft genug all diesen Buden in die Nüsse getreten mit seinen Aussagen. Auch Intel oder nVidia. Neben HWU, Igor oder GN finde ich Linus mit einen der transparentesten Youtuber in diesem Segment.
 
  • Gefällt mir
Reaktionen: simosh
wow... das es so schlimm ist, hätte ich nicht gedacht @latiose88 . Ich bin auch davon ausgegangen, das mit höheren Auflösungen auch PPI steigen würde und alles viel schärfer würde!!
Erweiterter Farbraum und HDR sollte der neue auch mitbringen... war jedenfalls mein Wunsch bis heute. Ich möchte mal richtiges Schwarz haben als nur irgend ein dunkles grau... echte Farben ohne erst den Bildschirm und über Grafiksteuerung hin und her zu mischen, bis einem die Farben gefallen.

Seit gefühlt einem Jahrzehnt sind wir mit 2 Ilyama ProLite X(B)2783HSU unterwegs und 27" sind uns eigentlich schon ein wenig zu klein (von der Bildfläche her gesehen) und sollte schon was breiter werden. Höher muss nicht unbedingt. Bei mir habe ich helle Flecken IM DISPLAY am Rand was total beschissen aussieht aber die Dinger laufen noch und darum wurde noch nichts neues gekauft.

Jetzt, nach deinem Bericht, bin ich noch "verwirrter" als vorher 😂 vor allem bin ich kein Freund von "kaufen, ausprobieren, bei nicht gefallen zurück schicken, anderen kaufen, ausprobieren, zurückschicken bis es passt".
Wenn ich was kaufe, dann einmalig und wenns nicht passt, dann ärgere ich mich eher anstelle den Weg der Retoure zu wählen.

latiose88 schrieb:
Ich selbst habe noch ne gtx 1650 und so viel mehr bietet mir so eine GPU auch nicht wenn man sowas wie DLSS und Raytracing weg lässt.Klar gibt es mehrleistung aber auch mehr Stromverbrauch.
jein... ich dachte auch erst, das ich mit einer RTX 3090 FE deutlich mehr Strom in Games benötige als mit einer GTX 980. Die Überraschung kam dann beim direkten Vergleich, das der Rechner mit der RTX 3090 mit Xeon E3-1230 V3 "OC", 4 Speicherriegel, 10 Laufwerke (4x HDD - 6x SSD) in Diablo 3 - Diablo 4 deutlich weniger Strom sich zog als mit einer GTX 980 OC, I5-6500, 2 Speicherriegel, 1x NVME + 1 SSD.
Es waren zwar nur 10 bis 20 Watt Differenz zwischen den beiden Systemen aber immerhin war ein Unterschied da.
Vor allem auch akustisch! Da, wo meine GTX 980 brüllt als würde sie bei lebendigen Leib verbrannt und würde am liebsten aus dem Gehäuse davon fliegen (3 GPU - Lüfter brüllen bei fast 4000 RPM um die Wette), drehen bei der RTX 3090 die Lüfter unhörbar bei 800 RPM.

Umstieg auf RTX 4090... oh je... das Ding wird Strom verbrennen wie bolle... so wie das beworben wird.
Tja und? Im Vergleich mit der RTX 3090 ging der Stromverbrauch noch mal nach unten und Lüfter??? Pff... bei Games wie Diablo 3 machen wir die erst gar nicht an und selbst bei Diablo 4, alles auf Ultra, DLAA aktiviert, springen die Lüfter auch oft erst nach 30 bis 45 Minuten an.

Es kommt wirklich auf das Game selber an, auf die besagte Auflösung etc.

Und ob man DLSS [Qualität], Nativ oder DLAA sehen kann? Mit Sicherheit gibt es Menschen, wie du es einer zu sein scheinst, der direkt erkennen kann ob da was aktiviert ist oder nicht aber ich bin für sowas wohl zu blöde. Ich kann da ehrlich gesagt nur Unterschiede erkennen wenn man irgendwas unter der höchsten Bildqualität von DLSS was einstellt weil es dann zermatscht. Man könnte nun anfangen und mit Schärferegler da herum zu optimieren aber das ist mir alles zu viel Aufwand. Ich möchte doch nur Spielen 🤣 und das mit bester Grafik in aller höchster Detailstufe. Mehr mag ich gar nicht haben.
Genauso wenig benötige ich drölf FPS. Mir reichen eigentlich die 60 FPS auch vollkommen aus und - danke meinem Bildschirm, gibt es auch Vsync mit 60 FPS denn alles was drüber ist, wird richtig mies da ich Screen Tearing vom feinsten habe!!!! Da geht ein Streifen quer durch den Bildschirm, es gibt Zeilensprünge, es verwischt alles... da wird mir schlecht - im wahrsten Sinne des Wortes! Mir wird schwindelig und übel wenn diese Fehler auftreten und dann habe ich auch keinen Bock mehr.

Also Fazit:
ich kauf mal schnell zwei neue Bildschirme für mich und meine bessere Hälfte ist wohl nicht drin und wird eine länger dauernde Aktion, wenn ich mir deinen Erfahrungsbericht so ansehe.

Danke schön!
 
  • Gefällt mir
Reaktionen: latiose88
Gear
Bosi schrieb:
Und dann ist da ja auch noch der Gebrauchtmarkt....
Dem ich mich beim Kauf einer 3080 bedient habe. Immerhin gebe ich so Nvidia nicht direkt meine Kohle. Bin mal gespannt, ob meine 10GB Variante für Starfield ausreicht. Die stößt nämlich bei Diablo 4 schon an ihre Grenzen. +100fps nützen mir nichts, wenn's eine Ruckelorgie wird, weil sich Ultra-Texturen gerne knapp 14GB VRAM zusammen klauben (und dabei nicht besser aussehen als Texturen von vor fünf Jahren).

Bei AMD gibt's generell mehr VRAM, allerdings spiele ich auch gerne mit RT. Und dann reicht zwar das Speicherbudget aber nicht mehr Leistung. Es ist zum Mäusemelken.
 
  • Gefällt mir
Reaktionen: simosh
BOBderBAGGER schrieb:
Ich hab für den Preis der 4060 eine 6700xt gekauft und kann wunderbar ohne die Features leben das meiste was ich spiele unterstützt das sowieso nicht.
Das ist in dem Fall eine sehr gute Wahl, ich hab mich halt auf die neue Gen bezogen.

Und das funktioniert halt nur solange AMD die abverkauft, dann ist irgendwann Schluss wieder mit Preis/Leistung und das Trauerspiel beginnt auch hier. Hat ja mit der 7600 schon begonnen wo man noch hektisch den Preis gesenkt hat zum Release. 🤣
 
@ThirdLife
Ja, er war mir manchmal etwas zu nett, hat aber auch schon gut abfeuert. Ich will eigentlich überhaupt nicht das reviewer irgendeine Gnade zeigen. AMD hat bei mir einen Underdog Bonus, weil ich das Zeitalter in dem Nvidia völlig alleine ist nicht erleben will. Wir würden uns sehnsüchtig an die schönen Zeiten von RTX 40 erinnern, während eine 5070 ti 12 GB Speicher mit 13 Prozent mehr Leistung als die 4070 ti hätte. Das ganze dann für 1200 Euro.

Deshalb bringt es mir auch nichts auf den Underdog mit mindestens 1 Jahr Feature Rückstand ein zu prügeln, weil sein erstes chiplet Design nicht der Bringer ist und das Unternehmen auch eine 50 Prozent Marge fährt. Ich sehe zumindest da mehr Bewegung im Preis/ Leistungsverhältnis. Wenn der Marktanteil von AMD wächst, haben alle was davon.

Ich will keine Innovationsarmut wie zu 4 Kern Intel Zeiten.

Außerdem könnte meine Karte von mir aus von Milky Way sein, solange mein usecase abgedeckt ist.
 
  • Gefällt mir
Reaktionen: simosh und ThirdLife
C0rteX schrieb:
Oder meinst du solche Leute wie Linus, die ganz offensichtlich sellouts sind.
In diesem Zusammenhang ist die Aussage etwas sehr merkwürdig?

Oder gibt es ein neues anderes Video? Also ich kenne nur das hier zur 4060Ti.
 
  • Gefällt mir
Reaktionen: simosh
Murks-Hardware (P/L + Nachhaltigkeit) durch max. influencen an unbedarfte verkaufen. Sehr nett. :-(
 
Botcruscher schrieb:
Kann man nicht ablehnen?!? Äh wir sollten mal den technischen Aspekt von Marketing trennen. Dieser erbärmliche Versuch der Manipulation einer einfach schlechten Karte per Apfel Birnen Vergleich. 60FPS mit DLSS3 sind 60FPS mit DLSS3 und eben nur 60FPS mit DLSS3. Da wird nichts bis zu 15x schneller, da es sich um ein ganz andres Verfahren handelt und die Technologie von den Vorgängern nicht unterstützt wird.

Da die Tricks aus der Mottenkiste funktionieren packt man eben auch den ein oder anderen Move dazu. Und hofft auf jubelnde Apple-Fans denen man Birnen-Produkte im eingemachten Gurkenglas verkaufen möchte.

Botcruscher schrieb:
Vom technischen Standpunkt ist es eine Blackbox unter der Kontrolle von NV. Bei der nächsten Chipgeneration wird der Kundschaft dann direkt die Hose ausgezogen. Oh aber jetzt ist DLSS4 wichtig. Die alte Version wird leider nicht mehr unterstützt. Kauft doch bitte einen neuen Speicherkrüpel im 500€ Einsteigerbereich.

NVIDIA: The Way It's Meant To Be Payed ?

Botcruscher schrieb:
PS: Die 8GB Karten sind alle durchweg Sch... Da macht DLSS keinen Unterschied. Da lässt sich nur noch debattieren welcher Haufen abartiger stinkt.

Lasset die Sommeliers antreten. Und möge der Resistentere gewinnen.
2023: Es ist genug für alle da :D
 
latiose88 schrieb:
Und zahlt die rtx 4060 genau unter diesen Aspekt wo du geschrieben hast oder wie soll man das denn bei dir verstehen?
Ne eben nicht, die pre release benchmarks zielenja genau darauf ab, verfälschte schöngeredete benchmarks die micht nicht inressieren 🤷‍♂️
 
@Intruder
Dann wird wohl in deinem Fall ein 32" OLED mit HDR genau der richtige Bildschirm sein.Mit Ordentlichem Aufpreis.Ich weis noch das ich kurz davor war ein HDR Bildschirm zu kaufen. Er war kurzfristig im Angebot bzw runter gesetzt.Jedoch war ich zu langsam weil als ich das Geld bei Amazon geholt und als Gutscheine rein getan hatte,war der Preis wieder höher gewesen.Alleine HDR ist man mit 200 € Aufpreis dabei.500 € für ein Bildschirm wo nur das besser war das war es mir nicht wert.Du hast jedoch glück das du keine höhere HZ willst,das drückt den Preis wieder nach unten.
Und wenn dir dabei schlecht wird,dann wirst du wohl die FPS selbst auf eine bestimmte Zahl eintragen.Dann kommst du auch nicht in dieses Problem und dann bist du auf der sicheren Seite.Ich selbst lege die FPS Zahl auch auf was bestimmtes Fest.Das hat den Vorteil das sich die GPU Anforderungen durch das auch senken.

Aber durch das das du halt dann bei so ner Bildschirm größe mindestens WQHD wenn nicht sogar 4k Pflicht wird,erhöhst du damit wieder die Anforderungen.Die Pixeldichte ist aufgrund der größeren Bildschirm freilich wieder niedriger.Wenn also mit WQHD bei 27" schon bei was mit 108 PPI ist und mit 4k auf 27" 166,sinkt diese mit 32" auch wieder noch weiter nach unten.So bei 140 PPI dürftest du dabei raus kommen. Im moment mit 27" Full HD so wie du es hast,dürftes du bei 91 PPI sein.

Mit anderen Worten,nen richtigen Gewinn hat man somit nicht.Man kann sich nur so hopp oder Top Entscheiden. Es kostet halt viel GPU Leistung und so einen Bildschirm wo du haben willst,da wird richtung 1000€ schon kosten.Ich habe generell nicht so viel Geld.Ich bin froh das meiner nur 160€ gekostet hatte.Für den Preis bekommt man halt keine Extras.
Achja noch was,statt Vsinc gibt es ja noch Gsink bei Nvidia und Freesync bei AMD.Wobei Freesync auch inzwischen von Nvidia unterstützt wird.Das sollte besser sein als Vsink,aber auch nur bis zu einem gewissen Radius.

Dies ist nur allgemein und keine Kaufberatung.
Dient nur damit wie umfangreich das ganze so ist.Ich jedenfalls habe nun sehr geringe GPU Anforderungen.Nicht jeder kommt damit klar.Wobei einen Shooter mit nur 60 hz und 60 FPS begrenzt durchaus zah sich anfühlen könnte.Würde also bei Egoshooter wohl bei einem 60 HZ 120 FPS raten.So handhabe ich das zumindest.
 
MrHeisenberg schrieb:
Ja, in Ultra Settings stimmt das, aber solche Karten sind nicht für 4K Ultra gedacht.
Wer die Regler bedienen kann, hat ein flüssiges Spielerlebnis.
Ich habe doch in meinem Beitrag #442 nur wiedergegeben, was CB schreibt. Die beziehen sich nunmal auf 1080p.

"In zwei einzelnen Spielen lässt sich aber bereits gut ein VRAM-Mangel in Full HD erkennen."
...
"Noch viel schlimmer ist, dass das Spiel immer mal wieder hakt – ein gutes Spielgefühl gibt es damit nicht mehr. Hier schneidet dann auch die GeForce RTX 3060 Ti trotz ebenso nur 8 GB Speicher um 13 Prozent besser ab. Das schafft der Vorgänger, weil er auf 16 PCIe-4.0-Lanes zurückgreifen kann, die GeForce RTX 4060 Ti aber nur auf 8 Lanes. Das macht sich erst bei VRAM-Mangel bemerkbar. Dank der 12 GB bietet in dem Spiel sogar die eigentlich klar unterlegene GeForce RTX 3060 zwar weniger FPS, dafür aber eine insgesamt deutlich stabilere Framerate."

ich lese da nichts von 4K Ultra, für was die Karte schließlich nicht gedacht ist. Es ist eine reine FHD Karte, mehr nicht. Allenfalls noch für WQHD brauchbar, mit reduzierten Einstellungen.
 
  • Gefällt mir
Reaktionen: vti und simosh
latiose88 schrieb:
32" OLED mit HDR genau der richtige Bildschirm sein
ich dachte eher an 34" 21:9 🙂
latiose88 schrieb:
wirst du wohl die FPS selbst auf eine bestimmte Zahl eintragen.
in der Tat. Ich habe schon immer die FPS an die Hz Zahl des Monitors angepasst. Ab und an mal für Benchmarks Vsync raus genommen und zu gucken was für Werte so bei rum kommen bzw. jeder erzählt mir, das mehr FPS besser sind und ich wollte gucken was es denn für positive Effekte hat aber bei mir ist das alles recht "beschissen" mit meinem Bildschirm wenn man es mal nett ausdrücken darf. Alles über 60FPS macht auf der Kiste nur Trouble.

Natürlich bedeutet höhere FPS natürlich auch mehr Bedarf an Leistung / Stromverbrauch was auch die Temperaturen wieder ansteigen lässt und natürlich auch mehr VRAM benötigt wird aber das sollte im Moment eher das geringere Übel bei unseren GPUs sein.

latiose88 schrieb:
so einen Bildschirm wo du haben willst,da wird richtung 1000€ schon kosten.
ja das kommt hin. Die, die ich mir anguckte, lagen alle bei 900€ bis 1300€. Klar viel Geld aber ich setze immer Nutzungszeiten von 10 Jahren voraus (falls nichts kaputt geht) und 1300€ auf 10 Jahre gerechnet ist nun wirklich nicht mehr so viel. Wenn wir uns ansehen, was "Gaming PCs" heute kosten... wenn GPUs schon bei 2000€ liegen...

na wenn man sonst keine Hobbys hat oder Verpflichtungen, offene Rechnungen, Kredite etc. , kann man das schon mal machen.
latiose88 schrieb:
Ich habe generell nicht so viel Geld.
na wer hat das schon! Schon vor allem in der heutigen Zeit. Den aktuellen PC, den ich jetzt habe, hat fast 1 Jahr gedauert bis ich alle Teile zusammen gekauft hatte und das Geld von der 4090 habe ich mir auch mal eben fix bei Familie geliehen und zahle die nun ab. Haufen Geld... aber hey geplante 10 Jahre Laufzeit ist alles wieder erträglicher. Auf 10 Jahre runter gerechnet würde mein Rechner 600€ im Jahr kosten. Pro Monat 50€...

andere verrauchen mehr im Monat :daumen:
oder geben es in Disco, Kino oder Essen aus
 
  • Gefällt mir
Reaktionen: latiose88
Zurück
Oben