Notiz Nvidia GeForce RTX 4090 FE: Drei Cyberpunk 2077 Editions sind auf Twitter zu gewinnen

Neodar schrieb:
... für gutes Geld verscherbeln.

Kriegst du die hier in Dollar los?
Ergänzung ()

Floxxwhite schrieb:
Meine 6900 XT hängt auch an einem guten 750 Watt Netzteil und das erste halbe Jahr ohne Probleme sogar an einem 550 Watt Netzteils.

Das funktionierte bei dir? Hab auch mal ne 6900XT ausprobiert, mit dem 750W lief sie mit ach und Krach, bei nem 500W NT kam nicht mal ein Bild.
Hab mich damals gewundert wieso AMD so Effizient sein soll, da ne 3080(Ti) problemlos und stabil auch mit dem 500er NT lief.
 
Ich bin interessiert, aber wenn Kreativität gefragt ist habe ich eh keine Chance, schade.
 
Interessant. Eine 4090 FE nehme ich geschenkt gerne.

liest weiter...

Man muss in Twitter angemeldet sein? Nope!
 
  • Gefällt mir
Reaktionen: Banjo
Etwas ironisch, weil ich die 4090 kaufen werde um dann ggf auch mal 2077 zocken zu können 😅.
Also leider nein zu dem Wettbewerb. 🤷🏻‍♂️
 
Somerset schrieb:
Sehr unattraktive Karte einer unattraktiven Firma.
Traurig das n Steam Deck mit 15 Watt TPD den Job auch tut.
Glaube kaum, dass das Steam Deck am 4K Fernseher angeschlossen mit Raytracing und maxed out ansatzweise in die FPS Bereiche kommt.
 
  • Gefällt mir
Reaktionen: Gesualdo
Khalinor schrieb:
Bei den Adaptern hätte ich immer ein schlechtes Gefühl den Rechner unbeaufsichtigt zu lassen da ich annehmen muss, dass mir jeden Moment die Bude abbrennt.

Ein bisschen übertrieben ist das schon. Adapterkabel die vom Hersteller mitgegeben werden dürften wohl den Qualitätsanforderungen entsprechen damit nichts abbrennt.
 
  • Gefällt mir
Reaktionen: Bulletchief
Nikflin schrieb:
Adapterkabel die vom Hersteller mitgegeben werden dürften wohl den Qualitätsanforderungen entsprechen damit nichts abbrennt.
Nein, tun sie nicht.
Nutzer müssen also bei der Verwendung des Adapters aufpassen, dass sie den Stecker nicht zu oft ein- und ausstecken, da er sonst nicht mehr funktioniert. Was genau dann passiert, geht aus den Spezifikationen nicht hervor. Laut einem Bericht der PCI-SIG, die den 12VHPWR-Stecker spezifiziert hat, ist das Problem aber bekannt. Wie Gamers Nexus berichtet, hat Nvidia ein Verschleißproblem bei manchen Adaptern festgestellt und der PCI-SIG gemeldet. Demnach konnte es in Tests bei ungewöhnlichen Kabel-Verbiegungen oder nach etwa 40 Verwendungen passieren, dass die Adapter bei hoher Last schmelzen können.
Quelle: PCGH

Edit:
CB hat dazu auch etwas geschrieben:
https://www.computerbase.de/2022-09...er-steckverbinder-auch-ohne-adapter-moeglich/
 
Zuletzt bearbeitet:
Ganze drei Karten? Und dann auch noch nacheinander?

WoW nVidia... billigste Marketingaktion ever. Nen vierstelligen Betrag in die Hand nehmen für extreme Reichweite... PFUI.
Durchaus schlau, aber trotzdem geizig und einfach pfui.
 
  • Gefällt mir
Reaktionen: Coeckchen und Khalinor
Was erwartet ihr eigentlich, jetzt wo die Profite durch die Miner weggebrochen sind und man mit den scalping der Gamer auch noch nicht so recht weiß ob das überhaupt noch klappt....
 
@Khalinor okay. Danke für die Aufklärung.

Jetzt stellt sich mir die Frage wie so ein Stecker es überhaupt dann in den Handel schafft. Keine Ahnung wie weit CE Zertifizierungen da greifen aber Konsumentenfreundlich klingt das jedenfalls nicht.

Zugegeben auch wenn die Zahl 50 nicht nach viel klingen mag so gehe ich mal davon aus das Otto Normal eine 50 mal den Stecker ziehen wird bis der PC oder die GK ersetzt wird. Dennoch wirkt es etwas abschreckend.
 
  • Gefällt mir
Reaktionen: Khalinor
Äh drei? Doch so großzügig von einem Milliardenkonzern. Ich kann leider nicht mitmachen. Meinem Rechner fehlt leider die benötigte "Infrastruktur" um die Sonderedition dann einbauen zu können. Am Ende gewinne ich noch eine und müsste irgendwie den Rechner fit für die Grafikkarte machen. Nee - das Risiko ist mir zu hoch.
 
Iqra schrieb:
Yeah, not so much. 4090 ja, aber dann ehrlich gekauft.

Bitte was? Lieber kaufen statt gewinnen? Was ist das für eine seltsame Einstellung? :confused_alt:

Khalinor schrieb:
Nicht mal geschenkt.

Na, wenn Du nicht willst... Ich würd sie geschenkt gerne nehmen, trotz des hohen Stromverbrauchs. Im Zweifelsfall kann man sie einfach verkaufen. Zu 2000+€ sage ich nicht Nein. :evillol:

Khalinor schrieb:
Bei den Adaptern hätte ich immer ein schlechtes Gefühl den Rechner unbeaufsichtigt zu lassen da ich annehmen muss, dass mir jeden Moment die Bude abbrennt.

Du hast da was falsch verstanden. Der ATX 3.0 Standard und der neue Stecker ist nicht das Problem. Das Problem sind potentiell die Adapter für ältere Netzteile.

Gesualdo schrieb:
Sollte das "ausgelost" heißen? ;)

Nein, man lobt einen Gewinn aus.
 
MaverickM schrieb:
Das Problem sind potentiell die Adapter für ältere Netzteile.
Ich dachte das Problem ist der Medienwirksam über alle Maßen gepushte Verbrauch. Glaubt doch keiner das die ganzen Leaks davor keine Stimmungstests waren?

Man fährt die Technik an ein unvernünftiges Limit, damit man eine Begründung für die absurden Preise bekommt.
Der Kunde ist der Dumme. Zahlt mehr, für eine heiß laufende Höllenmaschine, hat extra Kosten durch den Verbrauch und wie es auf Dauer um die Haltbarkeit bestellt ist, mal sehen. Das Problem/Risiko mit Adaptern kommt dann on Top.
 
wie lange wollen sie die Cyberpunk 2077 Sau noch durchs Dorf treiben? Ob es da jetzt noch ein Ultra Duper psycho Setting gibt oder nicht, das ist doch nur noch Schw...vergleich ohne Mehrwert. Ein grafisch schönes Spiel hat Atmosphäre, Konsistenz und Abwechslung, eine top Art Direction etc., ja Cyberpunk hat dies relativ gut hinbekommen, aber ob ich das jetzt auf Medium oder Ultrahigh zocke....diminishing returns...da muss mehr kommen für den aufgerufenen Preis-selbst auf Nvidia/Digital Foundry Pixel Peep Ebene. Ich habe selbst eine Nvidia Grafikkarte aber die Spiele, welche von Raytracing und selbst DLSS profitierten, kann ich an einer Hand abzählen. Die Verkaufszahlen werden anfangs unterirdisch sein.
 
Floxxwhite schrieb:
Wieso? Power Limit runtersetzen und du hast die leiseste und Strom effizienteste Karte überhaupt. So wie bei allen High-End Karten / Prozessoren. Habe das Powerlimit meiner 6900 XT um 12 Prozent reduziert bei 5 % Leistungsverlust. Im normalen Gaming Betrieb ca. 190 Watt Leistungsaufnahme (anstatt ca 220 Watt). Lüfter bei Max 1000 Umdrehungen fixiert.

Klar, wer sich über die Leistungsaufnahme in synthetischen Tests aufregt wird sich so eine Karte nie ins System bauen. Meine 6900 XT hängt auch an einem guten 750 Watt Netzteil und das erste halbe Jahr ohne Probleme sogar an einem 550 Watt Netzteils. Hab halt kein Stressstest für 30 Minuten mit OC drüber gezogen.
warum nur 6 Mante an einem 550 Watt Netzteil?
Ergänzung ()

Nvidia ist bei mir z.Z. sowas von durch...
 
Hat jemand eine idee ab wann die 4090 im nViidia Store (NBB?) am 12 Okober kaufbar sein wird?
 
Das wird aktuell noch nicht mal NBB wissen.

p.s.: Galaxus hat bereits eine 4090 für 3444€ gelistet. Die Scalper werden sich bereits die Hände reiben 🤑🤮
 
Zurück
Oben