Notiz Nvidia Ampere: Mutmaßliches Foto der Asus ROG GeForce RTX 3090 Strix

IBISXI schrieb:
Nö, nichtmal AMD hat das behauptet, die 5700 hat weder einen "BIG Chip" noch "RDNA2"

Das ist doch völlig egal. Die Karte hatte eine gewisse Leistung und wenn man den Preiskampf (in diesem Segment) gewollt hätte, hätten sie die Karte 50-100€ günstiger rausgehauen. Ich rede hier nicht von den Top-Karten, sondern den Beriech 2060-2070, in dem die 5700XT platziert wurde...

Natürlich wirkt sich das aber auch auf die Top-Karten aus, da dort natürlich auch nur ein gewisser Abstand zu den "kleineren" Karten akzeptiert wird.
 
@HorstSan

Das ist nicht egal.

In der Planungsphase der 5700X war 7nm noch teuer und die RDNA Architektur brandneu.
Das waren 2 Gründe nicht in die vollen zu gehen.

Das ist jetzt nicht mehr so.

NV verwendet den selben oder einen schlechteren Herstellungsprozess (TSMC 7nm oder Samsung fake 7nm).
Einen Grafikchip in der Größe hat es von beiden noch nicht gegeben in diesem Prozess.

Also kommt es auf die Architektur an.
Auch Intel hat sich lange sehr sicher gefühlt.

Ich kann nicht genau abschätzen was AMD gemacht hat.
Aber das NV in die vollen geht, hat was zu bedeuten. (Speicherausbau, Chipgröße, TDP)

Die 3090 wird AMD vermutlich nicht schlagen können.
Eine Karte mit 3080 Niveau, mit mehr Speicher und zu besserem Kurs, liegt für mich aber nicht außer Reichweite.

Wer es genau wissen will, muss nur warten.
 
Zuletzt bearbeitet:
Schwierige Situation für alle 2080ti Besitzer. Die 3090 wird wahrscheinlich krass teuer sein (selbst im Vergleich zur 2080ti). Und die 3080 mag zwar schneller sein als die 2080ti hat aber weniger VRAM.:confused_alt:
 
  • Gefällt mir
Reaktionen: Londo Mollari
Wird vmtl. ne Zwickmühle für viele 2080 Ti-Besitzer:
  • 3090 vmtl. zu teuer
  • 3080 mit nur 10GB ist ein Downgrade bezogen auf den Speicher UND
  • das Leistungsplus zur 2080 Ti einer evtl kommenden 3080 mit 20 GB dürfte kein Upgrade rechtfertigen

Also auf AMD warten und wenn das auch nix wird, die Generation Ampere überspringen oder wie?
 
Coma schrieb:
Puh. Ich persönlich hatte jetzt zu 850 Watt tendiert, und selbst das hielt ich schon für großzügig ;-)

Ich war ursprünglich auch bei 850W. Wenn es das Dark Power Pro 12 in 850W gegeben hätte, hätte ich mich höchstwahrscheinlich auch für dieses entschieden. 😉
 
C1996 schrieb:
Schwierige Situation für alle 2080ti Besitzer. Die 3090 wird wahrscheinlich krass teuer sein (selbst im Vergleich zur 2080ti). Und die 3080 mag zwar schneller sein als die 2080ti hat aber weniger VRAM.:confused_alt:
Wie bei der letzten Generation mit der GTX 1080 Ti auch. Man kennt's also...
 
  • Gefällt mir
Reaktionen: iceshield
Als 2080Ti Besitzer werde ich, wenn die RTX 3090 preislich ausartet (bis max. €1499 für ein custom Modell gehe ich noch mit), auf die RTX 3080Ti warten, die so sicher wie das Amen in der Kirche noch irgendwann nachgeschoben wird.
Mal schauen, was nVidia mit der 3080Ti macht... vielleicht 352-bit Interface und 11/22GB VRAM?
Eventuell wird es auch erst mal eine RTX 3080 mit 20GB VRAM, die ja hoffentlich schon im Oktober nachkommen sollen.
Allzu lange warten will ich jedenfalls nicht. Der MSFS hätte gerne etwas mehr "Pump" 😉 .
 
Dieses unendliche Geweine bzgl. "zu wenig VRAM" ist wirklich kaum mehr auszuhalten.

Bei Release der RTX 2080 in 2018 wurde damals schon unendlich gebrüllt, dass die Karte ein Speicherkrüppel ist und bis heute ist ihr in keinem Spiel der VRAM ausgegangen. Außer in irgendwelchen gemoddeten Bastelgames, die natürlich absolut realistisch den Markt und den Bedarf nach Grafikspeicher aufzeigen, nicht.

Manche Leute hier im Forum würden wahrscheinlich ihr komplettes Bankkonto leerräumen, wenn AMD eine 5700 XT mit 2048 GB VRAM auf den Markt bringen würde. Das ist ja scheinbar das Einzige, was eine Grafikkarte noch braucht. Oder man informiert sich einfach mal, was der Unterschied zwischen "allokiertem" und "tatsächlich benötigtem" VRAM ist. Einfach den belegten Speicher mit irgendwelchen Tools auslesen hat nämlich genau null Aussagekraft. Letztere hätten übrigens Verweise zu einschlägigen Tests, die belegen, dass 8 bzw. 10 GB jetzt und in Zukunft zu wenig sind. Aber darauf wartet man heute noch vergebens. Einfach Brüllen ist doch so viel einfacher.

Hoffentlich wechselt hier niemand von einer Radeon 7 auf eine RTX 3080 - "vOlL dAs DoWnGrAdE". Die 16 GB HBM gehen in Games nämlich übelst ab! Ah ne, doch nicht.
 
Zuletzt bearbeitet:
Wird bestimmt ne feine Karte aber das Design bzw. diese Metalloptik gefällt mir nicht wirklich. Ganz davon ab wird diese Gen von mir ausgelassen daher wumpe.

Freue mich aber schon auf neue Ergebnisse im Bench Thread 👌
 
HwHaTe schrieb:
Dieses unendliche Geweine bzgl. "zu wenig VRAM" ist wirklich kaum mehr auszuhalten.
Was erwartest du denn kurz vorm Start eines neuen Grafikkartenrennens? Es wird noch schlimmer werden. Es ist einfach so das der Ram hier knapp gehalten wird um nochmal wenn nötig AMD kontern zu können. Ob man es braucht oder nicht ist da irrelevant, die Frage ist bekomme ich ein angemessenes Produkt als Gegenwert für mein Geld oder werde ich über den Tisch gezogen. Das ist durchaus ein angemessener Kritikpunkt, wäre halt wünschenswert die Leute die meckern würden das Produkt mal im Regal liegen lassen, anstatt es dann doch zu kaufen, denn nur das würde was ändern.
Praxisbeispiel was an Ram ausreichend ist oder nicht hier #474, das ihm das nicht passt das es nur 10GB bei dem Nachfolger wären ist wohl nachzuvollziehen oder?
Man kann jetzt natürlich relativieren und sagen gewöhn dich dran und stell die Regler runter oder dieses Spiel ist ein Ausreisser, nützt ihm aber nix er hat einen Haufen Geld bezahlt und steht schön doof da, da er für einen suboptimalen Nachfolger nochmal nen Haufen Kohle zahlen soll. AMD ist ja auch nicht besser. Es ist das alte Spiel wie immer der eine gibt ne Schippe mehr Power der andere denn ne Schippe mehr Ram und der Königsdepp Kunde macht den Start am tiefstmöglichen Punkt mit.
 
UNRUHEHERD schrieb:
Kaufen würde ich für 800 Euro niemals eine Grafikkarte, imho ist bei 250 Euro nach wie vor eine vernünftige Grenze, die man mal bis 300 Euro ausdehnen kann - obwohl Spielen seit mehr als 25 Jahren mein Lieblingshobby ist (das ist natürlich Geschmackssache).

Alles richtig, man darf allerdings auch nie vergessen, dass z.B. 450€ von vor 10 Jahren nicht mehr der exakten 450€ Kaufkraft von heute entsprechen (Inflation)....
 
A.Xander schrieb:
Was erwartest du denn kurz vorm Start eines neuen Grafikkartenrennens? Es wird noch schlimmer werden. Es ist einfach so das der Ram hier knapp gehalten wird um nochmal wenn nötig AMD kontern zu können. Ob man es braucht oder nicht ist da irrelevant, die Frage ist bekomme ich ein angemessenes Produkt als Gegenwert für mein Geld oder werde ich über den Tisch gezogen. Das ist durchaus ein angemessener Kritikpunkt, wäre halt wünschenswert die Leute die meckern würden das Produkt mal im Regal liegen lassen, anstatt es dann doch zu kaufen, denn nur das würde was ändern.
Praxisbeispiel was an Ram ausreichend ist oder nicht hier #474, das ihm das nicht passt das es nur 10GB bei dem Nachfolger wären ist wohl nachzuvollziehen oder?
Man kann jetzt natürlich relativieren und sagen gewöhn dich dran und stell die Regler runter oder dieses Spiel ist ein Ausreisser, nützt ihm aber nix er hat einen Haufen Geld bezahlt und steht schön doof da, da er für einen suboptimalen Nachfolger nochmal nen Haufen Kohle zahlen soll. AMD ist ja auch nicht besser. Es ist das alte Spiel wie immer der eine gibt ne Schippe mehr Power der andere denn ne Schippe mehr Ram und der Königsdepp Kunde macht den Start am tiefstmöglichen Punkt mit.

Dann kann ich in hier bzgl. "10 GB bei dem Nachfolger" genauso auf Post verweisen.
10 sind immer noch mehr als 8 GB und die 10 sind zudem auch noch schnellerer Speicher.
Wenn er aktuell wirklich Probleme mit 8 GB hat, okay.
Aber noch vor Release über die 10 GB zu weinen, bei einer Karte deren Leistung noch nicht einmal kaufbar ist ... kein Kommentar.
 
Londo Mollari schrieb:
Wird vmtl. ne Zwickmühle für viele 2080 Ti-Besitzer:
  • 3090 vmtl. zu teuer
  • 3080 mit nur 10GB ist ein Downgrade bezogen auf den Speicher UND
  • das Leistungsplus zur 2080 Ti einer evtl kommenden 3080 mit 20 GB dürfte kein Upgrade rechtfertigen

Also auf AMD warten und wenn das auch nix wird, die Generation Ampere überspringen oder wie?

Wenn jemand jedes Jahr dabei sein will, dann muss man halt jetzt mehr Geld ausgeben. Wie wärs mal einfach mit der 2080 Ti glücklich sein? Das wird auch in 2 Jahren noch ne Highend Grafikkarte sein.
 
Die sehen doch alle gleich aus, MSI, ASUS, GAINWARD. Jedes Mal eine neue Nachricht. Oh Mann. Gibt es sonst nichts zu melden?
 
@HwHaTe Abgesehen davon das hier eine alte GDDR5 Karte als Vergleich genommen wird aber die 2080 mit 8GB GDDR6 am Ende ist, startet heute abend sozusagen Das große Formel 1 Rennen in der Königsklasse der Gaming Hardware. Da wird sich emotional ausgetobt und wie ich schon sagte es ist ein altes Spiel zumindest wenn man sich seit fast 3 Jahrzenten im Hardwarebereich rumtreibt. Man kauft ja auch nicht die erste Version einer Konsole oder jeglicher anderer Elektronik.
 
Tharamur schrieb:
Warum nicht einfach mal eine Generation auslassen, wenn einem der Leistungssprung zu gering ist? Tut gar nicht weh. ;)

Das wird bei mir nicht passieren, da meine Karten nach 1-2 Jahren immer defekt gehen. Ich hab da einfach ein Händchen für. Meist gehen die Karten dann in Garantiezeit zum Hersteller und ich kauf mir eine Neue, weil ich nicht warten möchte.
 
Zurück
Oben